반응형

 

 

 

논문 링크입니다.

https://arxiv.org/pdf/2112.00322v1.pdf

2022년 발행

 

 

0. Title

FCAF3D: Fully Convolutional Anchor-Free 3D Object Detection

-> 앵커가 없이, Fully Convolution을 사용하여 3D 객체 인식을 하는 건가 보다...

 

1. Abstract

최근 로보틱스와 증강현실에서 촉망받는 분야인 포인트 클라우드(라이다 센서나 RGB-D센서 등으로부터 수집되는 데이터) 기반의 3D 객체 인식이다.

이 논문에서 우리는 FCAF3D, 즉, 최초의 Fully Convolutional Anchor-Free 3D Object Detection 방법을 소개할 것이다.

포인트 클라우드로부터 Voxel(부피와 픽셀 표현을 사용하고, 밀도가 적은(sparse) 컨볼루션을 처리한다.

 

FCAF3D는 하나의 fully convolution feed-forward pass를 통해 큰 크기의 장면들을 적은 런타임으로 다룰 수 있다.

*feed-forward pass : 입력층으로 데이터가 입력되고, 1개 이상으로 구성된 은닉층을 거쳐서 마지막에 있는 출력층으로 출력 값을 내보내는 과정

 

기존의 3D 객체 인식은 객체의 기하학을 기반으로 사전 추정을 하였는데, 

우리는 이것이 그들의 일반화 능력을 제한한다고 주장하였다.

따라서, 사전 추정을 없애기 위해 우리는 oriented bounding box의 매개변수화를 제안하였다.

이를 통해, 순수하게 data만을 지향하는 방식으로 더 좋은 결과를 낼 수 있었다.

 

우리의 방식은

mAP@0.5 on ScanNet V2 (+4.5), SUN RGB-D (+3.5), and S3DIS (+20.5) datasets

의 결과가 있었다.

코드와 모델은 이곳에서 볼 수 있다.

https://github.com/samsunglabs/fcaf3d

 

GitHub - SamsungLabs/fcaf3d: [ECCV2022] FCAF3D: Fully Convolutional Anchor-Free 3D Object Detection

[ECCV2022] FCAF3D: Fully Convolutional Anchor-Free 3D Object Detection - GitHub - SamsungLabs/fcaf3d: [ECCV2022] FCAF3D: Fully Convolutional Anchor-Free 3D Object Detection

github.com

 

 

 

 

 

 

 

반응형
반응형

 

 

 

점점 집 보러 다니기의 신의 되어 가고 있다....

특히 오피스텔에 대해 많은 것을 알게 되었는데,

오피스텔을 볼 때 어떤 것을 고려해야 하는지 공유해보려고 한다.

 

기본적인 사항

- 방음 : 벽 두들겨 보기

- 교통 : 역까지 직접 걸어가 보기

- 치안 : 밤에 가보기

- 주차 : 주차장 가보기, 호갱 노노 확인, 자주식인지 기계식인지(기계식이면 뺄 때 오래 걸림, 출근시간에 최악)

- 근저당 : 등기부등본 확인

- 전입 가능 여부

- 수압 : 샤워기 틀어보기

 

청결, 위생 관련

- 벌레 : 벌레 똥, 1층에 음식점 여부, 호갱 노노 확인

- 냉장고 냄새

- 세탁기 물때 확인

- 곰팡이 있는지 : 눈으로 확인, 북향이면 더 주의

- 결로 현상 있는지 : 호갱노노 확인, 북향이면 더 주의

- 분리수거하는 곳 : 너무 멀진 않은지, 관리는 잘 되어 있는지 확인

- 담배 냄새 올라오는지 : 호갱 노노 확인

- 옆집 밑집 음식 냄새 올라오는지 : 호갱노노 확인

 

그 외, 자잘하지만 무시할 수 없는 부분

- 관리비 어느 정도 나오는지 : 오피스텔은 20만 원 넘게도 나올 수 있다, 호갱 노노로 확인

- 콘센트 머리맡에 있는지, 몇 개인지 확인

- 가스 난방기인지, 전기 난방기인지 : 전기 난방기이면 전기세 많이 나옴

- 에어컨이 fcu방식인지 일반인지 : fcu면 냉풍기다

- cctv 어디에 있는지

- 엘리베이터 몇 개인지 : 너무 적으면 기다리는 시간 오래 걸림

- 집 근처에 고깃집, 술집, 곱창집 등이 있지 않은지 : 냄새, 소리, 빛

 

선택적인 부분

- 뷰가 잘 나오는지, 탁 트여 있는지, 채광이 있는지 : 바로 앞에 다른 건물이 있거나 사람들이 볼 수 있다면 창문이 없는 것이나 다름없다ㅠ

- 남향인지, 어느 향인지

- 층고가 높은지 낮은지

- 복층인지 단층인지

- 집 주변에 공원이나 운동할 만한 곳이 있는지

- 오피스텔 내에 헬스장이 있는지

 

 

 

 

 

 

 

 

 

 

 

 

반응형
반응형

 
 
 
 
오피스텔 월세를 알아보던 중, 
아주 마음에 드는 집을 발견했다. 
크기도 넓고 동네 분위기도 괜찮고 벌레도 안 나올 것 같고, 방음도 괜찮은....

그런데!! fcu 에어컨이라서 더울 수 있다고 한다.

 
FCU는 Fan Coil Unit의 약자로, 중앙 냉방 시스템에서 냉수를 이용해 실내 온도를 조절하는 방식이다. 검색해보니 사람들이 이걸 에어컨보다는 냉풍기에 가깝다고 표현했다. 에어컨이라고 생각했는데, 왠지 시원한 바람보다는 찬바람이 살짝 나오는 느낌이랄까?

 

 

오피스텔 fcu 에어컨 후기 모음

OOO : 에어컨이 시끄럽고 별로 안 시원해요
OOO : 에어컨을 하절기에만 가동해 줘요
OOO : 에어컨은 냉방이 안 시원해요ㅜ... 여름에 좀 힘들었어요
OOO : 하루 종일 틀어놔야 땀이 안 나는 정도
OOO : 에어컨에서 비 오는 것처럼 물이 떨어져서 물바다 된 적도 있고...
OOO : 여름에는 fcu라서 더워서 전 이동식 에어컨 설치했어요
OOO : 냉방이 FCU방식이라 그런지 습도 높은 바람이 나옴. 습한 날씨에는 에어컨과 제습기를 같이 틀어야 하는 촌극이 발생함.
 

굉장히 더 충격적이었던 사실


게다가 fcu 방식은 실외기 없이도 설치가 가능해서
내가 만약 추가적으로 일반 에어컨을 설치하고 싶어도
실외기가 없기 때문에 설치가 힘들다고 한다.
 
 

그렇다면 대안은?!

대안으로는 창문형 에어컨과 이동식 에어컨이 있다.
이 친구들은 굉장히 소음이 심하고 잘못 설치하면 벌레 친구들이 창문을 통해 들어올 수 있다.
하지만 쪄 죽는 것보다는 나을 수도 있을 것이다.
 



 
 
 
 
 
 
 
 
 
 
 

반응형
반응형

 

 

 

1. 구문론적 구조 : Consistency와 Dependency


1) Consistency structure : context-free grammars(CFGs)

- 시작 : 단어

ex) the, cat, cuddly, by, door

- 단어가 구문으로 합쳐짐

ex) the cuddly cat, by the door

- 구문이 더 큰 구문으로 합쳐짐

ex) the cuddly cat by the door

 

 

 

2) Dependency structure

: 어떤 단어가 다른 어떤 단어에 의존하고 있는지를 보여준다.

 

 

3) 왜 문장구조가 필요한가?

모델이 언어를 정확하게 해석하기 위해서

전치사 부착(attachment)의 애매함 때문에

 

범위의 애매함 때문에

동사 구절 부착(attachment)의 애매함 때문에

 

 

2. Dependency Grammar


단어들간의 관계로 구성되어 있다.

 

 

 

 

 

 

 

 

 

 

 

 

반응형

'AI > CS224n' 카테고리의 다른 글

Lecture 3 - Backprop and Neural Networks  (0) 2022.07.27
Lecture 2 - Neural Classifiers  (0) 2022.07.19
Lecture 1 - Intro & Word Vectors  (0) 2022.07.13
반응형

 

 

 

NER(Named Entity Recognition)


문장에서 이름들을 찾고, 분류하는 태스크이다.

예1) Paris(PER) Hilton(PER) wowed in a sequin gown.

예2) Samuel(PER) Quinn(PER) was arrested in the Hilton(LOC) Hotel(LOC) in Paris(LOC) in April(DATE) 1989(DATE).

-> Paris가 지역이 아닌 사람 이름이라는 것을 분류하기 위해서는 "context"를 고려해야 한다.

 

 

 

Simple NER


아이디어 : 주변 단어들의 문맥 안에서 각각의 단어를 분류한다.

- logistic classifier를 학습시킨다.

- 단어 벡터들을 concatenate한 것을 바탕으로 center word를 분류한다.

 

 

 

 

Gradients


n개의 input과 1개의 output이 있는 f(x) = f(x1, x2, ..., xn) 이 있을 때,

f(x)의 미분값은 각각의 input들의 편미분의 벡터이다.

 

 

 

Jacobian Matrix: Generalization of the Gradient


n개의 input과 m개의 output이 있는 f(x) = [f1(x1, x2, ..., xn), ..., fm(x1, x2, ..., xn)] 이 있을 때,

f(x)의 미분값은 편미분들의 m x n 행렬이다.

 

 

 

Question


- logistic인지? softmax인지?

 

 

 

 

 

 

 

 

반응형

'AI > CS224n' 카테고리의 다른 글

Lecture 4 - Syntactic Structure and Dependency Parsing  (0) 2022.08.03
Lecture 2 - Neural Classifiers  (0) 2022.07.19
Lecture 1 - Intro & Word Vectors  (0) 2022.07.13
반응형


Lecture 2
Word Vectors, Word Senses, and Neural Network Classifier

# Word2vec parameters and computations

### bag of words


각각의 단어 벡터를 구하고, outside 벡터와 center 벡터를 dot product한 다음, softmax로 결정한다.
이것은 bag of words 모델로, 단어의 순서를 고려하지 않는 모델이다.


### Word2vec은 비슷한 단어들을 가까이 둠으로써 목적함수를 최대화할 수 있다.


# Optimization : Gradient Descent
- 비용함수를 최소화해야 한다.
- Gradient Descent는 기울기를 변형함으로써 비용함수를 최소화할 수 있다.
- Update Equation


### 문제 : 모든 windows들에 함수를 적용하기 때문에 굉장히 비용이 크다.
- 해결책 : Stochastic gradient descent
-> 배치로 뽑아서 각각 업데이트하는 방식
- 일반적으로 row가 단어 하나의 벡터이다.


### Word2vec detail
두 가지 모델 방식
1) Skip-gram
2) Continuous Bag of words(CBOW)



Skip gram : center word가 주어지고, other words 예측
Cbow : other words가 주어지고, center word 예측

Skip gram model with Negative sampling
Object function은 center와 others를 dot product
: softmax -> logistic / sigmoid (0-1사이로 만듬)
- 실제 outside words가 나타날 확률을 늘리고
- 랜덤 words가 center word 주위에 나타날 확률을 줄인다
- Unigram 분포에 따라 샘플링한다 -> 적게 나오는 단어가 더 자주 나오게 함 -> 왜?


Co-occurrence vectors
- simple count co-occurrence vectors : 공간낭비, 고차원임 -> skip gram, cbow
- Low-dimensional vectors : 차원을 어떻게 더 줄일까? 고민

차원 줄이기(hw1)
- x = u * £ * vt
- U와 v는 가로세로 동일
- U와 v 사이즈 안 맞는 부분은 무시

Vector 차이로 의미를 인코딩하기
: Co-occurence 확률의 비율이 곧 의미가 될 수 있다

Word vector 구하기
- intrinsic : 단어 하나하나 평가, 빠르게 구함, vector간의 cosine distance로 유사도 구함, 만약 단어들간의 관계가 linear가 아니라면?
- Extrinsic : 실제 태스크에서 평가, 시간이 많이 걸릴 수 있음

성능 semantic > syntactic
Dimensional은 300 개 정도면 된다

동일 단어에 여러 뜻이 있는 경우에는
1)다른 벡터를 가지기도록 할 수 있음
2)linear algebraic하기 합쳐서 한 벡터로 표현할 수 있음


# 샘플을 왜 뽑아요?
# unigram 왜?

반응형

'AI > CS224n' 카테고리의 다른 글

Lecture 4 - Syntactic Structure and Dependency Parsing  (0) 2022.08.03
Lecture 3 - Backprop and Neural Networks  (0) 2022.07.27
Lecture 1 - Intro & Word Vectors  (0) 2022.07.13

+ Recent posts