분류 전체보기

논문 함께 읽기/Transformer

[Transformer] Training Data-efficient Image Transformer & Distillation through Attention (ICML2021)

안녕하세요. 지난 포스팅의 [Transformer] Swin Transformer: Hierarchical Vision Transformer using Shifted Windows (ICCV2021)에서는 기존의 ViT아 가지고 있는 고질적인 한계점인 "큰 해상도 영상에 대한 과도한 어텐션 연산량"을 해결하기 위한 W-MSA와 SW-MSA를 제안한 Swin Transformer에 대해서 알아보았습니다. 지금까지 저희는 Computer Vision 분야에 Transformer를 적용한 두 가지 방법인 ViT와 Swin Transformer에 대해서 보았죠? 하지만, 지난 포스팅에서 비교할 때 DeiT라는 Transformer 기반 모델이 있었던 것을 기억하시나요? 오늘은 DeiT 모델에 대해서 집중적으로 ..

논문 함께 읽기/Transformer

[Transformer] Swin Transformer: Hierarchical Vision Transformer using Shifted Windows (ICCV2021)

안녕하세요. 지난 포스팅의 [Transformer] An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale (ICLR2021)에서는 Vision Transformer (ViT)에 대해 소개해드렸습니다. 핵심은 기존의 NLP 분야에서 많이 사용되는 Transformer를 Computer Vision 분야에서도 활용하기 위해 입력 영상을 패치로 분해한 뒤 patch embedding과 positional encoding을 통해 1D sequence 데이터와 같이 이용할 수 있는 방법에 대해 제안하였습니다. 오늘은 ViT의 한계점을 지적하며 등장한 Swin Transformer에 대해 소개해드리도록 하겠습니다. Swin Transf..

논문 함께 읽기/2D Image Classification (IC2D)

[IC2D] Big-Little Net: An Efficient Multi-Scale Feature Representation for Visual and Speech Recognition (ICLR2019)

안녕하세요. 지난 포스팅의 [IC2D] Selective Kernel Networks (CVPR2019)에서는 InceptionNet에서 아이디어를 얻어 multi-path 기반의 non-linear aggregation을 수행하는 SK 합성곱 연산과 이를 기반으로 SKNet에 대해 소개하였습니다. 오늘도 multi-path 기반의 efficiency를 강조한 Big-Little Net에 대해서 소개하도록 하겠습니다. Big-Little Net: An Efficient Multi-Scale Feature Representation for Visual and Speech Recognition In this paper, we propose a novel Convolutional Neural Network (..

논문 함께 읽기/Transformer

[Transformer] An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale (ICLR2021)

안녕하세요. 지금까지 Transformer가 유명하다는 것은 알았지만 게을러서 공부를 안하고 있다가 최근 연구실에서 Transformer를 공부할 일이 생겨 차근차근 정리를 해보기 위해 트랜스포머 관련 논문을 리뷰하기로 하였습니다. 해당 카테고리에는 영상 분류 (Image Classification) 및 영상 분할 (Image Segmentation)을 Transformer 로 사용한 모든 논문들을 포함시킬 예정입니다. 다만, 이후에 분류를 위해 태그에 영상 분류인 경우 IC2D, 영상 분할인 경우 IS2D와 같이 추가하도록 하겠습니다. 오늘은 Transformer 를 영상 인식을 위해 적용한 가장 유명한 논문인 Vision Transformer에 대해서 소개하도록 하겠습니다. 이전에 Transforme..

논문 함께 읽기/2D Image Classification (IC2D)

[IC2D] Selective Kernel Networks (CVPR2019)

안녕하세요. 지난 포스팅의 [IC2D] Drop an Octave: Replacing Spatial Redundancy in Convolutional Neural Networks with Octave Convolution (ICCV2019)에서는 저주파에 존재하는 Spatial Redundancy를 줄일 수 있는 OctConv에 대한 이야기를 해드렸습니다. 오늘도 CNN 구조에 큰 영향을 주었던 Selective Kernel Networks에 대해서 소개시켜드리겠습니다. Selective Kernel Networks In standard Convolutional Neural Networks (CNNs), the receptive fields of artificial neurons in each layer..

논문 함께 읽기/2D Image Classification (IC2D)

[IC2D] Drop an Octave: Reducing Spatial Redundancy in Convolution Neural Networks with Octave Convolution (ICCV2019)

안녕하세요. 지난 포스팅의 [IC2D] Searching for MobileNetV3 (ICCV2019)에서는 MobileNetV2와 MNAS + NetAdapt 알고리즘을 결합하여 좀 더 효율적인 모델인 MobileNetV3를 제안하였습니다. 오늘은 새로운 합성곱 연산인 OctConv에 대해서 소개하고자 합니다.   Drop an Octave: Reducing Spatial Redundancy in Convolutional Neural Networks with Octave ConvolutionIn natural images, information is conveyed at different frequencies where higher frequencies are usually encoded with f..

수학/선형대수학

선형대수학 - 유니터리 행렬과 직교 행렬

안녕하세요. 지난 포스팅의 선형대수학 - 유니터리 연산과 직교 연산에서는 연산 전후의 벡터의 노름이 유지되는 선형연산자인 유니터리 연산 (복소내적공간) 및 직교 연산 (실내적공간)에 대해서 알아보았습니다. 오늘은 이를 행렬의 관점에서 보도록 하겠습니다. 정의1. 유니터리 행렬 (Unitary Matrix)과 직교 행렬 (Orthogonal Matrix) 정사각행렬 $A$가 $A^{*}A = AA^{*} = I$를 만족하면 유니터리 행렬 (Unitary Matrix), 그리고 $A^{t}A = AA^{t} = I$를 만족하면 직교 행렬 (Orthogonal Matrix)라고 한다. A square matrix $A$ is called an unitary if $A^{*}A = AA^{*} = I$ and ..

수학/선형대수학

선형대수학 - 유니터리 연산과 직교 연산

안녕하세요. 지난 포스팅의 선형대수학 - 자기수반 연산과 에르미트 연산에서는 실내적공간의 정규 직교기저가 선형연산자의 고유벡터로 이루어지기 위한 조건인 자기수반 연산 또는 에르미트 연산이라는 것에 대해서 알아보았습니다. 오늘은 연산 전의 벡터의 노름의 크기를 보존하는 선형연산자의 특성에 대해서 알아보도록 하겠습니다. 본격적으로 진행하기에 앞서 직관적으로 벡터의 노름을 "보존"하는 기하학적인 연산에는 무엇이 있을까요? 가장 대표적인 예시로는 회전 (rotation)과 반사 (reflection)이겠네요. 두 연산은 모두 벡터의 노름은 보존하기 때문에 저희가 앞으로 관심있게 봐야할 기하학적 연산이 될 것 입니다. 이러한 연산을 수학적으로 일반화시켜 표현하면 다음과 같은 정의를 생각해볼 수 있습니다. 정의1...

Johns Hohns
'분류 전체보기' 카테고리의 글 목록 (4 Page)