분류 전체보기

Paper Review

Non-local Neural Networks (CVPR2018)

안녕하세요. 지난 포스팅의 [IS2D] RefineNet: Multi-Path Refinement Networks for High Resolution Semantic Segmentation (CVPR2017)에서는 RCU, MRF, CRP로 구성된 RefineNet에 대해서 알아보았습니다. 이를 통해 고해상도의 영상에서도 높은 성능을 달성하게 되었죠. 오늘은 self-attention의 확장된 개념인 Non-local Operation을 활용하여 설계한 Non-local Neural Network에 대해서 알아보도록 하겠습니다.  Background최근 음성, 신호, 자연어와 같은 시퀀셜 데이터 (Sequential Data)를 다루는 분야에서 recurrent operation을 활용하여 데이터에 내재..

Paper Review

Escaping the Big Data Paradigm with Compact Transformers (arxiv2021)

안녕하세요. 지난 포스팅의 [Transformer] Transformer in Transformer (NIPS2021)에서는 큰 패치로 나눈 뒤 그 패치들을 다시 나누어 서브 패치 간의 관계성을 학습하는 TNT에 대해서 알아보았습니다. 오늘은 JFT-300M 데이터셋과 같은 대규모 데이터셋에 사전학습의 필요성을 줄이기 위한 시도 중 하나인 Compact Transformer에 대해서 알아보겠습니다.  BackgroundConvolution Neural Network (CNN) 이후로 최근 다양한 Transformer 기반의 모델들이 각광받고 있습니다. 특히, Vision Transformer (ViT)의 등장으로 Computer Vision 분야에서 엄청난 관심을 이끌게 되었죠. 하지만, 합성곱 연산의 ..

Paper Review

GhostNet: More Features from Cheap Operations (CVPR2020)

안녕하세요. 지난 포스팅의 [IC2D] Attentional Feature Fusion (WACV2021)에서는 다중 스케일 특징 맵 간의 어텐션을 수행할 때 적응적으로 어텐션 맵을 추출하는 AFF 모듈에서 대해서 알아보았습니다. 오늘은 CVPR2020에 게재 승인된 GhostNet에 대해서 알아보도록 하겠습니다.  Background지금까지 제안된 효율성을 강조한 다양한 모델들을 보았습니다. 가장 대표적으로 MobileNet, ShuffleNet, CondenseNet, NASNet 등이 있었죠. 이러한 모델들의 공통점은 모두 성능을 최대한 보존하면서 파라미터 개수나 latency 및 FLOPs를 줄임으로써 스마트폰 또는 자율주행 자동차에 모델을 사용할 수 있게 만드는 것을 목표로 하였습니다. 본 논문..

Programming/Pytorch&Tensorflow

[Pytorch] UserWarning: resource_tracker: There appear to be 120 leaked semaphore objects to clean up at shutdown

ImageNet을 이용해서 학습했을 때 비정기적으로 다음과 같은 에러가 발생하였다. 어떻게 해결해야할까?? 현재 환경은 다음과 같다.  Ubuntu 18.04 Python 3.8.5Pytorch 1.8.0a0+52ea372 1) 터미널로 학습 시 python3 -W ignore your_script.py 또는 python3 -W ignore:semaphore_tracker:UserWarning your_script.py 적용 후 실행 => 실패 https://discuss.pytorch.org/t/issue-with-multiprocessing-semaphore-tracking/22943/6 Issue with multiprocessing semaphore trackingstill no news on t..

Paper Review

Transformer in Transformer (NIPS2021)

안녕하세요 지난 포스팅의 [Transformer] Tokens-to-Token ViT: Training Vision Transformer from Scratch on ImageNet (ICCV2021)에서는 Soft-Split 기반의 Tokenization을 적용한 T2T에 대해서 알아보았습니다. 오늘은 패치뿐만 아니라 패치 내의 서브 패치들간 관계성을 함께 학습하는 TNT에 대해서 소개해드리도록 하겠습니다.  Background자연어 처리 분야에서 높은 관심을 받고 있던 Transformer를 비전 분야에 최초로 적용한 ViT를 시작으로 수많은 Transformer들이 컴퓨터 비전 분야에 활용되기 시작하였습니다. 이는 기본적으로 입력 영상을 패치들로 나누어 각 패치들간 관계성을 학습하기 때문에 Glob..

Paper Review

Attention Feature Fusion (WACV2021)

안녕하세요. 지난 포스팅의 [IC2D] CondenseNet V2: Sparse Feature Reactivation for Deep Networks (CVPR2021)에서는 기존의 CondenseNet을 확장한 CondenseNet V2에 대해서 알아보았습니다. 핵심은 Sparse Feature Reactivation을 통해 DenseNet과 같이 모든 feature map들을 활성화하지 않고 feature importance를 기반으로 어떤 layer로부터 온 feature map들을 activation할 지 adaptive할 게 결정하는 것이였습니다. 오늘은 Attentional Feature Fusion (AFF)에 대해서 알아보도록 하겠습니다.  Background지금까지 보았던 다양한 딥 러닝..

Paper Review

RefineNet: Multi-Path Refinement Networks for High Resolution Semantic Segmentation (CVPR2017)

안녕하세요. 지난 포스팅의 [IS2D] Pyramid Scene Parsing Network (CVPR2017)에서는 Pyramid Pooling Module을 기반으로 Semantic Segmentation을 수행한 PSPNet에 대해서 소개하였습니다. 오늘은 Multi-Scale의 특성을 한껏 활용한 RefineNet에 대해서 소개하도록 하겠습니다.  Background기본적으로 Semantic Segmentation은 픽셀별 classification을 수행해야하기 때문에 dense prediction problem 또는 object parsing이라고도 부릅니다. 대표적으로 VGG와 ResNet은 영상 분류 (Image Classification) 문제에서는 높은 성능을 달성하였지만 dense p..

인공지능/Probabilistic Machine Learning (intro)

[PML intro] Introduction

안녕하세요. 최근 들어 딥 러닝 모델에서 확률 모델을 사용하는 것에 큰 관심이 생겨 정리를 한번 해보려고 합니다. 교재는 Probabilistic Machine Learning: An Introduction (Murphy)를 참고하였습니다. 이전에 확률 및 통계와 관련된 포스팅을 한적은 있지만 이를 기계학습과 엮어서 설명한 적은 없기 때문에 아는 내용은 빠르게 넘어가고 모르는 내용만 자세하게 작성하도록 하겠습니다. 오늘은 간략한 Introduction만 진행하도록 하겠습니다.  What is Machine Learning?Def. 1. 기계학습 (Machine Learning)컴퓨터 프로그램이 P로 측정된 T의 작업 성능이 E 경험을 통해 향상되는 경우, 특정 작업 T 및 성능 평가 지표 ..