DA

논문 함께 읽기/Data Augmentation (DA)

[DA] AutoAugment: Learning Augmentation Strategies from Data (CVPR2019)

안녕하세요. 지난 포스팅의 [DA] Attentive CutMix: An Enhanced Data Augmentation Approach for Deep Learning Based Image Classification (ICASSP2020)에서는 분류기 외에 추가적인 pretrain된 추출기 (ResNet50)을 통해 영상 내에 중요한 영역을 선택하여 타겟 영상으로 paste하는 Attentive CutMix에 대해서 소개하였습니다. 오늘은 다른 방식으로 놀라운 성능을 보였던 AutoAugment를 소개시켜드리겠습니다. Background 기본적으로 데이터 증강은 주어진 데이터 도메인에 대해서 불변성을 향상시키는 것을 목표로 합니다. 예를 들어서, 같은 고양이 사진이라고 해도 회전된 고양이 영상을 입력받..

논문 함께 읽기/Data Augmentation (DA)

[DA] Attentive CutMix: An Enhanced Data Augmentation Approach for Deep Learning Based Image Classification (ICASSP2020)

안녕하세요. 지난 포스팅의 [DA] ResizeMix: Mixing Data with Preserved Object Information and True Labels (arxiv2020)에서는 Saliency information 보다는 데이터 증강을 통한 데이터 다양성을 증가시키는 것이 더욱 중요하다는 것을 강조하였으며 이를 기반으로 ResizeMix를 제안하였습니다. 오늘도 CutMix 기반의 논문인 Attentive CutMix에 대해서 소개해드리도록 하겠습니다. Background 일반적으로 많이 사용되는 데이터 증강은 MixUp, CutOut, CutMix와 같은 방법이 있습니다. 이러한 방법들은 모두 심층 신경망 모델의 객체 인식 능력과 지역화 능력을 크게 향상시키는 데 도움이 되었죠. 하지만..

논문 함께 읽기/Data Augmentation (DA)

[DA] ResizeMix: Mixing Data with Preserved Object Information and True Lables (arxiv2020)

안녕하세요. 지난 포스티의 [DA] Data Augmentation Using Random Cropping and Patch for Depp CNNs (IEEE TCSVT2020)에서는 4장의 영상을 Mix 하는 RICAP에 대해서 알아보았습니다. 오늘은 ResizeMix라는 방법에 대해서 소개하도록 하겠습니다. ResizeMix: Mixing Data with Preserved Object Information and True Labels Data augmentation is a powerful technique to increase the diversity of data, which can effectively improve the generalization ability of neural netwo..

논문 함께 읽기/Data Augmentation (DA)

[DA] Data Augmentation Using Random Image Cropping and Patching for Deep CNNs (IEEE TCSVT2020)

안녕하세요. 지난 포스팅의 [DA] The Effectiveness of Data Augmentation in Image Classification using Deep Learning (arxiv2017)에서는 GAN 기반의 데이터 증강을 이용한 방법에 대해서 설명하였습니다. 오늘은 알고리즘 기반의 데이터 증강인 Random Image Cropping And Patching (RICAP)에 대해서 소개해드리도록 하겠습니다. Background 지금까지 저희는 MixUp, CutOut, CutMix와 같은 기본적인 데이터 증강 방법에 대해서 알아보았습니다. 이 방법들의 공통점은 두 장의 영상을 이용해서 서로 linear combination을 취하거나 sub-region을 교환하는 방법을 제안합니다. Cu..

논문 함께 읽기/Data Augmentation (DA)

[DA] The Effectiveness of Data Augmentation in Image Classification using Deep Learning (arxiv2017)

안녕하세요. 지난 포스팅의 [DA] CutMix: Regularization Strategy to Train Strong Classifier with Localizable Features (ICCV2019)에서는 데이터 증강에서 중요한 방법 중 하나인 CutMix를 소개시켜드렸습니다. 오늘은 새로운 방법론을 소개해드리는 것은 아니고 GAN 기반의 데이터 증강을 수행할 때 성능 향상을 분석하는 논문을 리뷰하고자 합니다. 가벼운 마음으로 보셔도 될 거 같습니다. 일단, 본 논문에서는 2가지 데이터 증강을 수행할 때 2가지 접근법을 제안합니다. 1). 학습하기 전에 분류기에 학습할 새로운 데이터를 미리 만들어 놓는다. 2). 학습을 진행하면서 분류기에 학습할 새로운 데이터를 함께 만든다. 1)번 같은 경우에는..

논문 함께 읽기/Data Augmentation (DA)

[DA] CutMix : Regularization Strategy to Train Strong Classifier with Localizable Features (ICCV2019)

안녕하세요. 오늘은 컴퓨터 비전 최고 학회 중 하나인 ICCV에 2019년에 억셉된 논문인 "CutMix : Regularization Strategy to Train Strong Classifier with Localizable Features"를 리뷰해보도록 하겠습니다. CutMix: Regularization Strategy to Train Strong Classifiers with Localizable Features Regional dropout strategies have been proposed to enhance the performance of convolutional neural network classifiers. They have proved to be effective for gu..

논문 함께 읽기/Data Augmentation (DA)

[DA] Improved Regularization of Convolutional Neural Networks with CutOut (arxiv2017)

안녕하세요. 오늘 리뷰할 논문은 'Improved Regularization of Convolutional Neural Networks with CutOut'로 arxiv에 공개적으로 출판되어있는 논문입니다. 해당 논문은 제목에서도 알 수 있다싶이 Data Augmentation 중 CutOut이라는 방법을 제안한 논문입니다. Improved Regularization of Convolutional Neural Networks with Cutout Convolutional neural networks are capable of learning powerful representational spaces, which are necessary for tackling complex learning tasks. ..

논문 함께 읽기/Data Augmentation (DA)

[DA] mixup:Beyond Empirical Risk Minimization (ICLR2018)

안녕하세요. 정말 오랜만에 논문 리뷰를 하게 되었습니다. 오늘 리뷰할 논문은 Data Augmentation에서 아주 유명한 논문입니다. 바로 mixup이라는 논문인데요. 간단하게 설명을 해보도록 하겠습니다. 일단 기본적으로 신경망의 특징은 2가지로 정리해볼 수 있습니다. 훈련 데이터셋에 대한 평균 에러를 최소화함으로써 신경망 최적화 이전에 나왔던 SOTA 성능의 신경망은 훈련 데이터셋의 크기에 선형적으로 비례하여 그 규모가 커짐 이때, 첫번째 특징을 Empirical Risk Minimization(ERM) principle이라고도 합니다. 즉, 저희가 현재 볼 수 있는 데이터인 empirical distribution을 통해서 risk(error)를 최소화한다는 것이죠. 이는 사실 당연하다고 볼 수 ..

Johns Hohns
'DA' 태그의 글 목록