분류 전체보기

수학/선형대수학

선형대수학 - 내적과 내적공간

안녕하세요. 지난 포스팅의 선형대수학 - 불변 부분공간과 케일리-해밀턴 정리에서는 불변 부분공간과 순환 부분공간이라는 개념을 기반으로 케일리-해밀턴 정리 (Cayley-Hamilton Theorem)을 증명해보았습니다. 오늘은 주제를 바꾸어서 내적 (inner product)이라는 개념에 대해서 알아보도록 하겠습니다. 정의1. 내적 (inner product) $V$를 $\mathbf{F}$ 상에서 정의된 벡터공간이라고 하자. 벡터공간 $V$에서의 내적 (innter product)는 벡터공간 $V$의 임의의 두 벡터 $x$와 $y$ 쌍을 $\mathbf{F}$ 상의 스칼라로 변환하는 함수이며 $$로 표기한다. 벡터공간 $V$ 내의 임의의 세 벡터 $x, y, z$와 스칼라 $c \in \mathbf{F..

Paper Review

AutoAugment: Learning Augmentation Strategies from Data (CVPR2019)

안녕하세요. 지난 포스팅의 [DA] Attentive CutMix: An Enhanced Data Augmentation Approach for Deep Learning Based Image Classification (ICASSP2020)에서는 분류기 외에 추가적인 pretrain된 추출기 (ResNet50)을 통해 영상 내에 중요한 영역을 선택하여 타겟 영상으로 paste하는 Attentive CutMix에 대해서 소개하였습니다. 오늘은 다른 방식으로 놀라운 성능을 보였던 AutoAugment를 소개시켜드리겠습니다. Background기본적으로 데이터 증강은 주어진 데이터 도메인에 대해서 불변성을 향상시키는 것을 목표로 합니다. 예를 들어서, 같은 고양이 사진이라고 해도 회전된 고양이 영상을 입력받으..

Paper Review

CBAM: Convolutional Block Attention Module (ECCV2018)

안녕하세요. 지난 포스팅의 [IC2D] BAM: Bottleneck Attention Module (BMVC2018)에서는 기존의 SE Block에서 제안한 Channel Attention을 확장하여 합성곱 연산을 통한 Spatial Attention을 병렬적으로 적용한 BAM에 대해서 알아보았습니다. 오늘은 BAM을 확장한 CBAM에 대해서 알아보도록 하겠습니다.  Background지금까지 많은 CNN 구조들이 깊이, 너비, cardinality와 같은 차원을 제안함으로써 모델의 성능 향상을 얻어냈습니다. 특히, ResNeck 기반의 모델들이 많이 제안되었죠. 대표적으로 ResNet, WRN, Xception, ResNext 등이 있었습니다. 그 중에서도 Xception과 ResNext에서는 card..

수학/선형대수학

선형대수학 - 불변 부분공간과 케일리-해밀턴 정리

안녕하세요. 지난 포스팅의 선형대수학 - 대각화 2에서는 중복되는 고유값을 가지는 경우에 대각화 가능성에 대해서 이야기하였습니다. 오늘은 선형대수학에서 중요한 정리 중 하나인 케일리-해밀턴 정리 (Cayley-Hamilton Theorem)에 대해서 이야기해보도록 하겠습니다. 정의1. $T$ 불변 부분공간 ($T$-invariant subspace) $T$를 벡터공간 $V$ 상에서의 선형 연산자라고 하자. $V$의 부분공간 $W$가 $T(W) \subseteq W$ 즉, 모든 $v \in W$에 대해서 $T(v) \in W$를 만족하면 부분공간 $W$를 $T$ 불변 부분공간이라고 한다. Let $T$ be a linear operator on a vector space $V$. A subspace $W$..

Paper Review

Attentive CutMix: An Enhanced Data Augmentation Approach for Deep Learning Based Image Classification (ICASSP2020)

안녕하세요. 지난 포스팅의 [DA] ResizeMix: Mixing Data with Preserved Object Information and True Labels (arxiv2020)에서는 Saliency information 보다는 데이터 증강을 통한 데이터 다양성을 증가시키는 것이 더욱 중요하다는 것을 강조하였으며 이를 기반으로 ResizeMix를 제안하였습니다. 오늘도 CutMix 기반의 논문인 Attentive CutMix에 대해서 소개해드리도록 하겠습니다.  Background일반적으로 많이 사용되는 데이터 증강은 MixUp, CutOut, CutMix와 같은 방법이 있습니다. 이러한 방법들은 모두 심층 신경망 모델의 객체 인식 능력과 지역화 능력을 크게 향상시키는 데 도움이 되었죠. 하지만..

Paper Review

BAM: Bottleneck Attention Module (BMVC2018)

안녕하세요. 지난 포스팅의 [IC2D] EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks (PMLR2019)에서는 3개의 차원에 대한 모델 스케일링을 적용하는 compound scaling과 MNASNet을 조합한 EfficientNet에 대해서 알아보았습니다. 오늘은 BAM이라는 어텐션 모듈에 대해서 소개시켜드리도록 하겠습니다.   BAM: Bottleneck Attention ModuleRecent advances in deep neural networks have been developed via architecture search for stronger representational power. In this work..

Programming/Coding Problem

BOJ 1436번: 영화감독 숌

핵심 포인트 브루트포스 제출코드 N = int(input()) cnt = 0 number = 666 while cnt != N: if '666' in str(number): cnt += 1 number += 1 print(number - 1) 해설 오늘은 브루트포스 문제 입니다. 브루트포스에 대한 자세한 설명은 지난 포스팅의 BOJ 2798번: 블랙잭을 참고해주시길 바랍니다. 문제를 보면 666이라는 숫자만 들어가면 종말의 수라고 판단되기 때문에 666부터 시작해서 숫자를 1씩 올리면서 666이 포함되어 있으면 cnt를 1 증가시키고 아니면 증가시키지않는 방식으로 전수탐색을 진행하면 됩니다. 코딩을 편하게 하기 위해 현재 숫자를 문자열로 바꾼 뒤 in 함수를 사용해서 해당 '666' 문자열이 현재 숫자에..

Programming/Coding Problem

BOJ 19532번: 수학은 비대면강의입니다

핵심 포인트 브루트포스 제출코드 a, b, c, d, e, f = map(int, input().split()) flag = 0 for x in range(-999, 1000): for y in range(-999, 1000): if a * x + b * y == c and d * x + e * y == f: print(x, y) flag = 1 break if flag: break 해설 오늘은 브루트포스 문제 입니다. 브루트포스에 대한 자세한 설명은 지난 포스팅의 BOJ 2798번: 블랙잭을 참고해주시길 바랍니다. 브루트포스의 기본은 저희가 답을 탐색할 범위를 정하는 것 입니다. 문제를 보면 연립방정식의 계수가 주어집니다. 그리고 해가 유일하다는 점과 해의 범위가 -999 ~ 999로 한정되어있다는 점..

Johns Hohns
'분류 전체보기' 카테고리의 글 목록 (22 Page)