안녕하세요. 지난 포스팅의 [IC2D] Rethinking the Inception Architecture for Computer Vision (CVPR2016)에서는 GoogLeNet의 발전된 모델인 InceptionNet-V2와 InceptionNet-V3에 대해서 소개시켜드렸습니다. 현재 꽤나 많이 실험 검증 단계에서 쓰이고 있는 Wide Residual Network (WRN)에 대해서 소개해드리도록 하겠습니다. Wide Residual Networks Deep residual networks were shown to be able to scale up to thousands of layers and still have improving performance. However, each fracti..
안녕하세요. 지난 포스팅의 [IC2D] Deep Networks with Stochastic Depth (ECCV2016)에서는 ResNet에서 Stochastic Depth를 적용하여 학습의 효율성과 정규화 효과까지 동시에 얻은 방법에 대해서 설명하였습니다. 지난 포스팅에서는 새로운 네트워크 구조에 대한 설명은 없었습니다. 오늘은 지난 포스팅의 [IC2D] Going Deeper with Convolutions (CVPR2015)에서 제안된 GoogLeNet에서 한 단계 더 발전된 구조인 InceptionNet-V2와 InceptionNet-V3에 대해서 소개해드리도록 하겠습니다. Rethinking the Inception Architecture for Computer Vision Convolutio..
안녕하세요. 지난 포스팅의 [IC2D] Identity Mappings in Deep Residual Networks (ECCV2016)에서는 ResNet에서 Identity Mapping의 중요성과 activation function의 위치에 따른 성능 변화를 분석하였습니다. 결과적으로 Batch Normalization과 ReLU를 Skip connection에서 제일 먼저 적용하는 것이 가장 높은 성능을 얻었음을 확인하였죠. 오늘은 ResNet의 변형 구조인 Stochastic ResNet에 대해서 소개해드리도록 하겠습니다. Deep Networks with Stochastic Depth Very deep convolutional networks with hundreds of layers have ..
안녕하세요. 지난 포스팅의 [IC2D] Deep Residual Learning for Image Recognition (CVPR2016)에서는 ResNet 계열 모델의 시작을 알린 ResNet에 대해서 소개해드렸습니다. 오늘은 이 ResNet을 좀 더 심층적으로 분석하고 좀 더 성능을 향상시킬 수 있는 방법에 대해 소개한 논문에 대해서 소개해드리고자 합니다. 이를 통해 새로운 형태의 ResNet을 PreAct ResNet이라고 정의합니다. 본 논문에서는 어떤 방식으로 해당 모델을 정의하게 됬는지 한번 알아보도록 하죠. Identity Mappings in Deep Residual Networks Deep residual networks have emerged as a family of extremely..
안녕하세요. 오늘은 지난 포스팅의 [IC2D] Going Deeper with Convolutions (CVPR2015)에서 소개드린 GooLeNet에 이어 ILSVRC 2015에서 VGGNet과 GoogLeNet을 압도적인 차이로 이긴 ResNet을 소개해드리도록 하겠습니다. ResNet은 현재 Semantic Segmentation, Object Detection과 같은 비전 분야에서 필수적으로 사용되고 있는 기본 모델로써 알고 사용하는 것이 굉장히 중요합니다. 오늘은 ResNet을 개발하게 된 동기를 이해한다면 쉽게 이해할 수 있습니다. Deep Residual Learning for Image Recognition Deeper neural networks are more difficult to t..
안녕하세요. 오늘은 컴퓨터 비전 최고 학회 중 하나인 ICCV에 2019년에 억셉된 논문인 "CutMix : Regularization Strategy to Train Strong Classifier with Localizable Features"를 리뷰해보도록 하겠습니다. CutMix: Regularization Strategy to Train Strong Classifiers with Localizable Features Regional dropout strategies have been proposed to enhance the performance of convolutional neural network classifiers. They have proved to be effective for gu..
대학원 석사 생활 2년 하고도 한 학기가 더 지나 드디어 졸업이 눈앞에 다가왔다. 지난 2년 반 동안 나의 발자취와 마음가짐을 돌아보고자 이번 포스팅을 작성하게 되었다. 혹시라도 이 글이 앞으로 대학원에 입학할 사람들에게 도움이 되었으면 했으면 좋겠다. 대학교 입학 전 가끔 수학 또는 영상 처리 관련 포스팅을 올릴 때 언급했던 것은 내가 컴퓨터 관련 학과 출신이 아닌 수학과 출신이라는 것이다. 나는 15학번 수학과로 입학했다. 그렇다면 왜 수학과에 입학했을까? 나는 초등학교 때부터 다른 과목은 몰라도 수학에 대한 관심은 많은 편이였다. 한 가지 예로 초등학교 때 진법에 대한 개념을 배운 적이 있다. 그리고 혼자서 공상에 빠질 때가 많았는데, 어느 날 드는 생각은 한명이 연속적인 자연수를 손으로 셀 수 있..
완벽한 코딩은 존재하지 않습니다. 제가 제출한 코드 역시 마찬가지고 그저 참고만 해주시길 바랍니다. 핵심 포인트 반복문 : for문 제출 코드 X = int(input()) N = int(input()) s = 0 for _ in range(N): price, number = map(int, input().split()) s += price * number if s == X: print("Yes") else: print("No") 해설 반복문을 순회하면서 지속적으로 입력을 받고 각 물건의 가격과 개수를 곱한 뒤 모두 더해주어 조건문으로 실제가격과 계산된 가격이 일치하는 지 확인하면 됩니다. 참고자료 및 그림출처 백준 코딩 문제