분류 전체보기

Programming/Coding Problem

BOJ 24313번: 알고리즘 수업 - 점근적 표기 1

핵심 포인트 시간 복잡도 제출코드 a0, a1 = map(int, input().split()) c = int(input()) n0 = int(input()) flag = 1 for i in range(n0, 100): if a0 * i + a1 > c * i: flag = 0 break print(flag) 해설 다항식 $f(n)$의 계수인 $a_{0}$와 $a_{1}$ 그리고 상수 $c$와 $n_{0}$를 먼저 입력받습니다. 이 문제에서 확인해야할 것은 $n \ge n_{0}$에 대한 모든 $n$에 대해서 $f(n) \le c \times n$을 만족하는 지 확인해야합니다. 다만, 저희가 무한대의 수를 검증할 수는 없기 때문에 제한을 두어서 $n_{0}$부터 100까지 숫자에 대해서만 확인합니다. 이..

Paper Review

ResizeMix: Mixing Data with Preserved Object Information and True Lables (arxiv2020)

안녕하세요. 지난 포스티의 [DA] Data Augmentation Using Random Cropping and Patch for Depp CNNs (IEEE TCSVT2020)에서는 4장의 영상을 Mix 하는 RICAP에 대해서 알아보았습니다. 오늘은 ResizeMix라는 방법에 대해서 소개하도록 하겠습니다.    ResizeMix: Mixing Data with Preserved Object Information and True LabelsData augmentation is a powerful technique to increase the diversity of data, which can effectively improve the generalization ability of neural net..

Programming/Coding Problem

BOJ 24267번: 알고리즘 수업 - 알고리즘의 수행 시간 6

핵심 포인트 시간 복잡도 제출코드 n = int(input()) ans = 0 for i in range(1, n - 1): ans += (n - (i + 1)) * (n - i) // 2 print(ans) print(3) 해설 이 문제를 풀 때 중요한 것은 주어진 문제 내의 코드를 분석하는 것 입니다. 주어진 MenOfPassion 함수는 2개의 변수 (A, n)를 입력으로 받습니다. 내부 알고리즘에서 중요한 부분은 반복문입니다. 보시면 3개의 반복문으로 구성되어 있음을 알 수 있습니다. 그리고 각 반복문 별로 서로 다른 횟수로 반복을 하기 때문에 이를 잘 파악해야합니다. 1). i = 1이라고 가정하면 j = 2 ~ n - 1까지 반복합니다. 그리고 다시 j = 2라고 하면 k = 3 ~ n까지 반..

Paper Review

EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks (PMLR2019)

안녕하세요. 지난 포스팅의 [IC2D] ShuffleNet V2: Practical Guidelines for Efficient CNN Architecture Design (ECCV2018)에서는 효율적인 모델을 구성하기 위한 4가지 가이드라인과 함께 이를 활용하여 기존의 ShuffleNet V1을 개선한 ShuffleNet V2를 소개하였습니다. 오늘은 효율적인 모델 중에서 아주 유명한 EfficientNet에 대해서 소개시켜드리도록 하겠습니다.   EfficientNet: Rethinking Model Scaling for Convolutional Neural NetworksConvolutional Neural Networks (ConvNets) are commonly developed at a fi..

Programming/Coding Problem

BOJ 24266번: 알고리즘 수업 - 알고리즘의 수행 시간 5

핵심 포인트 시간 복잡도 제출코드 n = int(input()) print(n ** 3) print(3) 해설 이 문제를 풀 때 중요한 것은 주어진 문제 내의 코드를 분석하는 것 입니다. 주어진 MenOfPassion 함수는 2개의 변수 (A, n)를 입력으로 받습니다. 내부 알고리즘에서 중요한 부분은 반복문입니다. 보시면 3개의 반복문으로 구성되어 있음을 알 수 있습니다. 그리고 각 반복문은 1부터 n까지 3번 반복되기 때문에 $n^{3}$번 함수를 실행합니다. 참고자료 및 그림출처 백준 코딩 문제

Paper Review

ShuffleNet V2: Practical Guidelines for Efficient CNN Architecture Design (ECCV2018)

안녕하세요. 지난 포스팅의 [IC2D] Pelee: A Real-Time Object Detection System on Mobile Devices (NIPS2018)에서는 Group Convolution의 구현이 비효율적으로 구현되어 있다는 것을 지적하며 Group Convolution없이 모델의 효율성을 향상시킬 수 있는 모델인 PeleeNet에 대해서 소개시켜드렸습니다. 오늘은 기존의 ShuffleNet의 다음 버전인 ShuffleNet V2에 대해서 소개시켜드리도록 하겠습니다.  ShuffleNet V2: Practical Guidelines for Efficient CNN Architecture DesignCurrently, the neural network architecture design ..

Paper Review

Pelee: A Real-Time Object Detection System on Mobile Devices (NIPS2018)

안녕하세요. 지난 포스팅의 [IC2D] Learnable Transferable Architecture for Scalable Image Recognition (CVPR2018)에서는 NAS의 발전된 모델인 NASNet에 대해서 소개시켜드렸습니다. 오늘은 CondenseNet과 마찬가지로 DenseNet의 변형 모델인 PeleeNet에 대해서 소개시켜드리도록 하겠습니다.  Background지금까지 저희는 MobileNet V1, ShuffleNet, MobileNet V2, NASNet에 대해서 알아보았습니다. 이러한 모델들의 특징은 "효율성 (efficiency)"을 강조한 방법들이죠. 특히, MobileNet과 ShuffleNet은 Depthwise Separable Convolution을 사용하여..

Paper Review

Learning Transferable Architecture for Scalable Image Recognition (CVPR2018)

안녕하세요. 지난 포스팅의 [IC2D] CondenseNet: An Efficient DenseNet using Learned Group Convolution (CVPR2018)에서는 DenseNet을 기반으로 모든 특징 맵들을 연결하는 것이 아니라 필요없는 연결 (가중치)들을 끊어내는 Learned Group Convolution을 제안한 CondenseNet에 대해서 소개시켜드렸습니다. 이를 통해, CondenseNet의 baseline이 되는 DenseNet보다 약 10배 빠른 모델을 만들게 되었죠. 오늘은 Neural Architecture Seaching이라는 분야의 시작을 알렸다고 할 수 있는 NASNet에 대해서 소개시켜드리도록 하겠습니다.   Learning Transferable Arch..

Johns Hohns
'분류 전체보기' 카테고리의 글 목록 (23 Page)