핵심 포인트 시간 복잡도 제출코드 a0, a1 = map(int, input().split()) c = int(input()) n0 = int(input()) flag = 1 for i in range(n0, 100): if a0 * i + a1 > c * i: flag = 0 break print(flag) 해설 다항식 $f(n)$의 계수인 $a_{0}$와 $a_{1}$ 그리고 상수 $c$와 $n_{0}$를 먼저 입력받습니다. 이 문제에서 확인해야할 것은 $n \ge n_{0}$에 대한 모든 $n$에 대해서 $f(n) \le c \times n$을 만족하는 지 확인해야합니다. 다만, 저희가 무한대의 수를 검증할 수는 없기 때문에 제한을 두어서 $n_{0}$부터 100까지 숫자에 대해서만 확인합니다. 이..
안녕하세요. 지난 포스티의 [DA] Data Augmentation Using Random Cropping and Patch for Depp CNNs (IEEE TCSVT2020)에서는 4장의 영상을 Mix 하는 RICAP에 대해서 알아보았습니다. 오늘은 ResizeMix라는 방법에 대해서 소개하도록 하겠습니다. ResizeMix: Mixing Data with Preserved Object Information and True LabelsData augmentation is a powerful technique to increase the diversity of data, which can effectively improve the generalization ability of neural net..
핵심 포인트 시간 복잡도 제출코드 n = int(input()) ans = 0 for i in range(1, n - 1): ans += (n - (i + 1)) * (n - i) // 2 print(ans) print(3) 해설 이 문제를 풀 때 중요한 것은 주어진 문제 내의 코드를 분석하는 것 입니다. 주어진 MenOfPassion 함수는 2개의 변수 (A, n)를 입력으로 받습니다. 내부 알고리즘에서 중요한 부분은 반복문입니다. 보시면 3개의 반복문으로 구성되어 있음을 알 수 있습니다. 그리고 각 반복문 별로 서로 다른 횟수로 반복을 하기 때문에 이를 잘 파악해야합니다. 1). i = 1이라고 가정하면 j = 2 ~ n - 1까지 반복합니다. 그리고 다시 j = 2라고 하면 k = 3 ~ n까지 반..
안녕하세요. 지난 포스팅의 [IC2D] ShuffleNet V2: Practical Guidelines for Efficient CNN Architecture Design (ECCV2018)에서는 효율적인 모델을 구성하기 위한 4가지 가이드라인과 함께 이를 활용하여 기존의 ShuffleNet V1을 개선한 ShuffleNet V2를 소개하였습니다. 오늘은 효율적인 모델 중에서 아주 유명한 EfficientNet에 대해서 소개시켜드리도록 하겠습니다. EfficientNet: Rethinking Model Scaling for Convolutional Neural NetworksConvolutional Neural Networks (ConvNets) are commonly developed at a fi..
핵심 포인트 시간 복잡도 제출코드 n = int(input()) print(n ** 3) print(3) 해설 이 문제를 풀 때 중요한 것은 주어진 문제 내의 코드를 분석하는 것 입니다. 주어진 MenOfPassion 함수는 2개의 변수 (A, n)를 입력으로 받습니다. 내부 알고리즘에서 중요한 부분은 반복문입니다. 보시면 3개의 반복문으로 구성되어 있음을 알 수 있습니다. 그리고 각 반복문은 1부터 n까지 3번 반복되기 때문에 $n^{3}$번 함수를 실행합니다. 참고자료 및 그림출처 백준 코딩 문제
안녕하세요. 지난 포스팅의 [IC2D] Pelee: A Real-Time Object Detection System on Mobile Devices (NIPS2018)에서는 Group Convolution의 구현이 비효율적으로 구현되어 있다는 것을 지적하며 Group Convolution없이 모델의 효율성을 향상시킬 수 있는 모델인 PeleeNet에 대해서 소개시켜드렸습니다. 오늘은 기존의 ShuffleNet의 다음 버전인 ShuffleNet V2에 대해서 소개시켜드리도록 하겠습니다. ShuffleNet V2: Practical Guidelines for Efficient CNN Architecture DesignCurrently, the neural network architecture design ..
안녕하세요. 지난 포스팅의 [IC2D] CondenseNet: An Efficient DenseNet using Learned Group Convolution (CVPR2018)에서는 DenseNet을 기반으로 모든 특징 맵들을 연결하는 것이 아니라 필요없는 연결 (가중치)들을 끊어내는 Learned Group Convolution을 제안한 CondenseNet에 대해서 소개시켜드렸습니다. 이를 통해, CondenseNet의 baseline이 되는 DenseNet보다 약 10배 빠른 모델을 만들게 되었죠. 오늘은 Neural Architecture Seaching이라는 분야의 시작을 알렸다고 할 수 있는 NASNet에 대해서 소개시켜드리도록 하겠습니다. Learning Transferable Arch..