alexnet
-
[CNN] AlexNet머신러닝 & 딥러닝 2022. 1. 22. 21:49
AlexNet 특징 2012년에 성능 증명. Activation 함수로 ReLU 함수를 첫 사용하였다. MaxPooling, Overlapping Pooling을 적용하였다. Local Response Normalization (LRN) 사용 Dropout Layer, weight에 decay 적용 사용. (이 때 처음 사용) Data Augmentation 적용. 11x11, 5x5 사이즈의 큰 사이즈의 Kernel 적용 (지금은 상상할 수 x). 많은 weight parameter 갯수로 인하여 컴퓨팅 연산량이 크게 증가 함 (그 당시 하드웨어 성능은 좋지 않았음). 이를 극복하기 위하여 병렬 GPU를 활용할 수 있도록 CNN 모델을 병렬화하였다. 전체 프로세스 create_alexnet -> mod..