본문 바로가기

GoogLeNet3

GoogLeNet 1. Information인셉션은 구글에서 연구 논문을 통해 2014년에 발표했음인셉션의 구조의 특징은 신경망 내부적으로 계산 자원의 효율을 높였음인셉션 신경망 구조를 구현한 GoogLeNet은 22개 층으로 구성(VGGNet보다 층수가 많음)되었으나 파라미터 수는 VGGNet의 1/12에 불가함→ VGGNet: 1억 3800만개, GoogLeNet: 1300만개GoogLeNet은 적은 파라미터 수로 향상된 성능을 보임인셉션 신경망 구조는 AlexNet이나 VGGNet에서 따온 고전적인 CNN 구조를 따르지만 인셉션 모듈(inception module)이라는 새로운 요소를 도입하였음합성곱층의 커널 크기- 앞서 살펴본 신경망 구조는 커널 크기가 제각각으로, 1x1, 3x3, 5x5, 큰 것은 11x11 (.. 2024. 4. 22.
고급 합성곱 신경망 ② 4. VGGNetVGGNet은 2014년 옥스퍼드 대학교의 VGG 연구 그룹에서 제안한 신경망 구조 VGGNet의 구성 요소는 새로 고안된 요소 없이 LeNet이나 AlexNet과 동일하지만 신경망의 층수가 더 많음 VGG16 이라고 알려진 VGGNet은 가중치를 가진 층 16개로 구성 (합성곱층 13개, 전결합층 3개) 모든 층의 하이퍼파라미터가 동일하게 설정되었기 때문에 신경망을 이해하기 쉽다는 점이 학계에 깊은 인상을 남김  (1) VGGNet에서 발전된 부분VGGNet의 개선점은 동일하게 설정된 층(합성곱층과 전결합층)을 사용해서 신경망 구조를 단순화 시켰다는 점임전체적인 신경망 구조는 일련의 합성곱층 뒤에 역시 풀링층이 배치되는 구조로 모든 합성곱층은 3x3 크기의 필터와 스트라이드 1, 패딩 .. 2024. 4. 17.
하이퍼파라미터 튜닝 ② [CIFAR-10] Baseline 정보GPU : T4x2모델- resnet50 사용- IMAGENET1K_V1 으로 가중치 초기화- 최종 분류기의 output 차원을 class 수에 맞게 변경from torchvision.models import resnet50, ResNet50_Weights# ImageNet 데이터로 사전학습시킨 가중치를 불러오기.model = resnet50(weights=ResNet50_Weights.IMAGENET1K_V1)epochs = 3batch_size = 128lr=1e-3optimizer: SGD 데이터 증강 기법우선 255로 나눠서 0~1 범위로 만들기아래 Data Augmentation 기법을 사용하였으며, pytorch 공식 documentation을 참고https://pytorc.. 2024. 4. 17.