본문 바로가기

Computer Science/Deep Learning15

고급 합성곱 신경망 ② 4. VGGNetVGGNet은 2014년 옥스퍼드 대학교의 VGG 연구 그룹에서 제안한 신경망 구조 VGGNet의 구성 요소는 새로 고안된 요소 없이 LeNet이나 AlexNet과 동일하지만 신경망의 층수가 더 많음 VGG16 이라고 알려진 VGGNet은 가중치를 가진 층 16개로 구성 (합성곱층 13개, 전결합층 3개) 모든 층의 하이퍼파라미터가 동일하게 설정되었기 때문에 신경망을 이해하기 쉽다는 점이 학계에 깊은 인상을 남김  (1) VGGNet에서 발전된 부분VGGNet의 개선점은 동일하게 설정된 층(합성곱층과 전결합층)을 사용해서 신경망 구조를 단순화 시켰다는 점임전체적인 신경망 구조는 일련의 합성곱층 뒤에 역시 풀링층이 배치되는 구조로 모든 합성곱층은 3x3 크기의 필터와 스트라이드 1, 패딩 .. 2024. 4. 17.
고급 합성곱 신경망 ① 학습 목표 CNN 디자인 패턴 다루기 LeNet, AlexNet, VGGNet, GoogLeNet, ResNet 등의 신경망 구조 이해하기 학습 내용 다섯가지 최신 합성곱 신경망 구조를 살펴본다. 1. CNN의 디자인 패턴 CNN을 이용한 딥러닝 모델 설계 시 사용하는 기존 패턴 구조 첫번째 패턴 ­- 특징 추출과 분류 합성곱 신경망은 크게 특징 추출을 맡는 부분과 분류를 맡는 부분으로 나뉨 특징 추출을 맡는 부분은 일련의 합성곱층(CNN), 분류를 맡는 부분은 전결합층(FC Layer)으로 구성됨 LetNet, AlexNet, 인셉션, ResNet 거의 모든 합성곱 신경망이 이 구조를 따름 두번째 패턴 ­- 이미지 깊이는 증가, 크기는 감소 모든 층의 입력은 이미지 각 층은 이전 층에서 생성된 새로운 .. 2024. 4. 17.
하이퍼파라미터 튜닝 ② [CIFAR-10] Baseline 정보GPU : T4x2모델- resnet50 사용- IMAGENET1K_V1 으로 가중치 초기화- 최종 분류기의 output 차원을 class 수에 맞게 변경from torchvision.models import resnet50, ResNet50_Weights# ImageNet 데이터로 사전학습시킨 가중치를 불러오기.model = resnet50(weights=ResNet50_Weights.IMAGENET1K_V1)epochs = 3batch_size = 128lr=1e-3optimizer: SGD 데이터 증강 기법우선 255로 나눠서 0~1 범위로 만들기아래 Data Augmentation 기법을 사용하였으며, pytorch 공식 documentation을 참고https://pytorc.. 2024. 4. 17.
하이퍼파라미터 튜닝 ① 학습 목표 성능 지표 정의하기 베이스라인 모델 정의하기 학습 데이터 준비하기 모델을 평가하고 성능 개선하기 학습 내용 빠르고 효율적으로 동작하는 딥러닝 시스템을 만드는 방법과 결과를 분석하고 성능을 개선하는 방법을 살펴봄 1. 성능 지표란? 성능 지표를 통해 시스템을 평가할 수 있음 모델의 성능을 평가하는 가장 간단한 수단은 정확도 정확도는 모델의 예측이 정답과 일치한 비율로 정의 예) 100개의 입력 표본을 대상으로 90개에 대해 모델이 정확한 예측을 내렸다면 이 모델의 정확도는 90% (1) 정확도가 가장 좋은 평가 지표인가? 문제마다 적절한 평가 지표가 존재함 (2) 혼동행렬(confusion matrix) 혼동행렬은 모델의 분류 결과를 정리한 표 어떤 오류가 치명적인가? → 위양성 결과보다 위음성.. 2024. 4. 17.