본문 바로가기

분류 전체보기96

VGG 1. Introduction VGGNet은 2014년 옥스퍼드 대학교의 VGG 연구 그룹에서 제안한 신경망 구조VGGNet의 구성 요소는 새로 고안된 요소 없이 LeNet이나 AlexNet과 동일하지만 신경망의 층수가 더 많음VGG16 이라고 알려진 VGGNet은 가중치를 가진 층 16개로 구성 (합성곱층 13개, 전결합층 3개)모든 층의 하이퍼파라미터가 동일하게 설정   구성 D와 E가 가장 일반적으로 사용되며 가중치를 포함하는 층수를 붙여, 이들을 각각 VGG16, VGG19라고 부름  VGGNet의 개선점은 동일하게 설정된 층(합성곱층과 전결합층)을 사용해서 신경망 구조를 단순화 시켰다는 점임전체적인 신경망 구조는 일련의 합성곱층 뒤에 역시 풀링층이 배치되는 구조로 모든 합성곱층은 3x3 크기의 필.. 2024. 4. 22.
AlexNet 1. IntroductionAlexNet은 복잡도가 높은 이미지넷 문제 해결을 위해 제안된 신경망으로, 2012년 ILSVRC 이미지 분류 콘테스트에서 우승을 차지했다. 120만장의 이미지, 1000가지 클래스로 구성된 ImageNet 데이터셋으로 학습시켰다. AlexNet은 발표 당시 세계 최고의 성능을 자랑하며, 컴퓨터비전분야에서 본격적인 딥러닝을 최초로 도입하여 합성곱 신경망의 응용이 확산되는 계기를 만들었다. AlexNet은 LeNet과 구조가 유사하지만 훨씬 층수가 많고, 규모가 큼(한 층당 필터 수가 많음)일력의 합성곱층과 풀링층의 조합이 이루어진 후 전결합층이 이어지다 소프트맥스 함수를 활성화 함수로 사용하는 출력층 기본 구조는 LeNet과 비슷AlexNet은 65만개 뉴런과 6천만개의 파라.. 2024. 4. 22.
LeNet 1. Introduction 입력이미지 → C1 → TANH →  S2 →  C3 →  TANH →  S4 →  C5 →  TANH →  FC6 →  SOFTMAX7 - C는 합성곱층, S는 풀링층(서브샘플링층), FC는 전결합층 - 1998년에는 ReLU가 발견되기 이전이었고, tanh와 시그모이드 함수가 주로 사용되는 것이 일반적이었음 LeNet-5는 미리 설정된 일정엔 맞춰 학습률을 감소시키는 학습률 감쇠를 사용 - 처음 2 에포크에는 0.005, 그 다음 3 에포크는 0.0002, 다시 그 다음 4 에포크에는 0.00005, 그 이후로는 0.00001의 학습률이 적용됨. - 논문의 실험에서는 20 에포크까지 학습을 수행 2. CodeHyperparameter# 하이퍼파라미터from torch.op.. 2024. 4. 17.
고급 합성곱 신경망 ② 4. VGGNetVGGNet은 2014년 옥스퍼드 대학교의 VGG 연구 그룹에서 제안한 신경망 구조 VGGNet의 구성 요소는 새로 고안된 요소 없이 LeNet이나 AlexNet과 동일하지만 신경망의 층수가 더 많음 VGG16 이라고 알려진 VGGNet은 가중치를 가진 층 16개로 구성 (합성곱층 13개, 전결합층 3개) 모든 층의 하이퍼파라미터가 동일하게 설정되었기 때문에 신경망을 이해하기 쉽다는 점이 학계에 깊은 인상을 남김  (1) VGGNet에서 발전된 부분VGGNet의 개선점은 동일하게 설정된 층(합성곱층과 전결합층)을 사용해서 신경망 구조를 단순화 시켰다는 점임전체적인 신경망 구조는 일련의 합성곱층 뒤에 역시 풀링층이 배치되는 구조로 모든 합성곱층은 3x3 크기의 필터와 스트라이드 1, 패딩 .. 2024. 4. 17.