전체 글110 전이학습(Transfer Learning) (1) 1. 전이학습으로 해결할 수 있는 문제- 전이학습이란 신경망이 어떤 과제에서 얻은 기존 지식(어떤 데이터셋을 학습하며 익힌 것)을 비슷한 다른 문제를 해결하는데 활용하는 것- 어떤 과제에서 익힌 기존 지식이란 학습과정을 통해 얻어진 추출된 특징(특징 맵 (Feature Map))을 말함- 딥러닝 분야에서 전이학습이 활발히 이용되는 이유는 더 짧은 시간에 적은 양의 데이터로 신경망을 학습할 수 있음- 전이학습의 가장 큰 장점은 이미지넷 등 일반적인 컴퓨터비전벤치마크용 데이터셋으로 학습한 모델의 가중치를 간단히 재사용하는 것만으로 다른 문제를 위한 대규모 데이터 수집(레이블링된 데이터)에 드는 수고를 절감할 수 있다는 것- 전이학습의 또 다른 장점은 일반화 성능을 확보하고 과적합을 방지하는 것 2. 전이학습.. 2024. 6. 9. 차원 축소(Dimension Reduction) : 기타 (4) 1. Randomized PCA, Kernelized PCA(1) 랜덤 PCA의 개념- 자료의 크기 또는 특성변수의 크기가 매우 크면 주성분 W를 구하기 위한 SVD 계산이 불가능하거나 시간이 많이 소요됨- 이런 경우 Randomized PCA 가 유용- Randomized PCA는 QR 분해를 이용하여 행렬의 SVD를 수행함(2) 커널 PCA 개념- PCA는 선형 변환이고 Kernelized PCA는 비선형 변환임- SVM의 커널트릭을 PCA에서도 사용- 특성 변수 x를 비선형 h(x)로 번환한 후 이에 대해 PCA를 하여 차원 축소를 하는 방법임 2024. 6. 9. 차원 축소(Dimension Reduction) : PCA (3) 1. 데이터 로드from sklearn.datasets import load_winedata = load_wine()X = data.dataY = data.lable2. 데이터 분할from sklearn.model_selection import train_test_splitX_train, X_test, Y_train, Y_test = train_test_split(X, Y, test_size=0.3, random_state=1, stratify=Y)3. 데이터 정규화from sklearn.preprocessing import StandardScalerstd = StandardScaler()X_train_std = std.fit_transform(X_train)X_test_std = std.transfor.. 2024. 6. 9. 차원 축소(Dimension Reduction) : PCA (2) 1. 주성분 분석(PCA)(1) 주성분 분석의 목적차원을 줄이는 비지도 학습 방법 중 한가지사영 후 원 데이터의 분산(variance)을 최대한 보존할 수 있는 기저를 찾아 차원을 줄이는 방법(2) MNIST의 예시(3) 주성분 분석데이터를 사영(projection)시킬 경우 송실괴는 정보의 양이 적은 쪽의 기저(축)를 선택아래 예시의 경우 왼쪽 기저(축)가 오른쪽 기저보다 원데이터의 분산을 최대로 유지하므로 왼쪽의 기저 축을 주성분을 선택하는 것이 좋음 2. 주성분 분석(PCA): 수리적 배경(1) 주성분 분석: 선형 결합데이터(X) 사영 변환 후(Z)에도 분산이 보존하는 기저(a)을 찾는 것(2) 공분산(Covariance) : 변수의 상관 정도X : 입력 데이터 (n개의 데이터, d개의 변수)(3).. 2024. 6. 9. 이전 1 ··· 5 6 7 8 9 10 11 ··· 28 다음