본문 바로가기

learning23

의사결정나무(Decision Tree) (1) 1. 의사결정나무(1) 정의- 학습 데이터를 분석하여 데이터에 내재되어 있는 패턴을 새롭게 관측된 데이터를 예측 및 분류하는 모델- 개념적으로 질문을 던져서 대상을 좁혀 나가는 '스무고개'와 비슷한 개념- 목적(Y)과 자료(X)에 따라 적절한 분리 기준과 정지 규칙을 지정하여 의사결정나무를 생성- 의사결정방식 과정의 표현법이 나무와 같다고 해서 의사결정나무라 불림- 의사결정 규칙을 나무 모델로 표현(2) 의사결정나무의 장점- 이해하기 쉽고 적용하기 쉬움- 의사결정과정에 대한 설명(해석) 가능- 중요한 변수 선택에 유용 (상단에서 상용된 설명 변수가 중요한 변수)- 데이터의 통계적 가정이 필요 없음 (ex. LDA 가정: 데이터 정규성)(3) 의사결정나무의 단점- 좋은 모형을 만들기 위해 많은 데이터가 필.. 2024. 6. 9.
Discriminant analysis(판별 분석) [Discriminant Analysis 이용 당뇨병 환자 예측] (4) 1. DatasetTrain Testx_train = train.drop(['Diabetes'], axis=1)y_train = train['Diabetes']x_test = test 2. LDA# LDAfrom sklearn.discriminant_analysis import LinearDiscriminantAnalysisfrom sklearn.metrics import accuracy_scorecld = LinearDiscriminantAnalysis()cld.fit(x_train, y_train)y_train_pred = cld.predict(x_train)y_test_cld_pred = cld.predict(x_test)print(accuracy_score(y_train, y_train_pred).. 2024. 3. 31.
Discriminant analysis(판별 분석) [Discriminant Analysis 이용 원자력발전소 상태 예측] (3) LDA# LDAfrom sklearn.discriminant_analysis import LinearDiscriminantAnalysisfrom sklearn.metrics import accuracy_score, confusion_matrixcld = LinearDiscriminantAnalysis()cld.fit(x_train, y_train)y_train_pred = cld.predict(x_train)y_test_cld_pred = cld.predict(x_test)print(accuracy_score(y_train,y_train_pred))QDA# QDAfrom sklearn.discriminant_analysis import QuadraticDiscriminantAnalysisfrom skle.. 2024. 3. 31.