일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
Tags
- 정말
- 마우스클릭
- 빅데이터분석기사필기
- 필기후기
- 너무오래됐다
- 유니코드 제거
- 빅데이터분석기사후기
- 색상변경
- 빅데이터분석기사
- 크롤링
- 예쁜곳
- 데이터전처리
- 오류
- 애니메이션
- OpenGL
- 파이썬
- 호주
- 멜버른
- BeautifulSoup
- selenium
- 갈자신이없다
- 언제또가보지
- 방향변경
- 보라카이
- 청청구역
- 사각형변형
- 가고싶은데
Archives
- Today
- Total
wisdiom 아니고 wisdom
4. 머신러닝 데이터 분석(2) - 3 본문
Decision Tree, 의사결정 나무
트리(Tree) 구조를 사용하며, 각 분기점(node)에는 분석대상의 속성(설명변수)들이 위치한다. 각 분기점마다 목표 값을 잘 분류할 수 있는 속성을 찾아서 배치하고, 해당 속성이 갖는 값을 이용하여 새로운 가지(branch)를 만든다. 각 분기점에서의 최적의 속성을 선택할 때는 해당 속성을 기준으로 분류한 값들이 구분되는 정도를 측정한다. Entropy가 낮을수록 분류가 잘 된 것이며, Entropy가 일정 수준 이하로 낮아질 때까지 앞의 과정을 반복한다.
*Entropy : 다른 종류의 값들이 섞여 있는 정도를 나타내는 것
📍 모형 학습 및 검증
# Decision Tree 분류 모형
from sklearn import tree
# 모형 객체 생성
tree_model = tree.DecisionTreeClassifier(criterion='entropy', max_depth=5)
# 모형 학습
tree_model.fit(x_train, y_train)
# 예측
y_hat = tree_model.predict(x_test)
print(y_hat[0:10]) # [4 4 4 4 4 4 2 2 4 4]
print(y_test.values[0:10]) # [4 4 4 4 4 4 2 2 4 4]
# 모형 성능 평가
# Cofusion Matrix 계산
from sklearn import metrics
tree_matrix = metrics.confusion_matrix(y_test, y_hat)
print(tree_matrix)
print('\n')
tree_report = metrics.classification_report(y_test, y_hat)
print(tree_report)

반응형
'👩💻 > pandas' 카테고리의 다른 글
3. 데이터프레임 응용(7) (0) | 2021.07.30 |
---|---|
4. 머신러닝 데이터 분석 (3) (0) | 2021.02.16 |
4. 머신러닝 데이터 분석(2) - 2 (0) | 2021.02.15 |
4. 머신러닝 데이터 분석(2) - 1 (0) | 2021.02.15 |
4. 머신러닝 데이터 분석(1) (0) | 2021.02.05 |
Comments