Notice
Recent Posts
Today
Total
«   2024/07   »
1 2 3 4 5 6
7 8 9 10 11 12 13
14 15 16 17 18 19 20
21 22 23 24 25 26 27
28 29 30 31
관리 메뉴

나름개발블로그

Hands-On ML 6장 본문

A/ML

Hands-On ML 6장

성남개발자 2020. 9. 14. 12:27

Chapter 6

Decision tree

결정 트리 학습과 시각화

from sklearn.tree import export_graphviz

export_graphviz(
	tree_clf,
	out_file=image_path("tree.dot"),
	...
)

 

요런식으로 그림이 나온다.

예측하기

결정 트리의 여러 장점중 하나는 데이터 전처리가 거의 필요하지 않다.

samples : 얼마나 많은 훈련 샘플이 적용되었는지

value : 노드에서 각 클래스에 얼마나 많은 훈련 샘플이 있는지

gini : 불순도(impurity) 를 측정

클래스 확률 추정

CART 훈련 알고리즘

sklearn은 결정 트리를 훈련시키기위해 CART(classification and regression tree) 알고리즘을 사용한다

CART 알고리즘은 greedy algorithm 이다. 종종 훌륭한 솔루션을 만들지만, 최적의 솔루션을 보장하지 않는다.

계산 복잡도

검색에 들어가는 시간 복잡도O(log2(m))O(log_2(m))

훈력 복잡도는O(n×mlog2(m))O(n \times mlog_2(m))

지니 불순도 또는 엔트로피

기본적으로 지니 불술도가 사용 되지만 criterion 매개변수를 entropy로 지정하여 엔트로피 불순도를 사용 할 수 있다.

실제로 큰 차이는 없다. 기본값으로는 지니 불순도가 더빨라서 좋다 .

규제 매개변수

결정트리는 훈련되기전에 파라미터 수가 결정 되지 않기 떄문에 비파라미터 모델이라고 부르기 도 함

회귀

결정 트리는 회귀 문제에서 사용 할 수 있다.

불안정성

훈련 데이터에 있는 작은 변화에도 매우 민감하다.

'A > ML' 카테고리의 다른 글

Hands-On ML 8장  (0) 2020.09.16
Hands-On ML 7장  (0) 2020.09.15
Hands-On ML 5장  (0) 2020.09.13
Hands-On ML 4장  (0) 2020.09.12
Hands-On ML 3장  (0) 2020.09.11
Comments