Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
Tags
- bootstrapping
- min-max
- 머신러닝 #ml #선형대수학 #기본기
- 머신러닝 #ml #기본기
- featurescaling
- jdk #javac #jre #java standard library #javadoc #jar #java
- Mutual exclusion
- 상호 배제
- ml
- 다항회귀
- 코틀린
- 운영체제
- gridsearch
- Kotlin
- 머신러닝 #ml #미분 #기본기
- featureimportances
- db
- 지니불순도
- 멀티 프로그래밍
- 에다 부스트
- 디자인 패턴 #싱글톤
- 경쟁 조건
- Java
- cross_val_score
- 결정트리
- Mutex lock
- 속성중요도
- 11049
- JetBrains
- ML
Archives
- Today
- Total
목록에다 부스트 (1)
코딩하는 오리

01. Boosting~전보다 더 크거나 높게 하다 ! 일부러 성능이 안 좋은 모델들을 사용한다.먼저 만든 모델들의 성능이 뒤에 있는 모델이 사용할 데이터 셋을 바꾼다모델들의 예측을 종합할 때, 성능이 좋은 모델의 예측을 더 반영한다 핵심 : 성능이 안 좋은 약한 학습자(weak learner)들을 합쳐서 성능을 극대화 한다 ! 02. 에다 부스트(Adaboost) 개요에다 부스트에서는 랜덤 포레스트에서처럼 깊은 결정 트리가 아니라루트 1개와 분류 노드 2개를 갖는 얕은 결정 트리를 만든다(단순).성능 : 평균적으로 50%보다 조금 좋은 성능을 낸다일부러 일반 결정트리가 아닌 스텀프를 사용한다.+ 부스팅 기법 답게 각 모델이 사용하는 데이터 셋을 임의로 만들지 않는다 앞에 있는 스텀프가 틀린 애들의 ..
AI/ML
2024. 7. 31. 01:09