Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 |
Tags
- 코틀린
- bootstrapping
- 에다 부스트
- min-max
- 멀티 프로그래밍
- 결정트리
- jdk #javac #jre #java standard library #javadoc #jar #java
- Java
- 디자인 패턴 #싱글톤
- 운영체제
- 머신러닝 #ml #기본기
- Kotlin
- Mutual exclusion
- 머신러닝 #ml #미분 #기본기
- Mutex lock
- cross_val_score
- featureimportances
- 11049
- 상호 배제
- ML
- 지니불순도
- 속성중요도
- featurescaling
- ml
- JetBrains
- 경쟁 조건
- 머신러닝 #ml #선형대수학 #기본기
- 다항회귀
- db
- gridsearch
Archives
- Today
- Total
목록RIDGE (1)
코딩하는 오리

01. 편향(Bias)과 분산(Variance) 머신 러닝 모델이 정확한 예측을 못하는 경우 직선 모델은 너무 간단해서 복잡한 곡선 관계를 학습할 수 없다 -> 편향이 크다모델이 데이터 사이의 관계를 완벽하게 학습했따 -> 편향이 작다 편향이 작으면 항상 좋나?평균 제곱 오차로로 성능 구한다~위의 경우에는 새로운 데이터에서 오히려 직선 보다 성능 안좋음..외워버렸다 분산 : 데이터 셋 별(training set vs test set)로 모델이 얼마나 일관된 성능을 보여주는지성능이 비슷하다 -> 분산이 낮다성능이 들쭉날쭉 -> 분산이 높다 편향이 높은 모델은 너무 간단해서 주어진 데이터의 관계를 잘 학습하지 못한다(1차함수 vs 11차 함수)편향이 낮은 모델은 주어진 데이터와의 관계를 잘 학습한다.직선 ..
AI/ML
2024. 7. 31. 02:30