본문 바로가기
쫌쫌따리 통계+데이터+AI

통계학습

by stherhj 2022. 3. 12.

쿠키먹고 싶었는데 원하는게 없어서 비슷한 말차 스콘 시켰는데 탈락!

대학원 내내 이 책을 얼마나 봤는데 아직도 보고 아?아~!하고 있는게 넘 슬퍼서 굴레를 깨고자 정리를 시작ㅜㅜ
추억의 책도 이제 찐막..찐찐막이다.

f 추정의 목적: 1) 예측 2) 추론(어떤 설명변수? 상관관계는? 선형 방정식으로 표현 가능?)
추정의 방법: 1) 모수적 방법(f의 형태에 대한 가정有) 2)비모수적 방법(명시적 가정 없이 더 넓은 범위의 형태에 정확히 적합될 수 있음. 그러나 아주 많은 수의 관측치를 필요로 함)
예측 정확도-모델 해석력의 절충: 제한적 모델이 해석하기 쉬움.

유연성↑ 정확도↑ 해석력↓ 예측에 적합 (but 과적합 이슈)
유연성↓ 정확도↓ 해석력↑ 추론에 적합

준지도 학습: 일부 반응변수의 측정값 이용 가능. 일부 이용불가능
(양적 반응 변수-회귀, 질적 반응 변수-분류, both-K-근접이웃, 부스팅)
로지스틱 회귀: "회귀" 즉, 클래스의 확률을 추정 그러나 궁극적으로는 분류 문제

적합의 품질 측정: 평균제곱오차(MSE)
편향-분산의 절충: 기대검정 MSE = 분산 + (편향)^2 + 오차항의 분산의 합
유연성↑ 분산↑편향↓ (처음에는 분산증가보다 편향감소가 빠름. 어느 지점 이후 편향감소 X )
분류 설정: 베이즈 분류기(주어진 X에 대한 Y의 조건부 분포를 안다고 가정 '표준'역할), K-최근접 이웃

'쫌쫌따리 통계+데이터+AI' 카테고리의 다른 글

Data Imbalance 이슈 해결 : 언더샘플링 & 오버샘플링  (0) 2022.03.20
선형회귀  (0) 2022.03.12
잔차분석  (0) 2022.03.11
변수 선택법  (0) 2022.03.11
T-TEST|ANOVA|상관분석  (0) 2022.03.11

댓글