본문 바로가기

카테고리 없음

[패스트캠퍼스 수강 후기] 데이터분석 인강 100% 환급 챌린지 37회차 미션


42. ch06. sklearn - 앙상블 - 02. 보팅(Voting) 앙상블 -
45. ch06. sklearn - 앙상블 - 05. 부스팅(Boosting) 앙상블



42. ch06. sklearn - 앙상블 - 02. 보팅(Voting) 앙상블


Voting은 단어 뜻 그대로 투표를 통해 결정하는 방식

from sklearn.ensemble import VotingRegressor, VotingClassifier


Tuple 형태로 모델을 정의

single_models = [
('linear_reg', linear_reg),
('ridge', ridge),
('lasso', lasso),
('elasticnet_pipeline', elasticnet_pipeline),
('poly_pipeline', poly_pipeline)
]


voting_regressor = VotingRegressor(single_models, n_jobs=-1)


voting_regressor.fit(x_train, y_train)

voting_pred = voting_regressor.predict(x_test)


mse_eval('Voting Ensemble', voting_pred, y_test)



43. ch06. sklearn - 앙상블 - 03. 배깅(Bagging) 앙상블



Bagging은 Bootstrap Aggregating의 줄임말입니다.

Bootstrap = Sample(샘플) + Aggregating = 합산


44. ch06. sklearn - 앙상블 - 04. 랜덤포레스트(RandomForest)


RandomForest


from sklearn.ensemble import RandomForestRegressor, RandomForestClassifier

rfr = RandomForestRegressor()
rfr.fit(x_train, y_train)


rfr_pred = rfr.predict(x_test)
mse_eval('RandomForest Ensemble', rfr_pred, y_test)

튜닝을 할 땐 반드시 random_state 값을 고정시킵니다!

rfr = RandomForestRegressor(random_state=42, n_estimators=1000, max_depth=7, max_features=0.8)
rfr.fit(x_train, y_train)
rfr_pred = rfr.predict(x_test)
mse_eval('RandomForest Ensemble w/ Tuning', rfr_pred, y_test)


45. ch06. sklearn - 앙상블 - 05. 부스팅(Boosting) 앙상블

약한 학습기를 순차적으로 학습을 하되, 이전 학습에 대하여 잘못 예측된 데이터에 가중치를 부여해 오차를 보완





패스트캠퍼스 데이터분석 강의 링크
bit.ly/3imy2uN