자료를 공개한 저자 오렐리앙 제롱과 강의자료를 지원한 한빛아카데미에게 진심어린 감사를 전합니다.
fit()
메서드는 sample_weight
옵션인자를 추가로 사용하여
훈련 세트의 각 샘플에 대한 가중치를 지정할 수 있음.sampe_weight
옵션인자를 이용하여
각 샘플에 대한 가중치를 결정함.sample_weight
옵션인자를 지정하지 않으면 모든 샘플의 가중치를 동일하게 간주함.fit()
메서드는 이전 예측기의 경우와 다른 sample_weight
옵션값을 사용함.learnign_rate
는 기존에 설명한 학습률과 다른 의미이며, 각 예측기의 기여도 조절에 사용됨.AdaBoostClassifier
AdaBoostRegressor
AdaBoostClassifier
의 기본 모델임.ada_clf = AdaBoostClassifier(DecisionTreeClassifier(max_depth=1),
n_estimators=200, algorithm="SAMME.R",
learning_rate=0.5, random_state=42)
GradientBoostingClassifier
RandomForestClassifier
와 비슷한 하이퍼파라미터를 제공GradientBoostingRegressor
RandomForestRegressor
와 비슷한 하이퍼파라미터를 제공gbrt = GradientBoostingRegressor(max_depth=2,
n_estimators=3,
learning_rate=1.0)
learning_rate
(학습률)¶learnign_rate
는 기존에 설명한 학습률과 다른 의미의 학습률. subsample=0.25
등 비율 지정조기종료 등 다양한 기능 제공.
import xgboost
xgb_reg = xgboost.XGBRegressor(random_state=42)
xgb_reg.fit(X_train, y_train,
eval_set=[(X_val, y_val)],
early_stopping_rounds=2)
StackingRegressor
모델 활용법¶estimators = [('ridge', RidgeCV()),
('lasso', LassoCV(random_state=42)),
('knr', KNeighborsRegressor(n_neighbors=20,
metric='euclidean'))]
final_estimator = GradientBoostingRegressor(n_estimators=25, subsample=0.5,
min_samples_leaf=25, max_features=1, random_state=42)
reg = StackingRegressor(estimators=estimators,
final_estimator=final_estimator)
StackingClassifier
모델 활용법¶estimators = [('rf', RandomForestClassifier(n_estimators=10, random_state=42)),
('svr', make_pipeline(StandardScaler(),
LinearSVC(random_state=42)))]
clf = StackingClassifier(estimators=estimators,
final_estimator=LogisticRegression())