320x100
320x100
Light GBM 모델을 선언 이후 학습을 위해서는 fit() 메소드를 사용합니다. fit () 메소드 내부에 있는 eval_metric 파라미터와, verbose 파라미터를 이용하면 평가 산식을 원하는 산식으로 설정하고, 모델이 학습과 검증을 진행하며 그 과정을 출력 할 수 있습니다.
eval_metric = "원하는 평가산식" 을 넣어주시면 학습을 진행하며 지정해주신 평가 산식과 검증 데이터 셋을 이용해 결과 값을 출력해줍니다.
또한 verbose = "10" 과 같이 파라미터를 지정해주면 n_estimators를 기준으로 10번 마다 결과 값을 출력 하게 됩니다.
# LightGBM을 이용해 학습 및 검증 진행
from lightgbm import LGBMRegressor
model = LGBMRegressor()
#평가 산식을 AUC로 설정, n_estimators 기준 5번 마다 결과값 출력하게 모델 학습.
model.fit(train_x,train['category'],
eval_set = [(x_train,y_train),(x_valid,y_valid)],
eval_metric = 'auc' ,verbose = 10)
output :
[5] valid_0's auc: 0.746995 valid_0's l2: 0.521992 valid_1's auc: 0.751573 valid_1's l2: 0.519615
[10] valid_0's auc: 0.776377 valid_0's l2: 0.455595 valid_1's auc: 0.779227 valid_1's l2: 0.451593
[15] valid_0's auc: 0.794128 valid_0's l2: 0.416586 valid_1's auc: 0.795274 valid_1's l2: 0.41187
[20] valid_0's auc: 0.807657 valid_0's l2: 0.391972 valid_1's auc: 0.809454 valid_1's l2: 0.386322
...
[90] valid_0's auc: 0.882936 valid_0's l2: 0.299729 valid_1's auc: 0.885849 valid_1's l2: 0.294157
[95] valid_0's auc: 0.885144 valid_0's l2: 0.296722 valid_1's auc: 0.888073 valid_1's l2: 0.291004
[100] valid_0's auc: 0.887198 valid_0's l2: 0.293814 valid_1's auc: 0.890417 valid_1's l2: 0.288158
320x100
320x100
'빅데이터 관련 자료 > Dacon' 카테고리의 다른 글
하이퍼파라미터 튜닝 / grid search (0) | 2021.12.13 |
---|---|
파라미터/하이퍼파라미터 (0) | 2021.12.10 |
train_test_split / LGBM (1) (0) | 2021.12.08 |
train_test_split() - (4) (0) | 2021.12.07 |
train_test_split() - (3) (0) | 2021.12.06 |