train_test_split / LGBM (2)
Data Analyst

빅데이터 관련 자료/Dacon

train_test_split / LGBM (2)

carpe08 2021. 12. 9. 00:52
320x100
320x100

Light GBM 모델을 선언 이후 학습을 위해서는 fit() 메소드를 사용합니다. fit () 메소드 내부에 있는 eval_metric 파라미터와, verbose 파라미터를 이용하면 평가 산식을 원하는 산식으로 설정하고, 모델이 학습과 검증을 진행하며 그 과정을 출력 할 수 있습니다.

eval_metric = "원하는 평가산식" 을 넣어주시면  학습을 진행하며 지정해주신 평가 산식과 검증 데이터 셋을 이용해 결과 값을 출력해줍니다.

또한  verbose = "10"  과 같이 파라미터를 지정해주면 n_estimators를 기준으로 10번 마다 결과 값을 출력 하게 됩니다.

# LightGBM을 이용해 학습 및 검증 진행

from lightgbm import LGBMRegressor





model = LGBMRegressor()



#평가 산식을 AUC로 설정, n_estimators 기준 5번 마다 결과값 출력하게 모델 학습.

model.fit(train_x,train['category'], 

           eval_set = [(x_train,y_train),(x_valid,y_valid)],

          eval_metric = 'auc' ,verbose = 10)



output : 

[5]	valid_0's auc: 0.746995	valid_0's l2: 0.521992	valid_1's auc: 0.751573	valid_1's l2: 0.519615

[10] valid_0's auc: 0.776377	valid_0's l2: 0.455595	valid_1's auc: 0.779227	valid_1's l2: 0.451593

[15] valid_0's auc: 0.794128	valid_0's l2: 0.416586	valid_1's auc: 0.795274	valid_1's l2: 0.41187

[20] valid_0's auc: 0.807657	valid_0's l2: 0.391972	valid_1's auc: 0.809454	valid_1's l2: 0.386322

...

[90] valid_0's auc: 0.882936	valid_0's l2: 0.299729	valid_1's auc: 0.885849	valid_1's l2: 0.294157

[95]	valid_0's auc: 0.885144	valid_0's l2: 0.296722	valid_1's auc: 0.888073	valid_1's l2: 0.291004

[100]	valid_0's auc: 0.887198	valid_0's l2: 0.293814	valid_1's auc: 0.890417	valid_1's l2: 0.288158
320x100
320x100

'빅데이터 관련 자료 > Dacon' 카테고리의 다른 글

하이퍼파라미터 튜닝 / grid search  (0) 2021.12.13
파라미터/하이퍼파라미터  (0) 2021.12.10
train_test_split / LGBM (1)  (0) 2021.12.08
train_test_split() - (4)  (0) 2021.12.07
train_test_split() - (3)  (0) 2021.12.06