모델은 기존의 베이스라인에서 제공한 XGBoost를 사용하였습니다.
하이퍼파라미터만 조정을 하였습니다.
model = XGBClassifier(
learning_rate=0.05, # 학습률
n_estimators=10000, # 부스팅 라운드 수
max_depth=8, # 트리의 최대 깊이
min_child_weight=0.4, # 최소 자식 가중치
gamma=0, # 노드 분할을 위한 최소 손실 감소량
eval_metric='mlogloss' # 다중 클래스 분류의 경우 'mlogloss' 사용
더 쉽게, 깊게 트리를 생성 할 수 있도록 설정하여 더 많은 정보를 학습할 수 있게 조정했습니다.