학습 에포크를 45로 증가시켰고,
기존 베이스 라인 모델에서 레이어를 추가하여 더 많은 특징을 학습하게 했습니다.
활성화 함수는 LeakyReLU를 ReLU 대신 사용하여 혹시나 발생할지도 모르는 Dying ReLU Problem을 고려해서 사용했습니다.
BatchNormalization과 드롭아웃을 과적합을 방지하기 위해 추가하였습니다.
결과적으로는 성능이 약간 향상하였으나 정확도가 45%도 달성하지 못한 것을 보아서, 제대로된 학습이 이루어지지 않은 것 같습니다.