- 모델 아키텍처
Batch Normalization과 Dropout 레이어:
- 모델의 성능을 향상시키기 위해 각 Conv2D 레이어 뒤에 Batch Normalization과 Dropout 레이어를 추가하였습니다.
- 하이퍼파라미터 튜닝
Epochs와 Batch Size:
- 원래 제공된 코드 는 epochs=2와 batch_size=64` 설정되어 있었으나 epochs=35와 batch_size=128로 설정하여 더 긴 시간 동안 더 큰 배치 크기로 학습을 진행하였습니다.
- 전처리
이미지 로딩과 크기 조정: Dataloader 클래스의 get_imagesets 메소드에서 이미지를 로드하고, 이미지는 cv2.imread를 사용하여 grayscale으로 변환됩니다.
정규화: 이미지 픽셀 값을 255로 나누어 0과 1 사이로 스케일링합니다.
- 소감
현재 코드에서는 adam 옵티마이저의 기본 학습률을 사용하였는데, 다양한 학습률을 실험해보고 더 좋을 결과를 보여주는 값을 찾는 것이 중요할 것 같습니다.