CNN Summary RBG가 하나의 feature kernel 같은 거.. 쨌든 flatten 할 때 *3 해야 함 과대 적합(과적합) 과대 적합(overfitting)?: 정확도는 높지만 실제 현실에 적합하지 않음(일반적인 경우 해결 못 함) 과대 적합을 줄이려면? 다음을 줄인다. 학습 파라미터 수 층의 수(필터의 수) 각 층의 유닛 수(퍼셉트론 개수) 모델의 용량 loss와 모델 용량과의 관계: 손실이 급격하게 떨어지면 과적합 발생! learning rate에 문제가 있거나 필터 개수가 너무 많거나 그럼 몇 개가 적절하냐? 모름 ㅋㅋㅋㅋㅋㅋ뭐가 문제일지는.. 까봐야 안다(huristic) 우리가 그나마 효율적으로 할 수 있는 건 데이터 품질을 높이고, 잘 만들어진 모델을 데려다 전이학습 시키는 것 ..