먼저 batch_size 32를 기준으로 삼고 순수 Train 시간(초) 기준으로 그래프를 작성하였다. Computer System CPU : 라이젠5 3600 4.1 OC GPU : 1080 ti 11G x2 RAM : 24G PSU : 1000w M/B : AX370 일단 이번 test는 GPU 를 2장을 SLI로 묶었을때의 학습 시간에 대해서 TEST 한것이다. batch_size 별로 학습의 영향(loss, accuracy)이 얼마나 있을지에 대한 연구가 진행되고 있다고 한다. 사실 내가 이해한 바로는 batch_size가 작을 수록 학습시간은 늘어나지만 학습에 대한 디테일이 좋아져서 적은 epoch으로도 학습이 잘된다라고 알고있고, bacth_size가 커지면 그 만큼의 train_data들이 ..