즐겁게!! 자신있게!! 살아보세!!

재밌는 인생을 위하여! 영촤!

AI/TEST

개인 학습용 AI 머신

Godwony 2020. 6. 5. 23:40
728x90
반응형

CPU : 라이젠7 1700 3.8 OC

RAM : 커세어 vengernce 32G XMP 3000

M/B : aorus AX370-gaming k5

GPU : aorus 1080 ti 11G

PSU : 커세어 HX1000i (1000w)

case : T800 

 

 

가성비 개인 AI 머신 구성을 하는데 참 안타까운게 많다

일단 기존에 쓰던 게임용 PC를 개조(?)를 통해서 GPU만 대충 우겨 넣었는데 

 

case 변경 : winin 101c -> 3RSYS T800 풍통

GPU 변경 : 1060 6G -> 1080ti 11G x2 

 

T800 풍통은 빅타워 케이스 이다.

빅타워는 솔직히 처음 써본다.. 

전명 160mm 3개

후면 140mm 2개

하단 120mm 2개

RGB 쿨링팬 기본셋트 인데 나쁘지는 않다.

120mm로 구성한다면 16개? 를 달수 있다고 하던데 (;;;)

 

케이스의 가장 아쉬운점은 파워가 상단에 있는 것이다. 뭐.. 설계하신분의 계획이 있으셨겠지만.. 

조금 아쉽다. 상단 배기를 제대로못해주는 느낌.. (상단은 그냥 CPU 120x3 라지 정도 설치하는 공간으로만..써야 할듯)

하단의 120mmX2 의 기본쿨러는 140mmx2로 변경예정 (내꺼 하나 추가해서 120mmx3인데 140mmx2가 더 좋을거같음)

 

case는 이정도로 얘기하고..

 

문제는 1080ti의 발열이다. 

0 슬랏에 있는 녀석이 가장 문제.. 0과 1 슬랏을 같이 학습시키면 0슬랏의 온도는 90도 이다

1 슬랏은 하단 쿨러가 계속 공급해줘서 70도를 유지한다

(0슬랏.. as 끝난거 수냉킷으로바꿔버릴까보다 ㅠㅠ)

 

어느 블로그 보니깐 GPU는 100도만 안넘어가면 괜찬다고는 하는데 학습하는 기간 내내 90도를 찍고 있는것도 좀 문제 일듯..

 

덕분에 클럭이 낮아져서 연산도 느려지는거 같다..

 

sli hb bright 는 사실 연산량에는 해당이 없더라.. batch size 크기는 키울수 있어도 GPU 두장의 연산을 합쳐서 하는게 아니더라

 

bacth_size를 키울수있다면 확실히 확습 속도는 빨라진다. 한번 학습 할때마다 처리하는 train set을 그만큼 처리하니까..

 

다만 학습의 정확도가 어떻게 될런지는 모르겠다.

 

그냥 간단한 classification으로 test 할때는 같은 에폭으로 돌려도 accuracy가 낮아지는게 보였으니깐..

 

오늘은 여기까지 

 

결론

 

딥러닝에서 sli hb 나 nvlink가 필요한건 대용량 데이터 학습할때라고는 할거같은데.. (사실 이것도 pytoch에서 코드로 가능하다고함)

 

 

 

 

728x90
반응형

'AI > TEST' 카테고리의 다른 글

bacth_size 별 학습시간  (0) 2020.06.07
1060 vs 1070 vs 1080 ti vs 1080 ti SLI  (0) 2020.05.28