딥러닝 하드웨어

Pywiki
Sam (토론 | 기여)님의 2021년 9월 15일 (수) 17:17 판 (새 문서: == 개요 == CPU가 연속적인 복잡한 계산을 잘 처리하는 반면, GPU는 병렬처리에서 장점이 있다. 딥러닝을 위해선 GPU가 필요하다. === 그래픽카...)
(차이) ← 이전 판 | 최신판 (차이) | 다음 판 → (차이)
둘러보기로 가기 검색하러 가기

1 개요[편집 | 원본 편집]

CPU가 연속적인 복잡한 계산을 잘 처리하는 반면, GPU는 병렬처리에서 장점이 있다. 딥러닝을 위해선 GPU가 필요하다.

1.1 그래픽카드[편집 | 원본 편집]

GPU는 주로 엔비디아나 AMD를 사용하는데, 엔비디아에서 GPU 통합개발환경인 CUDA를 지원해 디버닝에선 엔비디아가 주로 쓰인다.

2 연산정밀도[편집 | 원본 편집]

컴퓨터에선 32비트나 64비트로 실수를 표현하는데, 많은 비트를 사용하면 더 정밀한 수를 표현할 수 있지만, 속도가 늦어진다. 지금까지는 16비트의 반정밀도만 사용해도 학습에 문제가 없다고 알려져 있어[1], 정확도보단 속도에 비중이 실리고 있다.

  1. 사이토 고키(2017).『밑바닥부터 시작하는 딥러닝』. 한빛미디어 p.277 에서 재인용.