딥러닝 하드웨어
1 개요편집
CPU가 연속적인 복잡한 계산을 잘 처리하는 반면, GPU는 병렬처리에서 장점이 있다. 딥러닝을 위해선 GPU가 필요하다.
1.1 그래픽카드편집
GPU는 주로 엔비디아나 AMD를 사용하는데, 엔비디아에서 GPU 통합개발환경인 CUDA를 지원해 디버닝에선 엔비디아가 주로 쓰인다.
2 연산정밀도편집
컴퓨터에선 32비트나 64비트로 실수를 표현하는데, 많은 비트를 사용하면 더 정밀한 수를 표현할 수 있지만, 속도가 늦어진다. 지금까지는 16비트의 반정밀도만 사용해도 학습에 문제가 없다고 알려져 있어[1], 정확도보단 속도에 비중이 실리고 있다.
- ↑ 사이토 고키(2017).『밑바닥부터 시작하는 딥러닝』. 한빛미디어 p.277 에서 재인용.