딥러닝 하드웨어

Pywiki
둘러보기로 가기 검색하러 가기

1 개요[편집 | 원본 편집]

CPU가 연속적인 복잡한 계산을 잘 처리하는 반면, GPU는 병렬처리에서 장점이 있다. 딥러닝을 위해선 GPU가 필요하다.

1.1 그래픽카드[편집 | 원본 편집]

GPU는 주로 엔비디아나 AMD를 사용하는데, 엔비디아에서 GPU 통합개발환경인 CUDA를 지원해 디버닝에선 엔비디아가 주로 쓰인다.

2 연산정밀도[편집 | 원본 편집]

컴퓨터에선 32비트나 64비트로 실수를 표현하는데, 많은 비트를 사용하면 더 정밀한 수를 표현할 수 있지만, 속도가 늦어진다. 지금까지는 16비트의 반정밀도만 사용해도 학습에 문제가 없다고 알려져 있어[1], 정확도보단 속도에 비중이 실리고 있다.

  1. 사이토 고키(2017).『밑바닥부터 시작하는 딥러닝』. 한빛미디어 p.277 에서 재인용.