"딥러닝 하드웨어"의 두 판 사이의 차이

Pywiki
둘러보기로 가기 검색하러 가기
(새 문서: == 개요 == CPU가 연속적인 복잡한 계산을 잘 처리하는 반면, GPU는 병렬처리에서 장점이 있다. 딥러닝을 위해선 GPU가 필요하다. === 그래픽카...)
 
(차이 없음)

2021년 9월 15일 (수) 17:17 기준 최신판

1 개요[편집 | 원본 편집]

CPU가 연속적인 복잡한 계산을 잘 처리하는 반면, GPU는 병렬처리에서 장점이 있다. 딥러닝을 위해선 GPU가 필요하다.

1.1 그래픽카드[편집 | 원본 편집]

GPU는 주로 엔비디아나 AMD를 사용하는데, 엔비디아에서 GPU 통합개발환경인 CUDA를 지원해 디버닝에선 엔비디아가 주로 쓰인다.

2 연산정밀도[편집 | 원본 편집]

컴퓨터에선 32비트나 64비트로 실수를 표현하는데, 많은 비트를 사용하면 더 정밀한 수를 표현할 수 있지만, 속도가 늦어진다. 지금까지는 16비트의 반정밀도만 사용해도 학습에 문제가 없다고 알려져 있어[1], 정확도보단 속도에 비중이 실리고 있다.

  1. 사이토 고키(2017).『밑바닥부터 시작하는 딥러닝』. 한빛미디어 p.277 에서 재인용.