바뀜

둘러보기로 가기 검색하러 가기
854 바이트 추가됨 ,  2021년 9월 15일 (수) 17:17
새 문서: == 개요 == CPU가 연속적인 복잡한 계산을 잘 처리하는 반면, GPU는 병렬처리에서 장점이 있다. 딥러닝을 위해선 GPU가 필요하다. === 그래픽카...
== 개요 ==
CPU가 연속적인 복잡한 계산을 잘 처리하는 반면, GPU는 병렬처리에서 장점이 있다. 딥러닝을 위해선 GPU가 필요하다.

=== 그래픽카드 ===
GPU는 주로 엔비디아나 AMD를 사용하는데, 엔비디아에서 GPU 통합개발환경인 CUDA를 지원해 디버닝에선 엔비디아가 주로 쓰인다.

== 연산정밀도 ==
컴퓨터에선 32비트나 64비트로 실수를 표현하는데, 많은 비트를 사용하면 더 정밀한 수를 표현할 수 있지만, 속도가 늦어진다. 지금까지는 16비트의 반정밀도만 사용해도 학습에 문제가 없다고 알려져 있어<ref>사이토 고키(2017).『밑바닥부터 시작하는 딥러닝』. 한빛미디어 p.277 에서 재인용.</ref>, 정확도보단 속도에 비중이 실리고 있다.
[[분류:딥러닝 이론]]

둘러보기 메뉴