"Adam"의 두 판 사이의 차이

Pywiki
둘러보기로 가기 검색하러 가기
(새 문서: == 개요 == 모멘텀 기법과 AdaGrad 기법을 합쳐 원소마다 다른 갱신률을 보임과 동시에 운동량을 갖게 한다. 분류:딥러닝 훈련기법)
 
(차이 없음)

2021년 9월 13일 (월) 17:45 기준 최신판

개요[편집 | 원본 편집]

모멘텀 기법과 AdaGrad 기법을 합쳐 원소마다 다른 갱신률을 보임과 동시에 운동량을 갖게 한다.