Adam

Pywiki
Sam (토론 | 기여)님의 2021년 9월 13일 (월) 17:45 판 (새 문서: == 개요 == 모멘텀 기법과 AdaGrad 기법을 합쳐 원소마다 다른 갱신률을 보임과 동시에 운동량을 갖게 한다. 분류:딥러닝 훈련기법)
(차이) ← 이전 판 | 최신판 (차이) | 다음 판 → (차이)
둘러보기로 가기 검색하러 가기

개요[편집 | 원본 편집]

모멘텀 기법과 AdaGrad 기법을 합쳐 원소마다 다른 갱신률을 보임과 동시에 운동량을 갖게 한다.