주 메뉴 열기
대문
임의의 문서로
로그인
설정
Pywiki 소개
면책 조항
Pywiki
검색
Adam
언어
주시
편집
Sam
(
토론
|
기여
)
님의 2021년 9월 13일 (월) 17:45 판
(새 문서: == 개요 == 모멘텀 기법과 AdaGrad 기법을 합쳐 원소마다 다른 갱신률을 보임과 동시에 운동량을 갖게 한다.
분류:딥러닝 훈련기법
)
(차이) ← 이전 판 | 최신판 (차이) | 다음 판 → (차이)
개요
편집
모멘텀 기법과 AdaGrad 기법을 합쳐 원소마다 다른 갱신률을 보임과 동시에 운동량을 갖게 한다.