Adam
Pywiki
둘러보기로 가기
검색하러 가기
개요
[
편집
|
원본 편집
]
모멘텀 기법과 AdaGrad 기법을 합쳐 원소마다 다른 갱신률을 보임과 동시에 운동량을 갖게 한다.
분류
:
딥러닝 훈련기법
둘러보기 메뉴
개인 도구
로그인하지 않음
토론
기여
계정 만들기
로그인
이름공간
문서
토론
변수
보기
읽기
편집
원본 편집
역사 보기
더 보기
검색
둘러보기
대문
최근 바뀜
임의의 문서로
미디어위키 도움말
도구
여기를 가리키는 문서
가리키는 글의 최근 바뀜
특수 문서 목록
인쇄용 판
고유 링크
문서 정보