"분류:LSTM"의 두 판 사이의 차이
둘러보기로 가기
검색하러 가기
(새 문서: == 개요 == Long Short-Term Memory. RNN에 기반한 아키텍쳐. 연속적인 맥락에서 주로 사용된다. 중간의 결과데이터를 따로 저장하여 과거의 데이...) |
잔글 (→개요) |
||
(같은 사용자의 중간 판 3개는 보이지 않습니다) | |||
1번째 줄: | 1번째 줄: | ||
== 개요 == | == 개요 == | ||
− | Long Short-Term Memory. RNN에 기반한 아키텍쳐. 연속적인 맥락에서 주로 사용된다. | + | Long Short-Term Memory. RNN에 기반한 아키텍쳐. 연속적인 맥락에서 주로 사용된다. RNN의 기울기 소실(vanishing gradient)문제를 해결하기 위해 만들어졌다. |
중간의 결과데이터를 따로 저장하여 과거의 데이터도 연산에 반영하는 전략. | 중간의 결과데이터를 따로 저장하여 과거의 데이터도 연산에 반영하는 전략. | ||
+ | |||
+ | === 역사 === | ||
+ | 1997년 제안됨. | ||
=== 사용 === | === 사용 === | ||
9번째 줄: | 12번째 줄: | ||
서로 연관되며 연속적인 데이터 형태에 사용. | 서로 연관되며 연속적인 데이터 형태에 사용. | ||
+ | |||
+ | === 유의 === | ||
+ | 과거로부터 미래를 예측하려 한다면 데이터가 무작위로 섞이지 않게끔.(미래의 정보가 누설된다.) 훈련세트의 데이터보다 테스트세트의 데이터가 미래의 것이어야 한다. | ||
== 응용 == | == 응용 == | ||
− | [[분류: | + | [[분류:순환신경망]] |
2022년 1월 20일 (목) 16:56 기준 최신판
1 개요[편집 | 원본 편집]
Long Short-Term Memory. RNN에 기반한 아키텍쳐. 연속적인 맥락에서 주로 사용된다. RNN의 기울기 소실(vanishing gradient)문제를 해결하기 위해 만들어졌다.
중간의 결과데이터를 따로 저장하여 과거의 데이터도 연산에 반영하는 전략.
1.1 역사[편집 | 원본 편집]
1997년 제안됨.
1.2 사용[편집 | 원본 편집]
비디오 예측, 대화, 금융거래 등 연속적 데이터에서 강점.
서로 연관되며 연속적인 데이터 형태에 사용.
1.3 유의[편집 | 원본 편집]
과거로부터 미래를 예측하려 한다면 데이터가 무작위로 섞이지 않게끔.(미래의 정보가 누설된다.) 훈련세트의 데이터보다 테스트세트의 데이터가 미래의 것이어야 한다.