바뀜

674 바이트 추가됨 ,  2021년 9월 14일 (화) 22:30
편집 요약 없음
81번째 줄: 81번째 줄:     
활성화함수로 ReLU 사용, LRN(Local Response Nomalization)으로 국소정규화, 드롭아웃을 사용하여 모델을 개선시켰다.
 
활성화함수로 ReLU 사용, LRN(Local Response Nomalization)으로 국소정규화, 드롭아웃을 사용하여 모델을 개선시켰다.
 +
 +
== VGG ==
 +
합성곱 계층과 완전연결 계층을 섞어 16층이나 19층으로 심화했다. 작은 필터를 사용한 합성곱 계층을 연속으로 거치는 것과 풀링계층으로 점차 크기를 줄여나가는 것이 특징이다.
 +
 +
2014년 ILSVRC 대회에서 2등을 차지했으나, 구성이 간단하여 자주 사용되는 기법이다.
 +
 +
== GoogLeNet ==
 +
2014년 ILSVRC 대회에서 1등. 계층이 한 방향으로만 깊은 것이 아니라 '폭'이 있다. 이를 인셉션 구조라 하는데, 이는 앞 계층의 데이터를 서로 크기가 다른 필터, 풀링을 여러개 적용하여 그 결과를 결합하는 방식이다.
 +
 +
== ResNet ==
 
[[분류:딥러닝 기법]]
 
[[분류:딥러닝 기법]]