주 메뉴 열기
대문
임의의 문서로
로그인
설정
Pywiki 소개
면책 조항
Pywiki
검색
바뀜
← 이전 편집
다음 편집 →
CNN
(편집)
2021년 9월 14일 (화) 22:30 판
674 바이트 추가됨
,
2021년 9월 14일 (화) 22:30
편집 요약 없음
81번째 줄:
81번째 줄:
활성화함수로 ReLU 사용, LRN(Local Response Nomalization)으로 국소정규화, 드롭아웃을 사용하여 모델을 개선시켰다.
활성화함수로 ReLU 사용, LRN(Local Response Nomalization)으로 국소정규화, 드롭아웃을 사용하여 모델을 개선시켰다.
+
+
== VGG ==
+
합성곱 계층과 완전연결 계층을 섞어 16층이나 19층으로 심화했다. 작은 필터를 사용한 합성곱 계층을 연속으로 거치는 것과 풀링계층으로 점차 크기를 줄여나가는 것이 특징이다.
+
+
2014년 ILSVRC 대회에서 2등을 차지했으나, 구성이 간단하여 자주 사용되는 기법이다.
+
+
== GoogLeNet ==
+
2014년 ILSVRC 대회에서 1등. 계층이 한 방향으로만 깊은 것이 아니라 '폭'이 있다. 이를 인셉션 구조라 하는데, 이는 앞 계층의 데이터를 서로 크기가 다른 필터, 풀링을 여러개 적용하여 그 결과를 결합하는 방식이다.
+
+
== ResNet ==
[[분류:딥러닝 기법]]
[[분류:딥러닝 기법]]
Sam
사무관
,
인터페이스 관리자
,
관리자
, 교사
편집
1,408
번