바뀜

653 바이트 추가됨 ,  2021년 12월 7일 (화) 17:38
3번째 줄: 3번째 줄:  
== 층을 어떻게 구현할 것인가? ==
 
== 층을 어떻게 구현할 것인가? ==
 
특정 기능을 구현하기 위해 어떤 층을 몇개나 준비해야 하나 고민에 빠지게 된다.
 
특정 기능을 구현하기 위해 어떤 층을 몇개나 준비해야 하나 고민에 빠지게 된다.
 +
 +
사실,모델의 성능은 준비된 데이터, 데이터 증폭법, 활성화함수 등에 영향을 받아 짧은 글 안에 그 지혜를 담기 어렵지만, 이런 논의는 그 지혜로 다가가는 문이 되어주리라 기대한다.
    
세세한 조정값까진 이곳에서 다루긴 어렵지만, 대강 어떤 문제에서 어느정도 크기의 층을 사용하는지 참고하면 시작지점을 찾을 수 있다.
 
세세한 조정값까진 이곳에서 다루긴 어렵지만, 대강 어떤 문제에서 어느정도 크기의 층을 사용하는지 참고하면 시작지점을 찾을 수 있다.
16번째 줄: 18번째 줄:  
!성과
 
!성과
 
!링크
 
!링크
|-
  −
|0~9의 아라비아 숫자를 구분하는 것.
  −
|렐루 활성화함수로 512개, 소프트맥스 활성화함수로 10개.
  −
2개 층만으로도 충분하다... 놀랍네; 고작 2층으로!
  −
|정확도는 97.8%
  −
|[https://github.com/gilbutITbook/006975/blob/master/2.1-a-first-look-at-a-neural-network.ipynb 링크]
   
|-
 
|-
 
|영화 리뷰 분류.
 
|영화 리뷰 분류.
46번째 줄: 42번째 줄:  
|
 
|
 
|[https://github.com/gilbutITbook/006975/blob/master/3.5-classifying-newswires.ipynb 링크]
 
|[https://github.com/gilbutITbook/006975/blob/master/3.5-classifying-newswires.ipynb 링크]
 +
|}
 +
 +
=== 이미지 ===
 +
{| class="wikitable"
 +
!사례
 +
!시도
 +
!성과
 +
!링크
 +
|-
 +
| rowspan="2" |0~9의 아라비아 숫자를 구분하는 것.
 +
|렐루 활성화함수로 512개, 소프트맥스 활성화함수로 10개.
 +
2개 층만으로도 충분하다... 놀랍네; 고작 2층으로!
 +
|정확도는 97.8%
 +
|[https://github.com/gilbutITbook/006975/blob/master/2.1-a-first-look-at-a-neural-network.ipynb 링크]
 +
|-
 +
|CNN 3층과 일반 신경망 2층.
 +
|99.2%
 +
|[https://github.com/gilbutITbook/006975/blob/master/5.1-introduction-to-convnets.ipynb 링크]
 +
|-
 +
|개와 고양이 이진분류
 +
|CNN 4층과 신경망 2층.
 +
|약 85%
 +
|[https://github.com/gilbutITbook/006975/blob/master/5.2-using-convnets-with-small-datasets.ipynb 링크]
 
|}
 
|}
 
[[분류:인공지능 기능구현]]
 
[[분류:인공지능 기능구현]]