2번째 줄: |
2번째 줄: |
| | | |
| == 층을 어떻게 구현할 것인가? == | | == 층을 어떻게 구현할 것인가? == |
− | 너무 많은 파라미터는 과적합의 원인이 되기도 한다. 과적합을 막기 위해 네트워크의 크기를 줄이는 것도 전략이다. 손실이 감소할때까지 점차 유닛의 수를 늘려가는 것이 일반전략.
| + | 특정 기능을 구현하기 위해 어떤 층을 몇개나 준비해야 하나 고민에 빠지게 된다. |
| | | |
− | == 다양한 사례의 연구결과 공유 ==
| + | 사실,모델의 성능은 준비된 데이터, 데이터 증폭법, 활성화함수 등에 영향을 받아 짧은 글 안에 그 지혜를 담기 어렵지만, 이런 논의는 그 지혜로 다가가는 문이 되어주리라 기대한다. |
− | 특정 기능을 구현하기 위해 어떤 층을 몇개나 준비해야 하나 고민에 빠지게 된다.
| + | |
| + | 세세한 조정값까진 이곳에서 다루긴 어렵지만, 대강 어떤 문제에서 어느정도 크기의 층을 사용하는지 참고하면 시작지점을 찾을 수 있다. |
| | | |
| * 다양한 경험이 주는 강점은... 대강 어느 정도면 어떤 기능을 구현할 수 있겠다는 감각을 얻는 것. 대략적인 경험의 사례공유는 커다란 도움이 된다. | | * 다양한 경험이 주는 강점은... 대강 어느 정도면 어떤 기능을 구현할 수 있겠다는 감각을 얻는 것. 대략적인 경험의 사례공유는 커다란 도움이 된다. |
| + | |
| + | == 다양한 사례의 연구결과 공유 == |
| * | | * |
| | | |
15번째 줄: |
18번째 줄: |
| !성과 | | !성과 |
| !링크 | | !링크 |
− | |-
| |
− | |0~9의 아라비아 숫자를 구분하는 것.
| |
− | |렐루 활성화함수로 512개, 소프트맥스 활성화함수로 10개.
| |
− | 2개 층만으로도 충분하다... 놀랍네; 고작 2층으로!
| |
− | |정확도는 97.8%
| |
− | |[https://github.com/gilbutITbook/006975/blob/master/2.1-a-first-look-at-a-neural-network.ipynb 링크]
| |
| |- | | |- |
| |영화 리뷰 분류. | | |영화 리뷰 분류. |
34번째 줄: |
31번째 줄: |
| |[https://github.com/gilbutITbook/006975/blob/master/3.4-classifying-movie-reviews.ipynb 링크] | | |[https://github.com/gilbutITbook/006975/blob/master/3.4-classifying-movie-reviews.ipynb 링크] |
| |- | | |- |
| + | |뉴스 분류 |
| + | |
| + | 46개의 토픽으로 뉴스를 분류한다. |
| + | |<syntaxhighlight lang="python"> |
| + | model = models.Sequential() |
| + | model.add(layers.Dense(16, activation='relu', input_shape=(10000,))) |
| + | model.add(layers.Dense(16, activation='relu')) |
| + | model.add(layers.Dense(1, activation='sigmoid')) |
| + | </syntaxhighlight> |
| | | | | |
− | | | + | |[https://github.com/gilbutITbook/006975/blob/master/3.5-classifying-newswires.ipynb 링크] |
− | | | + | |} |
− | | | + | |
| + | === 이미지 === |
| + | {| class="wikitable" |
| + | !사례 |
| + | !시도 |
| + | !성과 |
| + | !링크 |
| + | |- |
| + | | rowspan="2" |0~9의 아라비아 숫자를 구분하는 것. |
| + | |렐루 활성화함수로 512개, 소프트맥스 활성화함수로 10개. |
| + | 2개 층만으로도 충분하다... 놀랍네; 고작 2층으로! |
| + | |정확도는 97.8% |
| + | |[https://github.com/gilbutITbook/006975/blob/master/2.1-a-first-look-at-a-neural-network.ipynb 링크] |
| + | |- |
| + | |CNN 3층과 일반 신경망 2층. |
| + | |99.2% |
| + | |[https://github.com/gilbutITbook/006975/blob/master/5.1-introduction-to-convnets.ipynb 링크] |
| + | |- |
| + | |개와 고양이 이진분류 |
| + | |CNN 4층과 신경망 2층. |
| + | |약 85% |
| + | |[https://github.com/gilbutITbook/006975/blob/master/5.2-using-convnets-with-small-datasets.ipynb 링크] |
| |} | | |} |
| [[분류:인공지능 기능구현]] | | [[분류:인공지능 기능구현]] |