1번째 줄: |
1번째 줄: |
| 다양한 기능을 어떻게 구현할 것인가에 대한 문서를 분류하기 위한 분류. | | 다양한 기능을 어떻게 구현할 것인가에 대한 문서를 분류하기 위한 분류. |
| + | |
| + | == 층을 어떻게 구현할 것인가? == |
| + | 특정 기능을 구현하기 위해 어떤 층을 몇개나 준비해야 하나 고민에 빠지게 된다. |
| + | |
| + | 사실,모델의 성능은 준비된 데이터, 데이터 증폭법, 활성화함수 등에 영향을 받아 짧은 글 안에 그 지혜를 담기 어렵지만, 이런 논의는 그 지혜로 다가가는 문이 되어주리라 기대한다. |
| + | |
| + | 세세한 조정값까진 이곳에서 다루긴 어렵지만, 대강 어떤 문제에서 어느정도 크기의 층을 사용하는지 참고하면 시작지점을 찾을 수 있다. |
| + | |
| + | * 다양한 경험이 주는 강점은... 대강 어느 정도면 어떤 기능을 구현할 수 있겠다는 감각을 얻는 것. 대략적인 경험의 사례공유는 커다란 도움이 된다. |
| | | |
| == 다양한 사례의 연구결과 공유 == | | == 다양한 사례의 연구결과 공유 == |
− | 특정 기능을 구현하기 위해 어떤 층을 몇개나 준비해야 하나 고민에 빠지게 된다.
| + | * |
| + | |
| + | {| class="wikitable" |
| + | !사례 |
| + | !시도 |
| + | !성과 |
| + | !링크 |
| + | |- |
| + | |영화 리뷰 분류. |
| + | |
| + | 긍정리뷰와 부정리뷰 분류. |
| + | |<syntaxhighlight lang="python"> |
| + | model = models.Sequential() |
| + | model.add(layers.Dense(16, activation='relu', input_shape=(10000,))) |
| + | model.add(layers.Dense(16, activation='relu')) |
| + | model.add(layers.Dense(1, activation='sigmoid')) |
| + | </syntaxhighlight> |
| + | |정확도는 약 90% |
| + | |[https://github.com/gilbutITbook/006975/blob/master/3.4-classifying-movie-reviews.ipynb 링크] |
| + | |- |
| + | |뉴스 분류 |
| + | |
| + | 46개의 토픽으로 뉴스를 분류한다. |
| + | |<syntaxhighlight lang="python"> |
| + | model = models.Sequential() |
| + | model.add(layers.Dense(16, activation='relu', input_shape=(10000,))) |
| + | model.add(layers.Dense(16, activation='relu')) |
| + | model.add(layers.Dense(1, activation='sigmoid')) |
| + | </syntaxhighlight> |
| + | | |
| + | |[https://github.com/gilbutITbook/006975/blob/master/3.5-classifying-newswires.ipynb 링크] |
| + | |} |
| | | |
− | 다양한 경험이 주는 강점은... 대강 어느 정도면 어떤 기능을 구현할 수 있겠다는 감각을 얻는 것. 대략적인 경험의 사례공유는 커다란 도움이 된다.
| + | === 이미지 === |
| {| class="wikitable" | | {| class="wikitable" |
| !사례 | | !사례 |
11번째 줄: |
51번째 줄: |
| !링크 | | !링크 |
| |- | | |- |
− | |0~9의 아라비아 숫자를 구분하는 것. | + | | rowspan="2" |0~9의 아라비아 숫자를 구분하는 것. |
| |렐루 활성화함수로 512개, 소프트맥스 활성화함수로 10개. | | |렐루 활성화함수로 512개, 소프트맥스 활성화함수로 10개. |
| 2개 층만으로도 충분하다... 놀랍네; 고작 2층으로! | | 2개 층만으로도 충분하다... 놀랍네; 고작 2층으로! |
17번째 줄: |
57번째 줄: |
| |[https://github.com/gilbutITbook/006975/blob/master/2.1-a-first-look-at-a-neural-network.ipynb 링크] | | |[https://github.com/gilbutITbook/006975/blob/master/2.1-a-first-look-at-a-neural-network.ipynb 링크] |
| |- | | |- |
− | | | + | |CNN 3층과 일반 신경망 2층. |
− | | | + | |99.2% |
− | | | + | |[https://github.com/gilbutITbook/006975/blob/master/5.1-introduction-to-convnets.ipynb 링크] |
− | |
| |
| |- | | |- |
− | | | + | |개와 고양이 이진분류 |
− | | | + | |CNN 4층과 신경망 2층. |
− | | | + | |약 85% |
− | | | + | |[https://github.com/gilbutITbook/006975/blob/master/5.2-using-convnets-with-small-datasets.ipynb 링크] |
| |} | | |} |
| [[분류:인공지능 기능구현]] | | [[분류:인공지능 기능구현]] |