| 19번째 줄: |
19번째 줄: |
| | | | |
| | === 기초 사용법 === | | === 기초 사용법 === |
| | + | 일반적으로 판단근거를 data, 판단결과를 label이라 구분하여 사용한다. 혹은 함수의 형태를 본따 x, y로. |
| | {| class="wikitable" | | {| class="wikitable" |
| | !의도 | | !의도 |
| 29번째 줄: |
30번째 줄: |
| | from sklearn.model_selection import train_test_split | | from sklearn.model_selection import train_test_split |
| | | | |
| − | train_data, test_data, train_label, test_label = train_test_split(data, label)
| + | train_x, test_x, train_y, test_y = train_test_split(data, label, random_state=1) |
| − | </syntaxhighlight>
| + | </syntaxhighlight>random_state는 random함수의 seed값을 고정하여 매번 같은 데이터를 얻게 하기 위함.(test용, 교육용에서 채점 등에 사용.) |
| − | |-
| |
| − | |정답률 예측
| |
| − | |
| |
| − | |<syntaxhighlight lang="python">
| |
| − | right =0; total =0
| |
| − | for idx, answer in enumerate(label): # 레이블의 인덱스를 얻는다.
| |
| − | p = pre[idx] # 인덱스값에 해당하는 예측값.
| |
| − | if p = answer: right += 1 # 정답과 일치한다면 right에 하나 추가.
| |
| − | total += 1
| |
| − | print("정답률 : ", right/total)
| |
| − | </syntaxhighlight>간단하게 모듈을 사용할 수도 있다.<syntaxhighlight lang="python"> | |
| − | from sklearn import metrics # 추가로 가져온다.
| |
| | | | |
| − | score = metrics.accuracy_score(label, pre) # 레이블과 예측값을 넣는다.
| + | 일반적으로 이 대신 test_size=0.2 를 사용한다.(20%가 test 데이터로) |
| − | print('정답률 : ', score)
| |
| − | </syntaxhighlight>
| |
| | |- | | |- |
| | |학습한 매개변수 저장하기 | | |학습한 매개변수 저장하기 |
| 63번째 줄: |
50번째 줄: |
| | </syntaxhighlight> | | </syntaxhighlight> |
| | |} | | |} |
| | + | |
| | + | = 모델 검증 = |
| | + | {| class="wikitable" |
| | + | !방법 |
| | + | !설명 |
| | + | |- |
| | + | |평균 에러정도 검증 |
| | + | |<syntaxhighlight lang="python"> |
| | + | from sklearn.metrics import mean_absolute_error |
| | + | |
| | + | data = df..... # 예상에 쓰일 df. |
| | + | y = data.판단할열 # 실제 결과 |
| | + | # 근거데이터 만들기. |
| | + | features = ['열1', '열2', ...] # 판단할 자료가 될 열을 지정한다. |
| | + | x = data[features] # 판단근거를 준비한다. |
| | + | |
| | + | predict = machine.predict(data) # 결과 예상하기. |
| | + | mean_absolute_error(y, predict) # 예상결과와 실제값을 비교하여 평균 에러를 반환한다. |
| | + | </syntaxhighlight>둘 사이의 차이를 구하는 함수로, 순서는 달라져도 상관 없다. |
| | + | |- |
| | + | |정답률 검증 |
| | + | |<syntaxhighlight lang="python"> |
| | + | right =0; total =0 |
| | + | for idx, answer in enumerate(label): # 레이블의 인덱스를 얻는다. |
| | + | p = pre[idx] # 인덱스값에 해당하는 예측값. |
| | + | if p = answer: right += 1 # 정답과 일치한다면 right에 하나 추가. |
| | + | total += 1 |
| | + | print("정답률 : ", right/total) |
| | + | </syntaxhighlight>간단하게 모듈을 사용할 수도 있다.<syntaxhighlight lang="python"> |
| | + | from sklearn import metrics # 추가로 가져온다. |
| | + | |
| | + | score = metrics.accuracy_score(label, pre) # 레이블과 예측값을 넣는다. |
| | + | print('정답률 : ', score) |
| | + | </syntaxhighlight> |
| | + | |} |
| | + | |
| | | | |
| | == SVM 알고리즘 == | | == SVM 알고리즘 == |