주 메뉴 열기
대문
임의의 문서로
로그인
설정
Pywiki 소개
면책 조항
Pywiki
검색
바뀜
← 이전 편집
다음 편집 →
활성화함수
(편집)
2021년 9월 8일 (수) 01:23 판
436 바이트 추가됨
,
2021년 9월 8일 (수) 01:23
편집 요약 없음
16번째 줄:
16번째 줄:
def sigmoid_function(x): # 일반적으로 넘파이 배열을 받는다.
def sigmoid_function(x): # 일반적으로 넘파이 배열을 받는다.
return 1 / (1 + np.exp(-x)) # 그냥 모양 그대로 반환한다.
return 1 / (1 + np.exp(-x)) # 그냥 모양 그대로 반환한다.
+
</syntaxhighlight>
+
+
== 렐루 함수(ReLU 함수) ==
+
Rectfied(정류된) Linear Unit. 0 이하라면 0을 출력하고 0을 넘는다면 입력을 그대로 출력하는 함수. 즉, -흐름만을 차단한 함수이다. 선형함수이지만, 정류되었다는 점에서 구분된다.\
+
+
=== 구현 ===
+
<syntaxhighlight lang="python">
+
def relu_function(x): # 일반적으로 넘파이 배열을 받는다.
+
return np.maximum(0, x)
</syntaxhighlight>
</syntaxhighlight>
[[분류:딥러닝 이론]]
[[분류:딥러닝 이론]]
Sam
사무관
,
인터페이스 관리자
,
관리자
, 교사
편집
1,408
번