바뀜

둘러보기로 가기 검색하러 가기
162 바이트 추가됨 ,  2021년 9월 13일 (월) 13:19
71번째 줄: 71번째 줄:  
         self.t = t
 
         self.t = t
 
         self.y = softmax(x)  # 이전에 구현한 소프트맥스 함수값을 넣는다.
 
         self.y = softmax(x)  # 이전에 구현한 소프트맥스 함수값을 넣는다.
         self.loss = cross_entrop_error(self.y, self.t)  # 오차함수로 오차값을 얻는다.
+
         self.loss = cross_entrop_error(self.y, self.t)  # 오차함수로 오차값을 얻는다. 내 생각엔 backward에서 다뤄도 될 것 같은데..
         return self.loss
+
         return self.loss # 포워드니까 y값이 나와야 하는 거 아닌감??
 
     def backward(self, dout):
 
     def backward(self, dout):
 
         batch_size = self.t.shape[0]  # 데이터 갯수
 
         batch_size = self.t.shape[0]  # 데이터 갯수
         dx = (self.y - self.t) / batch_size  # 역전파값을 데이터 갯수로 나눈다.
+
         dx = (self.y - self.t) / batch_size  # 역전파값을 데이터 갯수로 나눈다.(데이터를 여러 개 넣었을 경우.)
 
         return dx
 
         return dx
 
</syntaxhighlight>
 
</syntaxhighlight>

둘러보기 메뉴