바뀜

1,001 바이트 추가됨 ,  2022년 4월 12일 (화) 17:40
편집 요약 없음
38번째 줄: 38번째 줄:  
* 활성화 함수를 ReLU 대신 다른 것 사용해보기.
 
* 활성화 함수를 ReLU 대신 다른 것 사용해보기.
    +
=== Allocator (GPU_0_bfc) ran out of memory trying to allocate 8.92GiB (rounded to 9574400000)requested by op CudnnRNN ===
 +
위와 같은 에러는 저만한 용량을 욯지만, GPU에서 처리할 수 없음을 보여준다.
 +
 +
가장 간단한 처리는 메모리 사용을 줄이게끔 batch_size를 줄이는 것. 그러나 메모리가 충분함에도 에러를 띄우는 경우가 있는데, 이는 GPU 사용에 제한이 걸려있기 때문.
 +
{| class="wikitable"
 +
|+해결방법
 +
!방법
 +
!설명
 +
|-
 +
|런타임 할당에 따라 메모리 설정
 +
|훈련 전에 다음의 코드를 넣는다.<syntaxhighlight lang="python">
 +
config = tf.ConfigProto()
 +
config.gpu_options.allow_growth = True
 +
session = tf.Session(config=config)
 +
</syntaxhighlight>
 +
|-
 +
|메모리 할당 비율을 설정
 +
|훈련 전에 다음의 코드를 넣는다.<syntaxhighlight lang="python">
 +
config = tf.ConfigProto()
 +
config.gpu_options.per_process_gpu_memory_fraction = 0.4
 +
session = tf.Session(config=config)
 +
</syntaxhighlight>
 +
|}
 
[[분류:Keras]]
 
[[분류:Keras]]