"TensorFlow"의 두 판 사이의 차이
잔글 (→의존성 확인) |
(→에러) |
||
(다른 사용자 한 명의 중간 판 하나는 보이지 않습니다) | |||
363번째 줄: | 363번째 줄: | ||
Function call stack: train_function -> train_function | Function call stack: train_function -> train_function | ||
|텐서플로우, CUDA, CuDNN 등에서 뭔가 안맞았을 때...? 모르겠다 젠장; | |텐서플로우, CUDA, CuDNN 등에서 뭔가 안맞았을 때...? 모르겠다 젠장; | ||
+ | |||
+ | |||
+ | GPU자원의 문제라는 설도 있었다. | ||
다 맞추고 텐서플로우를 GPU버전으로 다시 설치해도 뜨네; | 다 맞추고 텐서플로우를 GPU버전으로 다시 설치해도 뜨네; | ||
− | | | + | |GPU자원의 문제라면 탄력적으로 GPU를 사용하게 하는 방식으로 해결이 가능하리라...? |
+ | |||
+ | |||
+ | Tensorflow2.X의 경우. | ||
+ | |||
+ | import tensorflow as tf | ||
+ | |||
+ | config = tf.compat.v1.ConfigProto() | ||
+ | |||
+ | config.gpu_options.allow_growth = True | ||
+ | |||
+ | session = tf.compat.v1.Session(config=config) | ||
+ | |} | ||
+ | |||
+ | === 자원 문제 === | ||
+ | {| class="wikitable" | ||
+ | !에러 | ||
+ | !원인 | ||
+ | !해결방법 | ||
+ | |- | ||
+ | |Error occurred when finalizing GeneratorDataset iterator: FAILED_PRECONDITION: Python interpreter state is not initialized. | ||
+ | |GPU가 여러개인 경우 메모리를 나누어 할당하는데, 이 탓에 연산에서 메모리가 모자라 에러가 발생하곤 한다. | ||
+ | [해결 안됨....... 정보를 모으는 중...] | ||
+ | |<code>import os</code> | ||
+ | <code>os.environ["CUDA_DEVICE_ORDER"]="PCI_BUS_ID"</code> | ||
+ | |||
+ | <code>os.environ["CUDA_VISIBLE_DEVICES"]="0"</code> | ||
|} | |} | ||
2022년 4월 7일 (목) 14:31 기준 최신판
1 개요[편집 | 원본 편집]
머신러닝과 딥러닝에 많이 사용되어 머신러닝 라이브러리라 생각하는 사람들이 많은데, 실제로는 숫자계산을 위한 범용적인 라이브러리이다.
기본적으로 리눅스 환경에서 사용하기 위해 만들어진 라이브러리.
1.1 설치[편집 | 원본 편집]
설치가 까다로운 편이다. 요구하는 파이썬 버전 조건도 제한적이라 도커 안에서 다루는 편이 편할 것 같다.
1.1.1 의존성 확인[편집 | 원본 편집]
사용하는 버전이 안맞으면 계속 에러만 뜬다.
파이썬, tensorflow, (GPU를 사용하는 경우)CUDA, (GPU를 사용하는 경우)CuDNN이 다 맞아야 하는데, 그 의존성은 다음 링크에서 확인하자.
https://www.tensorflow.org/install/source_windows#tested_build_configurations
1.1.2 OS에 따른 설치[편집 | 원본 편집]
OS | 방법 | ||||||
---|---|---|---|---|---|---|---|
Window |
| ||||||
1.2 설치확인[편집 | 원본 편집]
과정 | 설명 | 방법 | ||||||
---|---|---|---|---|---|---|---|---|
설치확인 | 버전확인import tensorflow as tf
print(tf.__version__)
| |||||||
CUDA 버전확인 | 혹시 잘못설치하진 않았나.. | 터미널에서 nvcc -V
| ||||||
|
2 사용법[편집 | 원본 편집]
신경망 모델을 정의하기 위한 공간을 그래프, 모델을 실행하는 공간을 세션이라 부른다.
유의 : 1.x버전에서 세션을 정의하고 run 하는 과정이 2.x에선 생략되어 연산이 바로 실행된다.
의도 | 설명 | 방법 |
---|---|---|
상수 정의 | 상수를 변수에 대입한다. | 변수 = tf.constant(숫자) |
변수 정의 | 변수 = tf.Variable(초기값) | |
플레이스홀더 정의 | 데이터를 담을 그릇을 만든다.
갯수에 해당하는 원소를 가진 배열이 들어오게 된다. 배열 크기에 제한을 두고 싶지 않다면 None을 넣는다. |
변수 = tf.placeholder(자료형, [갯수]) |
2.1 활용[편집 | 원본 편집]
의도 | 설명 | 방법 |
---|---|---|
데이터 시각화 | TensorBoard. 로그데이터를 저장할 파일을 만들고 명령줄에서 tensorboard --logdir=경로 를 넣어주면 특정 포트에서 실행한다.
2세대 언어는 이것과 다를텐데... |
import tensorflow as tensorflow
tb = tf.summary.FileWriter("log_dir", graph=)
|
데이터 다운 | MNIST에서 제공하는 데이터 따위를 손쉽게 다운받을 수 있다. | from tensorflow.examples.tutorials.mnist import input_data # 손글씨 분류데이터를 받아온다.
DB = input_data.read_data_sets('저장경로/', one_hot=True)
|
3 에러[편집 | 원본 편집]
3.1 패키지 버전관련[편집 | 원본 편집]
에러 | 원인 | 해결방법 |
---|---|---|
Could not load dynamic library 'cudart64_110.dll'; dlerror: cudart64_110.dll not found | 2.1버전 이후부터 패키지에 CPU, GPU버전이 모두 설치된다.
GPU 도구가 설치되지 않았을 때 발생. |
|
위와 같은 에러
W tensorflow/stream_executor/platform/default/dso_loader.cc:60] Could not load dynamic library 'cudart64_110.dll'; dlerror: cudart64_110.dll not found |
의존성 문제. ㅅㅂ.. | CUDA10.1을 사용하고 있다면 pip install tensorflow==2.3.0을 사용하고,
tensorflow가 2.4.0 이라면 CUDA11.0 으로 올려야 한다. |
AttributeError: module 'tensorflow' has no attribute 'Session' | 2.X버전은 session정의가 없어진다. 1.x버전의 문법으로 명령을 실행할 때 나오는 에러. | 위의 설치 참고. |
ModuleNotFoundError: No module named 'tensorflow' | 분명 설치했는데 안된다??
(설치했다 지우긴 했다;;) |
터미널에서 pip install --ignore-installed --upgrade tensorflow 를 시도해보자.
|
에러 | 원인 | 해결방법 |
---|---|---|
뭔진 몰라도... fit에서부터 실행되는 파일이 주르륵 나열된다. 메모리가 모자랄 때 비슷한 에러가 뜨는 듯한데, 이와는 달리 의존성 문제인 듯하다.
--> 203 history = model.fit(train_data, epochs=2, callbacks=[early_stop]) # , validation_data=val_data 204 205 #--------------------모델 테스트에 관하여. c:\venvs\ai\lib\site-packages\keras\engine\training.py in fit(self, x, y, batch_size, epochs, verbose, callbacks, validation_split, validation_data, shuffle, class_weight, sample_weight, initial_epoch, steps_per_epoch, validation_steps, validation_batch_size, validation_freq, max_queue_size, workers, use_multiprocessing) 1182 _r=1): 1183 callbacks.on_train_batch_begin(step) -> 1184 tmp_logs = self.train_function(iterator) 1185 if data_handler.should_sync: 1186 context.async_wait() c:\venvs\ai\lib\site-packages\tensorflow\python\eager\def_function.py in __call__(self, *args, **kwds) 883 884 with OptionalXlaContext(self._jit_compile): --> 885 result = self._call(*args, **kwds) 886 887 new_tracing_count = self.experimental_get_tracing_count() c:\venvs\ai\lib\site-packages\tensorflow\python\eager\def_function.py in _call(self, *args, **kwds) 915 # In this case we have created variables on the first call, so we run the 916 # defunned version which is guaranteed to never create variables. --> 917 return self._stateless_fn(*args, **kwds) # pylint: disable=not-callable 918 elif self._stateful_fn is not None: 919 # Release the lock early so that multiple threads can perform the call c:\venvs\ai\lib\site-packages\tensorflow\python\eager\function.py in __call__(self, *args, **kwargs) 3038 filtered_flat_args) = self._maybe_define_function(args, kwargs) 3039 return graph_function._call_flat( -> 3040 filtered_flat_args, captured_inputs=graph_function.captured_inputs) # pylint: disable=protected-access 3041 3042 @property c:\venvs\ai\lib\site-packages\tensorflow\python\eager\function.py in _call_flat(self, args, captured_inputs, cancellation_manager) 1962 # No tape is watching; skip to running the function. 1963 return self._build_call_outputs(self._inference_function.call( -> 1964 ctx, args, cancellation_manager=cancellation_manager)) 1965 forward_backward = self._select_forward_and_backward_functions( 1966 args, c:\venvs\ai\lib\site-packages\tensorflow\python\eager\function.py in call(self, ctx, args, cancellation_manager) 594 inputs=args, 595 attrs=attrs, --> 596 ctx=ctx) 597 else: 598 outputs = execute.execute_with_cancellation( c:\venvs\ai\lib\site-packages\tensorflow\python\eager\execute.py in quick_execute(op_name, num_outputs, inputs, attrs, ctx, name) 58 ctx.ensure_initialized() 59 tensors = pywrap_tfe.TFE_Py_Execute(ctx._handle, device_name, op_name, ---> 60 inputs, attrs, num_outputs) 61 except core._NotOkStatusException as e: 62 if name is not None: UnknownError: 2 root error(s) found. (0) Unknown: KeyError: 13695 Traceback (most recent call last): File "c:\venvs\ai\lib\site-packages\pandas\core\indexes\base.py", line 2898, in get_loc return self._engine.get_loc(casted_key) File "pandas\_libs\index.pyx", line 70, in pandas._libs.index.IndexEngine.get_loc File "pandas\_libs\index.pyx", line 101, in pandas._libs.index.IndexEngine.get_loc File "pandas\_libs\hashtable_class_helper.pxi", line 1032, in pandas._libs.hashtable.Int64HashTable.get_item File "pandas\_libs\hashtable_class_helper.pxi", line 1039, in pandas._libs.hashtable.Int64HashTable.get_item KeyError: 13695 The above exception was the direct cause of the following exception: Traceback (most recent call last): File "c:\venvs\ai\lib\site-packages\tensorflow\python\ops\script_ops.py", line 249, in __call__ ret = func(*args) File "c:\venvs\ai\lib\site-packages\tensorflow\python\autograph\impl\api.py", line 645, in wrapper return func(*args, **kwargs) File "c:\venvs\ai\lib\site-packages\tensorflow\python\data\ops\dataset_ops.py", line 892, in generator_py_func values = next(generator_state.get_iterator(iterator_id)) File "c:\venvs\ai\lib\site-packages\keras\engine\data_adapter.py", line 822, in wrapped_generator for data in generator_fn(): File "c:\venvs\ai\lib\site-packages\keras\engine\data_adapter.py", line 948, in generator_fn yield x[i] File "<ipython-input-3-c2cb38462dc6>", line 181, in __getitem__ train_x, train_y = next(self.generator) File "<ipython-input-3-c2cb38462dc6>", line 158, in __datagenerator__ target_df = target_df_batch.loc[j:j + 1500 + predict_num] File "c:\venvs\ai\lib\site-packages\pandas\core\indexing.py", line 879, in __getitem__ return self._getitem_axis(maybe_callable, axis=axis) File "c:\venvs\ai\lib\site-packages\pandas\core\indexing.py", line 1088, in _getitem_axis return self._get_slice_axis(key, axis=axis) File "c:\venvs\ai\lib\site-packages\pandas\core\indexing.py", line 1123, in _get_slice_axis slice_obj.start, slice_obj.stop, slice_obj.step, kind="loc" File "c:\venvs\ai\lib\site-packages\pandas\core\indexes\base.py", line 4969, in slice_indexer start_slice, end_slice = self.slice_locs(start, end, step=step, kind=kind) File "c:\venvs\ai\lib\site-packages\pandas\core\indexes\base.py", line 5178, in slice_locs end_slice = self.get_slice_bound(end, "right", kind) File "c:\venvs\ai\lib\site-packages\pandas\core\indexes\base.py", line 5092, in get_slice_bound raise err File "c:\venvs\ai\lib\site-packages\pandas\core\indexes\base.py", line 5086, in get_slice_bound slc = self.get_loc(label) File "c:\venvs\ai\lib\site-packages\pandas\core\indexes\base.py", line 2900, in get_loc raise KeyError(key) from err KeyError: 13695 [[틀:Node PyFunc]] IteratorGetNext (1) Unknown: KeyError: 13695 Traceback (most recent call last): File "c:\venvs\ai\lib\site-packages\pandas\core\indexes\base.py", line 2898, in get_loc return self._engine.get_loc(casted_key) File "pandas\_libs\index.pyx", line 70, in pandas._libs.index.IndexEngine.get_loc File "pandas\_libs\index.pyx", line 101, in pandas._libs.index.IndexEngine.get_loc File "pandas\_libs\hashtable_class_helper.pxi", line 1032, in pandas._libs.hashtable.Int64HashTable.get_item File "pandas\_libs\hashtable_class_helper.pxi", line 1039, in pandas._libs.hashtable.Int64HashTable.get_item KeyError: 13695 The above exception was the direct cause of the following exception: Traceback (most recent call last): File "c:\venvs\ai\lib\site-packages\tensorflow\python\ops\script_ops.py", line 249, in __call__ ret = func(*args) File "c:\venvs\ai\lib\site-packages\tensorflow\python\autograph\impl\api.py", line 645, in wrapper return func(*args, **kwargs) File "c:\venvs\ai\lib\site-packages\tensorflow\python\data\ops\dataset_ops.py", line 892, in generator_py_func values = next(generator_state.get_iterator(iterator_id)) File "c:\venvs\ai\lib\site-packages\keras\engine\data_adapter.py", line 822, in wrapped_generator for data in generator_fn(): File "c:\venvs\ai\lib\site-packages\keras\engine\data_adapter.py", line 948, in generator_fn yield x[i] File "<ipython-input-3-c2cb38462dc6>", line 181, in __getitem__ train_x, train_y = next(self.generator) File "<ipython-input-3-c2cb38462dc6>", line 158, in __datagenerator__ target_df = target_df_batch.loc[j:j + 1500 + predict_num] File "c:\venvs\ai\lib\site-packages\pandas\core\indexing.py", line 879, in __getitem__ return self._getitem_axis(maybe_callable, axis=axis) File "c:\venvs\ai\lib\site-packages\pandas\core\indexing.py", line 1088, in _getitem_axis return self._get_slice_axis(key, axis=axis) File "c:\venvs\ai\lib\site-packages\pandas\core\indexing.py", line 1123, in _get_slice_axis slice_obj.start, slice_obj.stop, slice_obj.step, kind="loc" File "c:\venvs\ai\lib\site-packages\pandas\core\indexes\base.py", line 4969, in slice_indexer start_slice, end_slice = self.slice_locs(start, end, step=step, kind=kind) File "c:\venvs\ai\lib\site-packages\pandas\core\indexes\base.py", line 5178, in slice_locs end_slice = self.get_slice_bound(end, "right", kind) File "c:\venvs\ai\lib\site-packages\pandas\core\indexes\base.py", line 5092, in get_slice_bound raise err File "c:\venvs\ai\lib\site-packages\pandas\core\indexes\base.py", line 5086, in get_slice_bound slc = self.get_loc(label) File "c:\venvs\ai\lib\site-packages\pandas\core\indexes\base.py", line 2900, in get_loc raise KeyError(key) from err KeyError: 13695 [[틀:Node PyFunc]] IteratorGetNext Shape/_8 0 successful operations. 0 derived errors ignored. [Op:__inference_train_function_29572] Function call stack: train_function -> train_function |
텐서플로우, CUDA, CuDNN 등에서 뭔가 안맞았을 때...? 모르겠다 젠장;
|
GPU자원의 문제라면 탄력적으로 GPU를 사용하게 하는 방식으로 해결이 가능하리라...?
import tensorflow as tf config = tf.compat.v1.ConfigProto() config.gpu_options.allow_growth = True session = tf.compat.v1.Session(config=config) |
3.1.1 자원 문제[편집 | 원본 편집]
에러 | 원인 | 해결방법 |
---|---|---|
Error occurred when finalizing GeneratorDataset iterator: FAILED_PRECONDITION: Python interpreter state is not initialized. | GPU가 여러개인 경우 메모리를 나누어 할당하는데, 이 탓에 연산에서 메모리가 모자라 에러가 발생하곤 한다.
[해결 안됨....... 정보를 모으는 중...] |
import os
|
3.2 설치 전 인프라 관련[편집 | 원본 편집]
에러 | 원인 | 해결방법 |
---|---|---|
importerror: could not find the dll(s) 'msvcp140_1.dll'. tensorflow requires that these dlls be installed in a directory that is named in your %path% environment variable. you may install these dlls by downloading "microsoft c++ redistributable for visual studio 2015, 2017 and 2019" for your platform from this url: https://support.microsoft.com/help/2977003/the-latest-supported-visual-c-downloads | 마으크로소프트의 c++ redistributable for visual studio가 설치되 않았기 때문에 뜨는 에러.
위 설치 방법을 잘 따라왔다면 발생하지 않을 에러이다. |
microsoft c++ redistributable for visual studio 2015, 2017 and 2019를 설치해주면 되는데... 어째서인지 설치페이지가 안열려 곤란하다. 아무리 검색해도 이에 관한 내용은 없고...
이런 경우 학교망, 회사망을 사용하고 있지 않은지 점검해보자. 학교망, 회사망에선 이의 설치를 막는 경우도 있다. => 집에서 설치하고 복귀 |
3.3 사용 관련[편집 | 원본 편집]
에러 | 원인 | 해결방법 |
---|---|---|
I tensorflow/compiler/mlir/mlir_graph_optimization_pass.cc:185] None of the MLIR Optimization Passes are enabled (registered 2) | 메모리 사용량이 너무 큰 게 원인인듯. | |
tensorflow.python.framework.errors_impl.ResourceExhaustedError: failed to allocate memory | 메모리 사용량이 너무 크다. | |
WARNING:tensorflow:Your input ran out of data; interrupting training. Make sure that your dataset or generator can generate at least `steps_per_epoch * epochs` batches (in this case, 30000 batches). You may need to use the repeat() function when building your dataset. | 케라스에서 제너레이터로 학습을 진행할 때 발생했다.
steps_per_epoch 값이 너무 크기 때문으로 생각된다. |
링크 |