반응형
Notice
Link
목록구성 (1)
스택큐힙리스트
텐서플로우가 GPU 메모리 전체를 할당하는 것을 방지하는 방법은 무엇인가요?
저는 컴퓨터 자원이 공유되는 환경에서 일합니다. 즉, 몇 대의 서버 머신마다 Nvidia Titan X GPU 몇 개가 장착되어 있습니다.소형〜중형 모델의 경우 Titan X의 12GB는 일반적으로 동시에 같은 GPU에서 훈련을 실행하는 2-3명에게 충분합니다. 하나의 모델이 GPU의 모든 계산 단위를 최대한 활용하지 않는 경우, 여러 훈련 프로세스를 연속으로 실행하는 것보다 이것이 실제로 속도 향상을 가져올 수 있습니다. GPU에 동시 액세스하는 경우 개별 훈련 시간이 느려지더라도 여전히 여러 사용자가 동시에 GPU에서 훈련을 할 수 있는 유연성이 있는 것이 좋습니다.TensorFlow의 문제는 기본 설정으로 실행될 때 사용 가능한 전체 GPU 메모리를 할당한다는 것입니다. 작은 두 개의 레이어 신경망..
카테고리 없음
2023. 4. 20. 10:04