반응형
CUDA 버전에 따른 PyTorch 버전 확인: https://pytorch.org/get-started/previous-versions/
GPU Driver 버전에 따른 CUDA 버전 확인: https://docs.nvidia.com/cuda/cuda-toolkit-release-notes/index.html#cuda-major-component-versions
위 사이트에서 호환가능한 버전을 확인 후 설치를 통해 Python, Pytorch, CUDA, Driver의 버전이 모두 맞아떨어져야 정상적으로 GPU를 활용할 수 있다.
CUDA를 통해 GPU가 정상적으로 사용되는지 알아보기 위해서는 아래 코드를 통해 확인 가능하다.
print(torch.cuda.is_available())
현재 GPU의 상태를 상세히 알고싶다면 터미널에서 아래 명령어를 통해 확인 가능하다.
nvidia-smi
모니터링 용도로 사용하고 싶다면 아래와 같이 1초마다 자동으로 정보가 업데이트 되도록 할 수 있다.
watch -d -n 1 nvidia-smi
여기서 -d 옵션은 변경되는 부분을 하이라이트 해주고,
-n 과 뒤에 숫자를 입력하면 해당 시간마다 정보를 업데이트 한다.
반응형
'공부 | Study > AI' 카테고리의 다른 글
nn.dataparallel 사용 시 유의할 점 (0) | 2024.08.20 |
---|---|
PyTorch에서 GPU setting (0) | 2024.07.09 |
[인공지능과 딥러닝] #1 Perceptron 퍼셉트론 (0) | 2024.05.28 |
numpy Runtime Error (0) | 2021.01.04 |
anaconda 가상환경 생성하기 (0) | 2021.01.03 |