반응형
GPU 4개가 장착되어 있는 환경에서 train #1은 GPU #0, #1에, train #2는 GPU #2, #3에 올려서 사용하고 싶었다.
model = nn.DataParallel(model, device_ids = [2,3], output_device=2).to(device)
이와 같이 코드 작성시 device 0에 값들이 있다면서 에러가 발생하였다.
device = "cuda" if torch.cuda.is_available() else "cpu"
이 경우 위와 같이 설정되있었던 device 역시 아래와 같이 특정 GPU로 지정을 해주어야 해당 GPU를 기본으로 사용하게된다.
device = "cuda:2" if torch.cuda.is_available() else "cpu"
반응형
'공부 | Study > AI' 카테고리의 다른 글
ValueError: only one element tensors can be converted to Python scalars (0) | 2024.08.28 |
---|---|
PyTorch에서 GPU setting (0) | 2024.07.09 |
알맞은 버전의 CUDA, Pytorch 설치하기 (0) | 2024.07.09 |
[인공지능과 딥러닝] #1 Perceptron 퍼셉트론 (0) | 2024.05.28 |
numpy Runtime Error (0) | 2021.01.04 |