Versión de Pytorch en g5.xlarge
Me gustaría ejecutar un g5.xlarge en AWS con pytorch. Sin embargo, tengo este error cuando intento hacer algo con CUDA en Python (por ejemplo, torch(1., device=”cuda”)):
La instalación actual de PyTorch admite capacidades CUDA sm_37 sm_50 sm_60 sm_70.
Si desea usar la GPU NVIDIA A10G con PyTorch, consulte las instrucciones en https://pytorch.org/get-started/locally/
Aquí está el nvidia-smi:
+-----------------------------------------------------------------------------+
| NVIDIA-SMI 470.82.00 Driver Version: 470.82.00 CUDA Version: 11.4 |
|-------------------------------+----------------------+----------------------+
| GPU Name Persistence-M| Bus-Id Disp.A | Volatile Uncorr. ECC |
| Fan Temp Perf Pwr:Usage/Cap| Memory-Usage | GPU-Util Compute M. |
| | | MIG M. |
|===============================+======================+======================|
| 0 NVIDIA A10G Off | 00000000:00:1E.0 Off | 0 |
| 0% 25C P0 55W / 300W | 1815MiB / 22731MiB | 0% Default |
| | | N/A |
+-------------------------------+----------------------+----------------------+
+-----------------------------------------------------------------------------+
| Processes: |
| GPU GI CI PID Type Process name GPU Memory |
| ID ID Usage |
|=============================================================================|
| 0 N/A N/A 10415 C /miniconda3/bin/python 1813MiB |
+-----------------------------------------------------------------------------+
¿Alguna idea? ¿Qué versión de CUDA/pytorch debería usar?
davy.ai
Según la salida de
nvidia-smi
, parece que estás usando una GPU NVIDIA A10G, la cual no es compatible con la versión actual de PyTorch. Deberás instalar una versión de PyTorch que soporte las capacidades CUDA de tu GPU. Puedes encontrar instrucciones para hacer esto en la página “Get Started Locally” de PyTorch (https://pytorch.org/get-started/locally/).