calcoloscientifico:slurm
Questa è una vecchia versione del documento!
Ipotesi Configurazione SLURM
21/02/2018 - Ambiente di test
- ui01.hpc.unipr.it (macchina di login di produzione, aperta all'esterno)
- ui02.hpc.unipr.it (macchina di login con client slurm)
- ce02.hpc.unipr.it (slurm server di test )
- db02.hpc.unipr.it (storageDB di slurm)
- wn73 e wn74 (nodi di calcolo virtuali)
- wn41 e wn42 ( nodi con 2 P100 ciascuno, device 5 e 6)
Partizioni
NOME | TIME LIMIT | Risorse disponibili | Policy |
gpu_dbg | 00:30:00 | No limiti, | |
gpu_short | 06:00:00 | MAX N/2 GPU , max N/2 job per utente | |
gpu_prod | 24:00:00 | MAX N-4 GPU (o Job), max 4 job running per utente, | |
bdw_dbg | 00:30:00 | MIN 1 core, MAX ..; wn01-08 high prio, wn33 low prio | |
bdw_prod | 24:00:00 | MIN 2 core, MAX .. , | |
bdw_bigprod | 240:00:00 | MIN 2 core, MAX 2 nodi? | |
bdw_serial | 240:00:00 | MAX 1 core, Nodi virtuali … | |
bdw_fat | wn33 |
Requisiti
- Fair share (priorita' maggiore a chi ha usato meno risuorse)
- Advance reservation
- Numero massimo di job running contemporanei per utente
calcoloscientifico/slurm.1520248436.txt.gz · Ultima modifica: 05/03/2018 12:13 da roberto.alfieri