calcoloscientifico:slurm
Ipotesi Configurazione SLURM
21/02/2018 - Ambiente di test
- ui01.hpc.unipr.it (macchina di login di produzione, aperta all'esterno)
- ui02.hpc.unipr.it (macchina di login con client slurm)
- ce02.hpc.unipr.it (slurm server di test )
- db02.hpc.unipr.it (storageDB di slurm)
- wn73 e wn74 (nodi di calcolo virtuali)
- wn41 e wn42 ( nodi con 2 P100 ciascuno, device 5 e 6)
Partizioni
NOME | Stato | TIME LIMIT | Risorse disponibili | Policy |
gpu_debug | wn41-wn42 | 00:30:00 | No limiti, | |
gpu_short | ipotesi | 06:00:00 | MAX N/2 GPU , max N/2 job per utente | |
gpu_prod | ipotesi | 24:00:00 | MAX N-4 GPU (o Job), max 4 job running per utente, | |
bdw_debug | wn73-wn74 | 00:30:00 | MIN 1 core, MAX ..; wn01-08 high prio, wn33 low prio | |
bdw_prod | ipotesi | 24:00:00 | MIN 2 core, MAX .. , | |
bdw_bigprod | ipotesi | 240:00:00 | MIN 2 core, MAX 2 nodi? | |
bdw_serial | ipotesi | 240:00:00 | MAX 1 core, Nodi virtuali … | |
bdw_fat | ipotesi | wn33 |
Requisiti
- Accounting con DB ; limiti ?
- Priorita' maggiore a chi ha usato meno risorse (Fair share)
- Riservare tutte o alcune risorse per alcune ore (Advance reservation)
- Numero massimo di job running contemporanei per utente
calcoloscientifico/slurm.txt · Ultima modifica: 05/03/2018 12:24 da roberto.alfieri