===== Ipotesi Configurazione SLURM ===== 21/02/2018 - Ambiente di test * ui01.hpc.unipr.it (macchina di login di produzione, aperta all'esterno) * ui02.hpc.unipr.it (macchina di login con client slurm) * ce02.hpc.unipr.it (slurm server di test ) * db02.hpc.unipr.it (storageDB di slurm) * wn73 e wn74 (nodi di calcolo virtuali) * wn41 e wn42 ( nodi con 2 P100 ciascuno, device 5 e 6) ==== Partizioni ==== | NOME | Stato | TIME LIMIT | Risorse disponibili | Policy | | gpu_debug | wn41-wn42 | 00:30:00 | No limiti, | | gpu_short | ipotesi | 06:00:00 | MAX N/2 GPU , max N/2 job per utente | | gpu_prod | ipotesi | 24:00:00 | MAX N-4 GPU (o Job), max 4 job running per utente, | | bdw_debug | wn73-wn74 | 00:30:00 | MIN 1 core, MAX ..; wn01-08 high prio, wn33 low prio | | bdw_prod | ipotesi | 24:00:00 | MIN 2 core, MAX .. , | | bdw_bigprod | ipotesi | 240:00:00 | MIN 2 core, MAX 2 nodi? | | bdw_serial | ipotesi | 240:00:00 | MAX 1 core, Nodi virtuali ... | | bdw_fat | ipotesi | | wn33 | ==== Requisiti ==== * Accounting con DB ; limiti ? * Priorita' maggiore a chi ha usato meno risorse (Fair share) * Riservare tutte o alcune risorse per alcune ore (Advance reservation) * Numero massimo di job running contemporanei per utente *