Strumenti Utente

Strumenti Sito


calcoloscientifico:slurm

Ipotesi Configurazione SLURM

21/02/2018 - Ambiente di test

  • ui01.hpc.unipr.it (macchina di login di produzione, aperta all'esterno)
  • ui02.hpc.unipr.it (macchina di login con client slurm)
  • ce02.hpc.unipr.it (slurm server di test )
  • db02.hpc.unipr.it (storageDB di slurm)
  • wn73 e wn74 (nodi di calcolo virtuali)
  • wn41 e wn42 ( nodi con 2 P100 ciascuno, device 5 e 6)

Partizioni

NOME Stato TIME LIMIT Risorse disponibili Policy
gpu_debug wn41-wn42 00:30:00 No limiti,
gpu_short ipotesi 06:00:00 MAX N/2 GPU , max N/2 job per utente
gpu_prod ipotesi 24:00:00 MAX N-4 GPU (o Job), max 4 job running per utente,
bdw_debug wn73-wn74 00:30:00 MIN 1 core, MAX ..; wn01-08 high prio, wn33 low prio
bdw_prod ipotesi 24:00:00 MIN 2 core, MAX .. ,
bdw_bigprod ipotesi 240:00:00 MIN 2 core, MAX 2 nodi?
bdw_serial ipotesi 240:00:00 MAX 1 core, Nodi virtuali …
bdw_fat ipotesi wn33

Requisiti

  • Accounting con DB ; limiti ?
  • Priorita' maggiore a chi ha usato meno risorse (Fair share)
  • Riservare tutte o alcune risorse per alcune ore (Advance reservation)
  • Numero massimo di job running contemporanei per utente
calcoloscientifico/slurm.txt · Ultima modifica: 05/03/2018 12:24 da roberto.alfieri