calcoloscientifico:userguide:crystal
Differenze
Queste sono le differenze tra la revisione selezionata e la versione attuale della pagina.
Entrambe le parti precedenti la revisioneRevisione precedenteProssima revisione | Revisione precedente | ||
calcoloscientifico:userguide:crystal [08/04/2024 17:54] – fabio.spataro | calcoloscientifico:userguide:crystal [08/04/2024 18:11] (versione attuale) – fabio.spataro | ||
---|---|---|---|
Linea 1: | Linea 1: | ||
===== Crystal ===== | ===== Crystal ===== | ||
- | ==== Crystal14 | + | ==== Crystal14 ==== |
- | Script '' | + | [[calcoloscientifico:userguide: |
- | <code bash slurm-runcry14.sh> | + | ==== Crystal23 ==== |
- | # | + | |
- | #SBATCH --job-name=runcry14 | + | |
- | #SBATCH --output=%x.o%j | + | |
- | #SBATCH --error=%x.e%j | + | |
- | #SBATCH --nodes=1 | + | |
- | #SBATCH --ntasks-per-node=1 | + | |
- | #SBATCH --partition=vrt | + | |
- | #SBATCH --qos=vrt | + | |
- | #SBATCH --mem=8G | + | |
- | #SBATCH --time=0-00: | + | |
- | ##SBATCH --account=< | + | |
- | + | ||
- | module load crystal/ | + | |
- | + | ||
- | runcry14 test00 test00 | + | |
- | </ | + | |
- | + | ||
- | ==== Crystal14 MPI job ==== | + | |
- | + | ||
- | Script '' | + | |
- | + | ||
- | <code bash slurm-runmpi14.sh> | + | |
- | # | + | |
- | #SBATCH --job-name=runmpi14 | + | |
- | #SBATCH --output=%x.o%j | + | |
- | #SBATCH --error=%x.e%j | + | |
- | #SBATCH --nodes=2 | + | |
- | #SBATCH --ntasks-per-node=4 | + | |
- | #SBATCH --partition=cpu | + | |
- | #SBATCH --qos=cpu | + | |
- | #SBATCH --mem=8G | + | |
- | #SBATCH --time=0-00: | + | |
- | ##SBATCH --account=< | + | |
- | + | ||
- | module load crystal/ | + | |
- | + | ||
- | srun -n$SLURM_NTASKS hostname -s | sort > machines.LINUX | + | |
- | uniq machines.LINUX > nodes.par | + | |
- | + | ||
- | runmpi14 $SLURM_NTASKS test00 test00 | + | |
- | + | ||
- | rm -f machines.LINUX | + | |
- | rm -f nodes.par | + | |
- | </ | + | |
- | + | ||
- | ==== Crystal23 serial job ==== | + | |
- | + | ||
- | Script '' | + | |
- | + | ||
- | <code bash slurm-runcry23.sh> | + | |
- | # | + | |
- | #SBATCH --job-name=runcry23 | + | |
- | #SBATCH --output=%x.o%j | + | |
- | #SBATCH --error=%x.e%j | + | |
- | #SBATCH --nodes=1 | + | |
- | #SBATCH --tasks-per-node=1 | + | |
- | #SBATCH --partition=vrt | + | |
- | #SBATCH --qos=vrt | + | |
- | #SBATCH --mem=8G | + | |
- | #SBATCH --time=0-00: | + | |
- | ##SBATCH --account=< | + | |
- | + | ||
- | module load gnu8 openmpi4 | + | |
- | module load crystal/ | + | |
- | + | ||
- | runcry23 test00 test00 | + | |
- | </ | + | |
- | + | ||
- | ==== Crystal23 MPI job ==== | + | |
- | + | ||
- | Script '' | + | |
- | + | ||
- | <code bash slurm-runPcry23.sh> | + | |
- | #!/bin/bash --login | + | |
- | #SBATCH --job-name=runPcry23 | + | |
- | #SBATCH --output=%x.o%j | + | |
- | #SBATCH --error=%x.e%j | + | |
- | #SBATCH --nodes=2 | + | |
- | #SBATCH --tasks-per-node=8 | + | |
- | #SBATCH --partition=cpu | + | |
- | #SBATCH --qos=cpu | + | |
- | #SBATCH --mem=8G | + | |
- | #SBATCH --time=0-00: | + | |
- | ##SBATCH --account=< | + | |
- | + | ||
- | module load gnu8 openmpi4 | + | |
- | module load crystal/ | + | |
- | + | ||
- | srun -n$SLURM_NTASKS hostname -s | sort > machines.LINUX | + | |
- | uniq machines.LINUX > nodes.par | + | |
- | + | ||
- | runPcry23 $SLURM_NTASKS test00 test00 | + | |
- | + | ||
- | rm -f machines.LINUX | + | |
- | rm -f nodes.par | + | |
- | </ | + | |
- | + | ||
- | ==== Crystal23 | + | |
+ | [[calcoloscientifico: | ||
calcoloscientifico/userguide/crystal.1712591667.txt.gz · Ultima modifica: 08/04/2024 17:54 da fabio.spataro