Strumenti Utente

Strumenti Sito


calcoloscientifico:userguide:gromacs

Differenze

Queste sono le differenze tra la revisione selezionata e la versione attuale della pagina.

Link a questa pagina di confronto

Entrambe le parti precedenti la revisioneRevisione precedente
Prossima revisione
Revisione precedente
calcoloscientifico:userguide:gromacs [24/09/2023 00:17] fabio.spatarocalcoloscientifico:userguide:gromacs [25/09/2023 13:12] (versione attuale) fabio.spataro
Linea 22: Linea 22:
 ^ Gromacs  ^ Plumed  ^ Compiler   ^ MPI             ^ CUDA SDK  ^ CUDA RTL  ^ CUDA Architectures  ^ ^ Gromacs  ^ Plumed  ^ Compiler   ^ MPI             ^ CUDA SDK  ^ CUDA RTL  ^ CUDA Architectures  ^
 | 4.5.7    |         | GNU 5.4.0  | OpenMPI 1.10.7  |                                         | | 4.5.7    |         | GNU 5.4.0  | OpenMPI 1.10.7  |                                         |
-| 5.1.4    | 2.4.8   | GNU 5.4.0  | OpenMPI 1.10.7  |                                         | +| 5.1.4    | 2.3.8   | GNU 5.4.0  | OpenMPI 1.10.7  |                                         | 
-| 5.1.5    | 2.4.8   | GNU 5.4.0  | OpenMPI 1.10.7  |                                         | +| 5.1.5    | 2.3.8   | GNU 5.4.0  | OpenMPI 1.10.7  |                                         | 
-| 2016.4   | 2.4.8   | GNU 5.4.0  | OpenMPI 1.10.7 8.0.61.2  8.0.61.2  | 6.0                 +| 2016.4   | 2.3.8   | GNU 5.4.0  | OpenMPI 1.10.7 10.0.130  10.0.130  | 6.0, 7.0            
-| 2016.6   | 2.4.8   | GNU 5.4.0  | OpenMPI 1.10.7 8.0.61,2  8.0.61.2  | 6.0                 |+| 2016.6   | 2.3.8   | GNU 5.4.0  | OpenMPI 1.10.7 10.0.130  10.0.130  | 6.0, 7.0            |
 | 2018.6   | 2.4.8   | GNU 5.4.0  | OpenMPI 1.10.7  | 10.0.130  | 10.0.130  | 6.0, 7.0            | | 2018.6   | 2.4.8   | GNU 5.4.0  | OpenMPI 1.10.7  | 10.0.130  | 10.0.130  | 6.0, 7.0            |
 | 2018.6   | 2.4.8   | GNU 7.3.0  | OpenMPI 3.1.4   | 10.0.130  | 10.0.130  | 6.0, 7.0            | | 2018.6   | 2.4.8   | GNU 7.3.0  | OpenMPI 3.1.4   | 10.0.130  | 10.0.130  | 6.0, 7.0            |
Linea 34: Linea 34:
 | 2019.6   | 2.8.3   | GNU 5.4.0  | OpenMPI 1.10.7  | 10.0.130  | 10.0.130  | 6.0, 7.0            | | 2019.6   | 2.8.3   | GNU 5.4.0  | OpenMPI 1.10.7  | 10.0.130  | 10.0.130  | 6.0, 7.0            |
 | 2019.6   | 2.8.3   | GNU 7.3.0  | OpenMPI 3.1.4   | 10.0.130  | 10.0.130  | 6.0, 7.0            | | 2019.6   | 2.8.3   | GNU 7.3.0  | OpenMPI 3.1.4   | 10.0.130  | 10.0.130  | 6.0, 7.0            |
-| 2020.7   | 2.8.3   | GNU 8.3.0  | OpenMPI 3.1.6   11.6.0    | 11.6.0    | 6.0, 7.0, 8.0       | +| 2020.7   | 2.8.3   | GNU 8.3.0  | OpenMPI 3.1.6   12.0.0    | 12.0.0    | 6.0, 7.0, 8.0       | 
-| 2021.4   | 2.8.3   | GNU 8.3.0  | OpenMPI 3.1.6   11.6.0    | 11.6.0    | 6.0, 7.0, 8.0       | +| 2021.4   | 2.8.3   | GNU 8.3.0  | OpenMPI 3.1.6   12.0.0    | 12.0.0    | 6.0, 7.0, 8.0       | 
-| 2021.7   | 2.8.3   | GNU 8.3.0  | OpenMPI 3.1.6   11.6.0    | 11.6.0    | 6.0, 7.0, 8.0       |+| 2021.7   | 2.8.3   | GNU 8.3.0  | OpenMPI 3.1.6   12.0.0    | 12.0.0    | 6.0, 7.0, 8.0       |
 | 2022.6   | 2.8.3   | GNU 8.3.0  | OpenMPI 3.1.6   | 12.0.0    | 12.0.0    | 6.0, 7.0, 8.0       | | 2022.6   | 2.8.3   | GNU 8.3.0  | OpenMPI 3.1.6   | 12.0.0    | 12.0.0    | 6.0, 7.0, 8.0       |
  
Linea 61: Linea 61:
 | 2016.4   | gnu/5.4.0 openmpi/1.10.7   | gpu     | 2016.4-gpu  | | 2016.4   | gnu/5.4.0 openmpi/1.10.7   | gpu     | 2016.4-gpu  |
 | 2016.4   | gnu/5.4.0 openmpi/1.10.7   | knl     | 2016.4-knl  | | 2016.4   | gnu/5.4.0 openmpi/1.10.7   | knl     | 2016.4-knl  |
 +| 2016.4   | gnu/5.4.0 openmpi/1.10.7   | skl     | 2016.4-skl  |
 | 2016.6   | gnu/5.4.0 openmpi/1.10.7   | bdw     | 2016.6-bdw  | | 2016.6   | gnu/5.4.0 openmpi/1.10.7   | bdw     | 2016.6-bdw  |
 | 2016.6   | gnu/5.4.0 openmpi/1.10.7   | bdw     | 2016.6-cpu  | | 2016.6   | gnu/5.4.0 openmpi/1.10.7   | bdw     | 2016.6-cpu  |
 | 2016.6   | gnu/5.4.0 openmpi/1.10.7   | gpu     | 2016.6-gpu  | | 2016.6   | gnu/5.4.0 openmpi/1.10.7   | gpu     | 2016.6-gpu  |
 | 2016.6   | gnu/5.4.0 openmpi/1.10.7   | knl     | 2016.6-knl  | | 2016.6   | gnu/5.4.0 openmpi/1.10.7   | knl     | 2016.6-knl  |
 +| 2016.6   | gnu/5.4.0 openmpi/1.10.7   | skl     | 2016.6-skl  |
 | 2018.6   | gnu/5.4.0 openmpi/1.10.7   | bdw     | 2018.6-bdw  | | 2018.6   | gnu/5.4.0 openmpi/1.10.7   | bdw     | 2018.6-bdw  |
 | 2018.6   | gnu/5.4.0 openmpi/1.10.7   | bdw     | 2018.6-cpu  | | 2018.6   | gnu/5.4.0 openmpi/1.10.7   | bdw     | 2018.6-cpu  |
Linea 127: Linea 129:
  
 <note> <note>
-Plumed ed CUDA modules are automatically loaded.+If required, the Plumed ed CUDA modules are automatically loaded.
 </note> </note>
  
Linea 236: Linea 238:
 gmx mdrun -deffnm topology -pin on -plumed plumed.dat gmx mdrun -deffnm topology -pin on -plumed plumed.dat
 </code> </code>
- 
-<note> 
-Plumed module is automatically loaded. 
-</note> 
  
 ==== Job Gromacs MPI OpenMP ====  ==== Job Gromacs MPI OpenMP ==== 
Linea 247: Linea 245:
 </note> </note>
  
-=== Gromacs 5.1.===+=== Gromacs 5.1.===
  
 Script ''mdrun-mpi-omp.sh'' to exclusively request one or more nodes (tested with --nodes=1 and --nodes=2) and start multiple MPI processes (tested with --ntasks-per-node=6 and --ntasks-per-node=8; the number of OpenMP threads will be calculated automatically if --cpus-per-task is not explicitly set): Script ''mdrun-mpi-omp.sh'' to exclusively request one or more nodes (tested with --nodes=1 and --nodes=2) and start multiple MPI processes (tested with --ntasks-per-node=6 and --ntasks-per-node=8; the number of OpenMP threads will be calculated automatically if --cpus-per-task is not explicitly set):
Linea 270: Linea 268:
 module load gnu module load gnu
 module load openmpi module load openmpi
-module load gromacs/5.1.4-cpu+module load gromacs/5.1.5-cpu
  
 # Set OMP_NUM_THREADS to the same value as --cpus-per-task with a fallback in # Set OMP_NUM_THREADS to the same value as --cpus-per-task with a fallback in
Linea 414: Linea 412:
 mpirun -np 9 gmx mdrun -deffnm meta -pin on -plumed plumed.dat mpirun -np 9 gmx mdrun -deffnm meta -pin on -plumed plumed.dat
 </code> </code>
- 
-<note> 
-Plumed module is automatically loaded. 
-</note> 
- 
-<note> 
-Partition may be indifferently cpu or knl. 
-</note> 
  
 ====  Job Gromacs OpenMP GPU ====  ====  Job Gromacs OpenMP GPU ==== 
Linea 457: Linea 447:
 gmx mdrun -deffnm topology -pin on -dlb auto -plumed plumed.dat gmx mdrun -deffnm topology -pin on -dlb auto -plumed plumed.dat
 </code> </code>
- 
-<note> 
-Plumed ed CUDA modules are automatically loaded. 
-</note> 
  
 ====  Job Gromacs MPI GPU ====  ====  Job Gromacs MPI GPU ==== 
Linea 495: Linea 481:
 mpirun -np 4 gmx mdrun -deffnm meta -dlb auto -plumed plumed.dat mpirun -np 4 gmx mdrun -deffnm meta -dlb auto -plumed plumed.dat
 </code> </code>
- 
-<note> 
-Plumed ed CUDA modules are automatically loaded. 
-</note> 
  
 === Gromacs 2021.7 === === Gromacs 2021.7 ===
calcoloscientifico/userguide/gromacs.1695507428.txt.gz · Ultima modifica: 24/09/2023 00:17 da fabio.spataro

Donate Powered by PHP Valid HTML5 Valid CSS Driven by DokuWiki