Monolith

Responsabile dell'Attrezzatura
Contatti
cognomenomee-mail
Valorani
Mauro
Struttura
DIPARTIMENTO DI INGEGNERIA MECCANICA E AEROSPAZIALE
Descrizione

Monolith è il cluster di supercalcolo del Dipartimento di Ingegneria Meccanica e Aerospaziale per applicazioni di calcolo parallelo (HPC).

Monolith è un sistema per calcolo ad alte prestazioni basato su CPU di ultima generazione, ottimizzato per lo sviluppo di applicazioni di calcolo parallelo (HPC) con l’opzione di adesso a GPU di alte prestazioni. Il sistema è costituito da 10 nodi CPU quadsocket equipaggiati con 4 processori Xeon 6230 e di un nodo GPU equipaggiato con 2 Nvidia V100 come dettagliato qui di seguito:

  • 1 nodo di login
  • 10 nodi CPU
  • 1 nodo GPU
  • 1 server per archiviazione dati
  • Switch ethernet da 10Gb/s
  • Switch Infiniband 100Gb/s con 24 porte
  • UPS da 10kW

Il sistema è ospitato presso il centro elaborazioni dati di InfoSapienza.

Il sistema è a disposizione degli utenti Sapienza per finalità  di ricerca, formazione e studio.

Anche se i gruppi Sapienza hanno la priorità il sistema è disponibile per calcolo di soggetti terzi (sia pubblici che privati). L'allocazione delle risorse avviene sulla base della presentazione di una proposta di utilizzo del sistema (specificando le tematiche del progetti, e le risorse (numero di GPU, memoria, spazio disco, etc.) e il tempo di utilizzo necessari per il progetto.

L'accesso/gestione delle risorse è gestito al momento via  slurm.

Di seguito si riportano le specifiche dei nodi di login, CPU, e GPU, rispettivamente.

Nodo di login completo di:

  • 2 processori Intel Xeon 8-core 4208 e relativa scheda madre compatibile 
  • 96GB di RAM DDR4-2933 ECC
  • Controller RAID, 12Gb/s SAS/SATA con modalità RAID 0, 1, 5, 10, 50 e JBOD 
  • 3 dischi SSD da 960GB SATA III o NVM
  • 2 Interfacce Ethernet da 10Gb/s
  • Interfaccia Infiniband 100Gb/s

10 Nodi CPU ciascuno completo di:

  • 1 scheda madre quadsocket con 4 processori Intel Xeon Gold 6230 
  • 192GB di RAM DDR4-2933 ECC
  • 1 disco SSD da 960GB SATA III 
  • Interfaccia Ethernet da almeno 10Gb/s
  • Interfaccia Infiniband 100Gb/s

1 Nodo GPU completo di:

  • 1 scheda madre dualsocket con 2 processori Intel Xeon Gold 6230 
  • 2 GPU Tesla V100 con 32GB di RAM
  • 192GB di RAM DDR4-2933 ECC
  • 1 disco SSD da almeno 960GB SATA III o NVM
  • Interfaccia Ethernet da almeno 10Gb/s
  • Interfaccia Infiniband 100Gb/s

1 server per archiviazione dati (“storage”) indipendente completo di:

  • 2 processori Intel Xeon 8-core 4208 e relativa scheda madre
  • 128GB di RAM DDR4-2933 ECC
  • Un controller RAID, 12Gb/s SAS/SATA con  modalità RAID 0, 1, 5, 10, 50 e JBOD
  • SuperCap Module NAND Flash Module BackUp Unit
  • 2 dischi SSD da 960GB SATA III o NVM
  • 10 dischi HDD SAS III 7.200 RPM da 12TB
  • 2 Interfacce Ethernet da 10Gb/s
  • Interfaccia Infiniband 100Gb/s

Altri componenti:

  • Armadio Rack adatto ad ospitare il cluster 
  • Switch ethernet da 10Gb/s
  • Switch Infiniband 100Gb/s con 24 porte
  • UPS da 10kW

Servizi

  • Sistema operativo RedHat-like (CentOS) 
ERC scientific sector
PE8_1
Anno di collaudo
2021
Stato dell'attrezzatura
In funzione
Nome e acronimo del laboratorio o locale che ospita l'attrezzatura
CED di infoSapienza
Edificio
RM031 - S. Pietro in Vincoli - Edificio A
Parole chiave
HPC
Servizi offerti
Accesso alla macchina per calcolo scientifico

© Università degli Studi di Roma "La Sapienza" - Piazzale Aldo Moro 5, 00185 Roma