I JUWELS della corona del supercalcolo

Nell’ambito del progetto di un supercomputer rivoluzionario in grado di soddisfare le sempre maggiori esigenze delle imprese e della scienza, un gruppo di ricercatori ha sviluppato un nuovo modulo ad alte prestazioni in grado di effettuare fino a 12 quadrilioni di calcoli al secondo.

Il supercomputer JUQUEEN, un tempo potenza sovrana del settore del calcolo ad alte prestazioni in Europa, cede il passo al suo successore, il Jülich Wizard for European Leadership Science. Questo supercomputer, il cui nome breve è JUWELS, è il risultato degli sforzi congiunti di oltre 16 partner europei nei progetti DEEP, finanziati dall''UE, dal 2011. Una volta completato, JUWELS sarà costituito da tre moduli completamente integrati, in grado di eseguire simulazioni complesse e lavori scientifici.

JUWELS, prima parte

Il primo modulo JUWELS verrà installato presso il Jülich Supercomputing Centre (JSC) nella primavera del 2018. Il modulo cluster generico si basa sull''architettura Sequana di una società di servizi informatici francese, con software fornito da uno dei partner tedeschi. È costituito da circa 2 550 nodi di calcolo, ciascuno con un doppio processore Intel Xeon a 24 core e almeno 96 GB di memoria principale. È talmente potente da raggiungere un picco di prestazioni di 12 petaflop/s, ovvero 12 quadrilioni di operazioni al secondo.

Partendo dall''architettura sviluppata nei precedenti progetti DEEP e DEEP-ER, DEEP-EST mira a realizzare altri due moduli basati sul concetto di architettura modulare dei supercomputer. Un concetto innovativo elaborato per la prima volta anni fa dal Prof. Thomas Lippert, Direttore del JSC. «Con il suo concetto modulare, il JSC inaugura una nuova era», ha dichiarato in un comunicato stampa del centro di ricerca Jülich.

L''approccio modulare al supercalcolo

Nel mondo odierno del calcolo ad alte prestazioni, le applicazioni ad alta intensità di calcolo che prevedono la simulazione e l''analisi dei dati sono diventate sempre più importanti, ma i supercomputer attuali non sono in grado di tenere il passo. «[L]e applicazioni diventano sempre più complesse e i volumi di dati degli esperimenti attuali, ad esempio al CERN, non fanno che aumentare. Ciò significa che i supercomputer richiederanno capacità di memoria drasticamente maggiori e dovranno essere collocati il più vicino possibile ai processori. Solo allora i dati potranno essere elaborati in modo rapido ed efficiente dal punto di vista energetico», ha spiegato la Dott.ssa Estela Suarez, scienziata del JSC, in un precedente comunicato stampa.

Ecco quindi l''architettura modulare dei supercomputer, che unisce in un unico sistema vari moduli con diverse prestazioni. I moduli sono collegati attraverso una rete ad alta velocità e sono gestiti dallo stesso software. Si possono così eseguire contemporaneamente applicazioni eterogenee su risorse di calcolo e di dati esattamente corrispondenti, con una significativa riduzione del tempo e dell''energia necessari per calcolare una soluzione. L''elevata flessibilità del sistema lo rende inoltre facilmente adattabile. Progettato pensando alle esigenze della scienza dei big data, il supercalcolo modulare è un nuovo approccio europeo alla tecnologia dell''elaborazione dei dati. Aprirà la strada a computer exascale convenienti e ad alta efficienza energetica: supercomputer mille volte più veloci degli attuali sistemi più potenti.

Per valutare le tecnologie hardware e software sviluppate in DEEP-EST, vengono utilizzate sei applicazioni del mondo reale: fisica delle alte energie, scienze della terra, meteorologia spaziale, dinamica molecolare, neuroscienze e radioastronomia. Ogni settore utilizza diverse combinazioni di moduli, dimostrando l''adattabilità dell''architettura modulare dei supercomputer alle esigenze di molti utenti diversi.

Prossima tappa del progetto DEEP-EST (DEEP – Extreme Scale Technologies) è il modulo Extreme Scale Booster, che sarà in grado di supportare un''ampia gamma di applicazioni di calcolo ad alte prestazioni. Seguirà il risultato finale del progetto, il modulo di Data Analytics, progettato per carichi di lavoro di analisi dei dati ad alte prestazioni.

Per maggiori informazioni, consultare:
sito web del progetto DEEP

ultima data di modifica: 2018-04-20 17:15:02
Commenti


Privacy Policy