Marc Husquinet Marc Husquinet is redacteur van Data News.

Als enige Europese leverancier van high-performance computingsystemen (hpc) opende de Franse groep Bull in Grenoble onlangs een excellentiecentrum dat gewijd is aan parallel programmeren.

De wereld van de supercomputers is een van de specialiteiten van Bull. Bewijs hiervan is dat 18 systemen van de groep in de wereldwijde top-500 van de supercomputers staan (klassement van november 2012), onder andere de beroemde Curie-supercomputer geleverd aan GENCI (het Franse agentschap van hpc), die 1,36 petaflops (PF) vermogen biedt (met maar liefst 4 GB geheugen per core). “Bull biedt de volledige waardeketen inzake hpc”, benadrukt Michel Bracquemond, directeur van Bull Grenoble, dankzij partnerschappen met de CEA, maar sinds 2004 ook met ServiWare en Intel, en het Europese programma PACE (Partnership for Advanced Computing in Europe). “Bull beschikt maar liefst over 500 specialisten in Europa die zich toeleggen op hpc.”

Naar exascale

Voortaan wil hpc exascale gaan veroveren, dit wil zeggen prestaties van 1.000 petaflops of 1 exaflop, terwijl het systeem dat momenteel het krachtigst is, de supercomputer van het Oak Ridge National Laboratory, goed is voor 17,59 petaflops, op de voet gevolgd door het Lawrence Livermore National Laboratory, dat een vermogen van 16,32 petaflops genereert (*). Maar specialisten zijn van mening dat in 2016 de kaap van de 100 PF overschreden wordt en dat we tegen 2019-2020 zelfs naar 1.000 PF – of 1 exaflop – gaan.

Maar exascale of exaflop is een vermogen dat volgens specialisten vandaag al welkom zou zijn. Niet alleen in de ‘klassieke’ domeinen in verband met hpc, zoals genoomonderzoek, geologische studies (complexe algoritmen voor gas- of olieonderzoek), de luchtvaart (vloeistofdynamica), kernfysica (simulatie van centrales met kernfusie) of meteorologie (bv. tsunamiwaarschuwing), maar ook in nieuwere sectoren zoals het bankwezen (fraudeanalyse), de geneeskunde (modelleren van de hersenen) of het transport (studie van verplaatsingen). De Total-groep bijvoorbeeld heeft zo één van de grootste supercomputers in een privé-bedrijf: ‘Pangea’ (gebaseerd op SGI) heeft een capaciteit van 2,3 Pflops.

Tot op heden vinden we twee grote obstakels terug op de weg naar exascale. Aan de ene kant is er het energieverbruik omdat een dergelijke supercomputer 100 tot 200 megawatt elektrische voeding nodig zou hebben, tegenover 5 MW voor de huidige supercomputers. Anderzijds moeten de bestaande applicaties aangepast worden om enkele miljoenen cores te benutten. “Momenteel worden de krachtigste supercomputers slechts gebruikt voor een minuscule fractie van hun vermogen omdat de programma’s niet geparallelliseerd zijn”, bevestigt Joe Curley, marketingdirecteur van de Technical Computing Group van Intel. Met dat perspectief onthulde de oprichter vorig jaar trouwens zijn Xeon Phi coprocessor, een chip gebaseerd op MIC-architectuur (Many Integrated Core).

Parallelle programmering

Om de uitdaging van parallellisering aan te gaan onthulde Bull onlangs in Grenoble (waar zijn expertisecentrum inzake supercomputers al gevestigd was) een excellentiecentrum voor parallel programmeren, in samenwerking met Intel, maar ook met de Joseph Fourier Universiteit, Caps (gespecialiseerd in multi-core computing) en Allinea (analyse- en debuggingtools). “Het centrum wil ingenieurs en wetenschappers uit onderzoekscentra en de industrie helpen om de cruciale technologische stap te zetten en hun intensieve rekentoepassingen te parallelliseren”, aldus Michel Bracquemond, directeur van het Bull Expertise & Service Center van Grenoble.

In de praktijk zal het centrum beschikken over zowat 500 experts (waarvan ongeveer 120 op de site van Grenoble alleen al) die bedrijven en laboratoria kunnen helpen om hun applicaties te optimaliseren om niet alleen compatibel te zijn met de huidige processors, maar ook met de toekomstige chipgeneraties. Hiervoor werd een dubbele infrastructuur ingevoerd: een platform met ongeveer 50 servers en 2.000 cores (waaronder 16 Intel Phi chips, wat uniek zou zijn in Europa) en een systeem dat is uitgerust met meer dan 4.000 cores. Dit alles gekoppeld aan opslag, onderlinge verbinding en een bestandssysteem, dus een end-to-end hpc-systeem, ook al is “het niet zozeer de bedoeling om een ultrakrachtige machine aan te bieden, maar wel om een massa-effect te creëren en te werken met monsters”, verduidelijkt Damien Déclat, hpc project manager, die in klimaatonderzoek, life sciences en financiën nieuwe gebieden ziet die belang hebben bij hpc-onderzoek.

Naast de poc (proof of concept) en benchmarking zal het centrum zich bezighouden met de technologische supervisie rond hpc en workshops aanbieden voor het managen van hpc en application porting. Ook de publicatie van wetenschappelijke artikels zal deel uitmaken van zijn taken. “Wetenschappers bezitten niet noodzakelijk de vereiste computervaardigheden om de beperkingen in verband met hpc op te vangen en om vooruit te lopen op de evoluties in deze sector”, aldus Déclat.

(*) Nog in de top-500 van de Supercomputer Sites telt ons land één machine; de supercomputer van het Vlaams Supercomputer Centrum (VSC) van de Ugent met 152 teraflops.

Marc Husquinet

Fout opgemerkt of meer nieuws? Meld het hier

Partner Content