Kristof Van der Stadt
Kristof Van der Stadt Hoofdredacteur bij Data News

Voor de bouw van het nieuwe datacenter van de Universiteit Gent moest niet alleen naar de eisen van de eigen systemen gekeken worden, maar moest ook rekening gehouden worden met de komst van de Vlaamse Supercomputer. Een uitdaging, zo bleek.

Met 38.000 studenten en 7.100 personeelsleden is de Universiteit Gent één van de grootste universiteiten in het Nederlandse taalgebied. De UGent telt elf faculteiten die zijn onderverdeeld in meer dan 130 vakgroepen en die een grote onafhankelijkheid genieten binnen de universiteit. Trachten komaf te maken met de daaruit volgende complexe, decentrale it-infrastructuur was een van de belangrijke argumenten om een nieuw datacenter op te richten. “Aanvankelijk was het de bedoeling om de bestaande computerzalen aan campus de Sterre te renoveren”, vertelt Johan Van Camp, afdelingshoofd ict-infra- structuur aan de Universiteit Gent. “Maar toen engageerde de universiteit zich duidelijk om het project rond de Vlaamse Supercomputer naar Gent te brengen en onderdak te bieden aan die eerste supercomputer ( zie ook pagina 20, nvdr)“, weet Van Camp. De renovatieplannen werden opgeborgen en maakten plaats voor een nieuwbouwscenario – op dezelfde campus, zowat tegenover de oude computerzalen.

Hybride model

Na een voortraject van zes maanden werd in juli 2009 een aanbesteding gelanceerd voor de bouw van het datacenter. Uiteindelijk werd het project toegekend aan integrator IBM met APC (Schneider Electric) als partner voor de eigenlijke datacenterinfrastructuur. “Het project was van bij de aanvang een serieuze uitdaging, omdat we van een hybride model moesten uitgaan”, zegt Johan Van Camp: “één computerzaal voor wat wij ‘general purpose’ noemen (zeg maar de infrastructuur van de Universiteit Gent zelf, nvdr) samen met een collocatieruimte voor de vakgroepen, en een tweede zaal voor ‘high performance computing’ (hpc) waar dus later dit jaar ook de Vlaamse Supercomputer zal komen.”

“Technologisch zijn de vereisten voor hpc toch wel wat verschillend en bovendien is de omvang (155 teraflops, nvdr) van een schaal waar Universiteit Gent nog geen ervaring mee had. Wij beschikten wel over die kennis en ervaring”, weet Cédric Claeys, account manager bij Schneider Electric. Ook voor de Universiteit Gent bracht dit project een nog nooit geziene omvang met zich mee. “Onze general purpose systemen moeten bijvoorbeeld redundant zijn, in het geval van hpc is dat niet nodig. Het grote computervermogen van hpc heeft dan weer een enorme impact op het stroomverbruik en de koeling”, zegt Van Camp. Waar gewone luchtkoeling zeker een optie had kunnen zijn voor de eigen UGent-systemen die per rack typisch 4kW aan warmte genereren, is dat niet mogelijk voor een supercomputer waar je al gauw spreekt over 20kW per rack. “Voor de supercomputer is InRow- en waterkoeling, geïntegreerd in een ‘hot aisle containment’ absoluut vereist”, zegt Cédric Claeys. Het water wordt dan weer wel zoveel mogelijk met buitenlucht gekoeld. “Het illustreert hoe we bij de bouw van dit datacenter continu naar compromissen moesten zoeken”, zegt Van Camp.

Getekend door it’ers

Van Camp legt er ook de nadruk op dat het datacenter qua principes en uitgangspunten helemaal uitgetekend werd door it’ers: “Dat is heel erg atypisch. Doorgaans is het een facility manager die dat doet. We hadden al een kleinere supercomputeropstelling waarbij we nuttige ervaring opdeden. Het nieuwe gebouw is van bij het prille begin helemaal uitgetekend als datacenter, en dat is voor ons wel helemaal nieuw”. Een andere belangrijke uitdaging was het schaalbaar uitbreiden van vermogen in functie van de behoeften, zonder dat daarbij de limieten opgezocht werden. Een modulaire ups-voorziening met voldoende vermogen was daarbij een absolute noodzaak. Op vraag van UGent werkte Schneider Electric ook een nieuw concept voor bekabeling uit met een soort kabelgoot onder het dak van de warme gang. “Het oogt simpel, maar werd toch op maat ontwikkeld voor UGent. Ondertussen is het wel al een standaard component in ons aanbod”, zegt Claeys die ons ook wijst op de verregaande monitoring. “Alle warmtesensoren bijvoorbeeld zijn netjes weggewerkt in de stroomvoorziening. Efficiëntie, warmte, stroomverbruik, koeltemperatuur, vochtigheid e.d. wordt continu gemeten”, aldus nog Claeys.

Connectiviteit

In maart vorig jaar ging dan de migratie van start waarbij alle oude systemen verhuisd werden naar de nieuwe locatie. Ook het colocatie-aanbod voor de interne ‘klanten’ werd opgestart. In juni werd het datacenter dan plechtig geopend. Sinds augustus is de migratie helemaal voltooid en is Gent helemaal klaar voor de komst van de supercomputer – vermoedelijk in het derde kwartaal van dit jaar. Toch is er nog wat werk aan de boeg. De connectiviteit bijvoorbeeld is nu nog een eigen glasvezelverbinding vanuit het Belnet-knooppunt naar het datacenter. De bedoeling is dat Belnet binnenkort een nieuw knooppunt aanlegt in het datacenter zelf. In totaal heeft het datacenter-project zo’n 10 miljoen euro gekost.

Kristof Van der Stadt

Fout opgemerkt of meer nieuws? Meld het hier

Partner Content