Hoe hou je een website in de lucht wanneer een miljoen mensen tegelijkertijd een ticket willen kopen? Geen kleine uitdaging, maar de Gentse hoster Stone speelde het klaar.
Fans uit 214 landen waagden hun kans om één van de 180.000 felbegeerde tickets te kunnen bemachtigen, en op 1 seconde tijd waren alle kaartjes de deur uit. Zelfs voor TomorrowLand zijn dat uitzonderlijke cijfers. Tijdens het festivalweekend kreeg de website 5 miljoen unieke bezoekers over de vloer, goed voor 10 miljoen pageviews. Ter vergelijking: dat andere grote Belgische festival (Rock Werchter) kreeg 110.000 bezoekers te verwerken.
Eerder dan voor grote spelers zoals Amazon of Microsoft te gaan, koos ID&T België dit jaar voor de Gentenaars van Stone als hostingpartner. Het team rond Stein Van Stichel stond in voor de hosting van de pre-registraties, de Drupal-websites, de activering van de tickets en de TML-apps. “We konden als lokale speler de nodige schaalgrootte én een internationale footprint bieden”, vertelt Van Stichel. “Dat was doorslaggevend voor ID&T.”
De uitdagingen waren nochtans niet van de minste. Zo moest er geanticipeerd worden op 3 miljoen mensen die op enkele uren tijd één van de 180.000 tickets wilden bemachtigen, moest er voor gezorgd worden dat de sites altijd en overal vlotjes bleven draaien (niet in het minst tijdens het event zelf), en dienden er op een uur tijd 1 miljoen pre-registratiemails verwerkt te worden.
“In een eerste fase hebben we het verwachtte aantal bezoekers gesimuleerd, en op basis van die feedback kon webbouwer Nascom aanpassingen doorvoeren op code-niveau”, aldus Van Stichel. “Zo waren we bugs die voor prestatieproblemen konden zorgen een stapje voor.”
“Elk onderdeel werd uitvoerig getest, maar het resultaat was er naar want nadien werd onze expertise ook ingezet om problemen met apps van derden op te lossen. Zo hebben we bijvoorbeeld één van de partners geholpen wiens shop-site al snel plat ging na de lancering.”
“Op de systemen van die sponsor hebben we hetzelfde type ‘loadtests’ uitgevoerd als bij ons, waardoor we konden achterhalen dat de shop vanaf een bepaald aantal bezoekers in de problemen kwam. Later is de winkel heropend met een virtuele wachtrij die enkel het ‘veilige’ aantal surfers toeliet. Nadien heeft de partner geen problemen meer ondervonden.”
ONAPP
Omwille van het internationale karakter van TomorrowLand was het belangrijk om de content zo dicht mogelijk bij de eindgebruiker te brengen. “Dankzij ons lidmaatschap in de Britse OnApp-federatie hebben we toegang tot 170 verschillende locaties wereldwijd om content beschikbaar te maken (2.000 cloud-implementaties in 87 landen). Dat bieden zelfs Amazon en Microsoft niet aan.”
“Voor surfers uit het buitenland werd de website dus steeds geserveerd door de partner in het ‘content delivery network’ die zich het dichtst bij de bezoeker bevond. Dat zorgde voor snellere laadtijden én een ontlasting van het netwerk waar de applicaties draaien.”
Uiteindelijk bleek de caching-strategie nog het moeilijkste punt. “Wanneer een pagina geüpdatet wordt, moet je bliksemsnel kunnen uitrollen. De ‘time to live’ en de caching-waarden waren met andere woorden erg zorgvuldig gekozen, en indien nodig werd de OnApp api aangesproken om de caches snel leeg te maken.”
“Sommige pagina’s (zoals die rond het activeren van de bandjes) mochten dan weer niet gecached worden, waardoor er een lijst met uitzonderingen nodig was. Deze onderdelen op de site dienden sowieso verwerkt te worden door onze servers in Brussel en Antwerpen.”
De application stack voor TomorrowWorld (dat eind september wordt georganiseerd in de VS) is trouwens dezelfde als die voor TomorrowLand. “De achterliggende infrastructuur ook, al ligt het zwaartepunt in het OnApp content delivery netwerk dan wat meer in Amerika.”
www.stone-is.com, http://onapp.com
Frederik Tibau
Fout opgemerkt of meer nieuws? Meld het hier