Google voorspelt een griepepidemie sneller dan de gezondheidsdiensten op basis van miljarden zoektermen. In Japan slaagden de spoorwegen er in om met de data van seismografen een grote aardbeving aan te zien komen, waardoor ze hun hogesnelheidstreinen 43 seconden ervoor tot stilstand konden brengen. Het zijn maar twee van de vele fascinerende voorbeelden van big data toepassingen, de analyse van de enorme berg gegevens die we iedere dag produceren.
...

Google voorspelt een griepepidemie sneller dan de gezondheidsdiensten op basis van miljarden zoektermen. In Japan slaagden de spoorwegen er in om met de data van seismografen een grote aardbeving aan te zien komen, waardoor ze hun hogesnelheidstreinen 43 seconden ervoor tot stilstand konden brengen. Het zijn maar twee van de vele fascinerende voorbeelden van big data toepassingen, de analyse van de enorme berg gegevens die we iedere dag produceren. Straks krijgen zowat alle bedrijven te maken met big data, maar in tussentijd worstelen de meeste ondernemingen nog met hoe ze hun data toegankelijk kunnen maken. Hoe moet er juist omgesprongen worden met gestructureerde en met ongestructureerde datasets? Met de clicks, de tweets en met de contextuele data die zo belangrijk is voor e-commerce? Het antwoord op die vragen is verre van eenduidig, zo blijkt uit het betoog van Stijn Viaene van de Vlerick Business School. De professor (die overigens een keynote over het onderwerp gaf op het business forum van Data News op 17 oktober) plaatst heel wat kanttekeningen bij de bijna onrealistische beloftes uit big data die ons worden voorgespiegeld. "Zeker, er zijn al bedrijven die dankzij analytics een competitief voordeel verkrijgen, maar een deugdelijk kookboek is er nog niet. Heel wat van de huidige tools moeten voortdurend geüpdatet worden en zijn alles behalve stabiel. Momenteel zijn het vaak nog de echte bricoleurs bij de grote bedrijven die experimenteren en hun handen vuil maken. En zelfs bij de Facebooks en bij de Amazons merk je dat de echt waardevolle analyses zware bevallingen zijn. Kleinere spelers ontberen nog vaak de resources om dergelijke dingen gedaan te krijgen." "Door te kijken naar hoe bedrijven zoals Google en Facebook gebruik maken van de informatie die ze verzamelen door hun activiteiten, hebben we wel heel wat hoop en inspiratie gekregen. Die internetgiganten hebben heuse business-modellen gebouwd rond hun datasets, en zijn in staat om er effectief geld mee te verdienen. Maar je kan die business-modellen niet zo maar overzetten naar een kmo. En ik heb tot op heden ook nog niemand gezien met een glazen bol." Nochtans slaagt een populaire fastfoodketen zoals Taco Bell er in om met een zekerheid van 90 procent het succes van productinnovaties te voorspellen dankzij de analyse van de 18 miljoen online berichten die jaarlijks verschijnen over de voedselproducent. Die analyse laat hen toe om met een bijna waanzinnige correctheid succes of falen te voorspellen. "Ik kan me inbeelden dat die data waardevol is", zegt Viaene, "maar de hypotheses moeten toch gevalideerd worden met proefsessies? Je gaat toch zo maar niet automatisch alles voor waar aannemen? De kans dat je er volledig naast zit blijft reëel." "Voor mij is de toekomst willen voorspellen aan de hand van big data een brug te ver. Ik geloof ook niet in beursmakelaars die rijk worden met behulp van één of ander wonderalgoritme. Die dingen zijn alles behalve betrouwbaar. Wel houdt het fenomeen van big data de belofte in zich dat we méér en rijkere datasets kunnen gebruiken dan in het verleden. En dat er beter in real time kan worden gewerkt." "Dat zie je bijvoorbeeld bij analyses van het online gedrag van mensen. Daar kan men in realtime inspelen op bepaalde signalen. Maar het is niet omdat we rijkere databronnen ter beschikking hebben en ze kunnen combineren, dat we daar altijd zinvolle informatie uit halen. En het is niet omdat je beter dan ooit op realtime basis kan volgen wat er gebeurt, dat je zo maar in de toekomst kan kijken." Een andere kanttekening is dat de rol van de hersenen alles behalve uitgespeeld is. Computers hebben dan wel meer rekenkracht dan het menselijke brein, maar de interpretatie van gegevens is en blijft werk voor experts. "Mensen moeten conceptualiseren, valideren en operationaliseren, dat weten we al sinds het eerste moment dat we business analytics aan het bestuderen zijn. Er is nog nooit een moment geweest waarop de mens niet het belangrijkste gegeven was in een analyseproces. Onze intuïtie is nog steeds erg waardevol." "Dertig jaar geleden ontsnapte de wereld aan een nucleaire ramp dankzij het gezond verstand van een Russische legerofficier. Zijn computer leerde dat de VS vijf kernraketten hadden afgevuurd, dus moest Rusland onmiddellijk zelf raketten richting Amerika lanceren. Maar de man ging af op zijn buikgevoel en gokte op een computerfout. Terecht: de reflectie van de zon op de wolken was geïnterpreteerd als een vijandige demarche." "Dit maar om te zeggen dat datasystemen zo complex worden dat het verwerken van foute informatie grote gevolgen kan hebben. Menselijke controle zal dus blijvend nodig zijn." Viaene: "Omdat data zo vlot beschikbaar is en omwille van het hele consumerisation-idee bestaat ook het gevaar dan men begint te denken dat men niets meer moet kennen van it-management. Dat is een val waar je niet mag intrappen. Je ziet nu al dat data vaak in losstaande silo's wordt bijgehouden, en dat er niet voldoende geconnecteerd wordt." "Een voorbeeld? Denk aan een marketingdepartement dat op basis van resultaten uit big data een financieel product lanceert - en en passant een flinke bonus opstrijkt op basis van de goede verkoop. Later stelt de boekhouding echter vast dat het een product betreft dat eigenlijk te duur is en onbetaalbaar wordt. Zo kan een bedrijf ongelooflijk in de problemen raken, enkel en alleen omdat er te veel verschillende informatiesilo's zijn ontstaan en te weinig aan informatiemanagement wordt gedaan." "Kijk naar steden die de ambitie hebben om smart cities te worden. Die steden zweren tegenwoordig bij het aanleggen van een infrastructuur rond open data. Ze hebben door dat uit heel wat van die data nuttige toepassingen kunnen voortvloeien, maar dat betekent nog niet dat ze hun hele citizen lifecycle kunnen beheren vanuit die individuele projecten." "Daar moet er serieus gelinkt worden, net zoals er moet op toegekeken worden dat het ene initiatief het andere niet ondergraaft. Dat bedoel ik met information management. Je gaat een echte informatie-infrastructuur nodig hebben." Uit heel wat studies blijkt dat Europese bedrijven big data nog niet zo relevant vinden. Gaan we de boot missen terwijl de VS en China volop investeren? "In België zijn we nu eenmaal vrij conservatief, Peter Hinssen spreekt graag over onze kerktorenmentaliteit, en het is moeilijk om die cultuur te veranderen. Toch kunnen we al leren uit enkele ervaringen." "Bij De Persgroep bijvoorbeeld (de uitgever van onder meer De Morgen, De Volkskrant en Het Parool) wordt er in real time gekeken naar wat wanneer gelezen wordt door wie. Daar probeert het bedrijf zijn digitaal aanbod dan op af te stemmen, om beter tegemoet te komen aan de wensen van de lezers. Toegegeven, de uitgever staat daar verder mee in Nederland dan in België." "Missen wij de boot? Dat hangt er van af. Er zijn nog maar weinig bedrijven bezig met Hadoop (het open source framework waarmee ongestructureerde data geanalyseerd kan worden), dus daar lopen we wel wat achter. En onze financiële sector grijpt blijkbaar steeds nadrukkelijker terug naar de basics ten nadele van op analytics gestoelde producten. Dat is jammer, want uit één van onze recente onderzoeken blijkt duidelijk dat banken die inzetten op digitale tools daar sowieso hun voordeel mee doen." "Wat de adoptie van instrumenten zoals Google Analytics betreft, staan we al verder, daar zijn heel wat marketeers mee bezig, zeker als ze in e-commerce actief zijn. De hamvraag blijft echter in hoeverre onze bedrijven heil zien in een digitale strategie. In vergelijking met onze buurlanden laten we het wat dat betreft wel wat afweten, ja." Frederik Tibau