Afgezien van de techniek zal business intelligence (bi) allerlei conceptuele en organisatorische uitdagingen moeten oplossen: mobiliteit, ‘big data’, sorteren en structureren van content, valstrikken van een outsourcing waar sommigen niet meer omheen kunnen.
De scherpe concurrentie en de budgettaire eisen blijven de beste bondgenoten van de bi-sector. Nauwkeurigheid van de besluitvorming, fijnere segmentatie van het cliënteel, fraudeopsporing… stuk voor stuk toepassingen waarvoor bi-tools nodig zijn. Om nog maar te zwijgen van het fenomeen van de explosie van gegevens die steeds minder gestructureerd zijn.
Thema’s en begrippen die in zijn: ‘in-memory’-databases, stack database management system. Maar ook niet te onderschatten is de mobiele bi, een argument waar sommigen sinds enkele jaren mee staan te zwaaien. Daar is het ongetwijfeld nog te vroeg voor, want de markt is er niet klaar voor en er bestaat nog geen vraag naar. Momenteel begint de snelle opkomst van de smartphones en tablets die situatie te wijzigen. “Drie elementen vallen samen”, verduidelijkt Dan Somer, analist bij Gartner: “de toestellen die snel beter worden (schermgrootte, functies, interface), de steeds beter wordende aanbiedingen die van mobiliteit vaak een prioriteit maken en de cognitieve dimensie van geolokalisatie die algemeen ingeburgerd geraakt.”
Andere actuele bi-thema’s: visualisatie, voorspellende analyse (zie kadertekst) of nog – volgens Gartner – bam (business activity monitoring), en metadata-referentiesystemen. Morgen is het de beurt aan semantische diensten of vragen-antwoorden in een natuurlijke taal, “wat bewijst dat vernieuwing steeds van de partij is.” De samenwerkingsdecisiesoftware komt echter niet goed van de grond.
‘Big data’
De explosie van gegevens, een fenomeen dat werd omgedoopt tot ‘big data’, is niet nieuw maar krijgt een nieuwe omvang: alsmaar meer ongestructureerde interne gegevens (mails, documenten…) of externe gegevens (sociale media, rfid-sensors, gegevens die gegeneerd worden voor traceerbaarheidsdoeleinden, e-metering, digitale medische data, video’s…). Er komen heel wat uitdagingen bij kijken: correlatie tussen de overvloed aan complexe gegevens, die niet noodzakelijk significant zijn, governance, veiligheid, nood aan nieuwe vaardigheden die gegevens nuttig kunnen onderzoeken en gegevensschema’s kunnen bepalen, relaties die ontstaan of die tussen de gegevens zouden moeten bestaan… Afgezien van het volume vormt ‘big data’ een uitdaging op het vlak van snelheid, verscheidenheid (van gegevens, formaten, latentie), complexiteit (soort gegevens), aldus Roxane Edjlali, analist bij Gartner.
Het risico is ook dat “men er slechts een zuiver technisch en niet organisatorisch probleem in ziet, met zijn dimensies inzake verantwoordelijkheid, coördinatie, optimalisatie…”, aldus Stany Boes, specialist bi bij CSC. “We moeten eerst bepalen welk doel we willen bereiken met de verzameling en verwerking van deze big data, en enkel diegene weerhouden die met dit doel te maken hebben. De grote uitdaging bestaat erin om de onderneming voor te bereiden op deze nieuwe toevloed. De meeste bedrijven bevinden zich nog in het stadium waarin ze de gestructureerde informatie organiseren die gegenereerd wordt door hun eigen beheersystemen. Een van de prioritaire vragen die we moeten stellen is wie de komst van de nieuwe gegevens zal coördineren en hoe we ze juist kunnen interpreteren. Ze zijn immers niet onmiddellijk bruikbaar: ze moeten worden gefilterd, enkel de relevante informatie moet weerhouden worden, ze moeten gecombineerd worden met andere externe of interne gegevens, hun relevantie, samenhang, betrouwbaarheid, kwaliteit moet nagegaan worden,… Afgezien van de uitdaging van de opslag moeten ze ook nog eens efficiënt ter beschikking gesteld worden.”
Hier moeten we ons buigen over de toekomstige rol van de informatica-afdeling, “die steeds meer moet aansluiten op de afdeling die bi het best beheerst of die het meest baat heeft bij het concurrentievoordeel dat ze kan bieden.” Een ander risico: de ‘informatie-eilanden” die ontstaan door sociale (samenwerkings)tools.
Nieuwe exploitatiewijzen
De doeltreffende verwerking en assimilatie van ‘big data’ vraagt de implementatie van nieuwe tools en technologieën. En niet alleen van databases en analytische ‘in memory’-tools die de verwerking ervan kunnen versnellen. Enkele voorbeelden? Text mining (nodig om te werken met ongestructureerde gegevens, de content te identificeren en te interpreteren), intelligente zoekmachines, pattern recognition, visuele analyse, analyse van netwerkeffecten (gemeenschappen, sociale groepen, beïnvloeders…), volumieke analytics. ‘Big data’ betekent niet noodzakelijk dat de ‘big datawarehouses” terugkeren in versterkte vorm. “Het is ongetwijfeld nuttiger om schema’s te bevorderen die verschillende standpunten toelaten over de interne en externe gegevens. En geen ‘single version of the truth’, zoals vroeger gepredikt werd.” In plaats van alles te willen consolideren en centraliseren, moeten we de gegevens op een slimme manier met elkaar verbinden, door ze vaak te laten waar ze zijn. Wanneer de technologie op punt zal staan, zal het belangrijker zijn om met succes de tussenstap te zetten waarbij de (goede) informatie wordt geïdentificeerd voordat ze eventueel geconsolideerd wordt.”
Grote accounts en bepaalde sectoren (banken, verzekeringen, telco, farmaceutica…) zijn meer rechtstreeks betrokken bij de big data, maar ook de kmo’s zullen er niet meer aan kunnen ontsnappen. Hierover lijken heel wat waarnemers het eens te zijn. Velen van hen zien er trouwens een noodzaak en een commerciële kans in. Maar zullen kmo’s, met hun beperkte middelen en vaardigheden, zich aan dit avontuur wagen? Stany Boes vindt dat cloud voor hen een oplossing zou kunnen zijn, want zo kunnen ze enkel de middelen aanspreken die echt nodig zijn. Het valt nog af te wachten tot waar de ondernemingen het model zullen willen drijven. De SaaS- of zelfs DaaS-dimensie (software en gegevens ‘aan de tapkraan’) zou nauwelijks voor problemen zorgen. Analytics-as-a-Service, met andere woorden de outsourcing van de gegevensinterpretatie, zal ongetwijfeld meer terughoudendheid oproepen. “Aangezien de gegevens strategische activa zijn, spelen problemen inzake veiligheid, privéleven, een grote rol”, vindt Stany Boes. “Het feit dat de ondernemingen geen controle hebben over de aard, teneur en bron van de externe gegevens en de manier waarop ze worden gecombineerd, onderling of met interne gegevens, vormt een bijkomende uitdaging.” We stellen trouwens vast dat de grote ondernemingen het minst geneigd zijn om hun gegevensopslag of de desbetreffende exploitatiemechanismen uit te besteden.
Over het algemeen zal een evolutie naar cloud vereisen dat we meerdere parameters van de vergelijking oplossen, benadrukt Gartner. Met name: volumes en gevoeligheid van de gegevens, vertrouwen in de uitgever, wettelijke beperkingen.
Open source, de eeuwige challenger?
Ook al worden de oplossingen rijper en krijgen ze meer functies, toch blijven open source bi-oplossingen vooral beperkt tot kmo’s en afdelingen. “De actoren van open source hebben goed kunnen gedijen op rijpe segmenten – Jaspersoft, Pentaho of SpagoBI inzake reporting, Kettle (nu geïntegreerd in Pentaho) of Talend in ETL, Jedox met Palo (Multidimensional OLAP)”, aldus Simon Philibert, analist bij Pierre Audoin Conseil. “De onruststokers van vandaag ontwikkelen de niches waarin de grote actoren zich morgen zullen storten, met name: de visualisatie van gegevens en analytische applicaties op basis van onderzoek (SBA, search-based applications).”
Brigitte Doucet
Fout opgemerkt of meer nieuws? Meld het hier