Als er een fenomeen is dat storage beïnvloedt, dan is het wel big data - hoewel deze commercieel populaire term weinig betekent omdat bedrijven altijd al grote hoeveelheden gegevens hebben opgeslagen. Het probleem is dus niet zozeer hun opslag maar de analyse ervan, zodat we het eerder moeten hebben over big data analytics. Met een oplossing als Hadoop, waarvan we vandaag zien dat ze wordt ontplooid zonder nauwe integratie met de klassieke informatica-infrastructuur, wat voor problemen kan zorgen. Ook horen we de term 'long data' al opduiken in plaats van 'big data' om het historisch perspectief van de informatieanalyse weer te geven, in plaats van opgeslagen volumes.
...

Als er een fenomeen is dat storage beïnvloedt, dan is het wel big data - hoewel deze commercieel populaire term weinig betekent omdat bedrijven altijd al grote hoeveelheden gegevens hebben opgeslagen. Het probleem is dus niet zozeer hun opslag maar de analyse ervan, zodat we het eerder moeten hebben over big data analytics. Met een oplossing als Hadoop, waarvan we vandaag zien dat ze wordt ontplooid zonder nauwe integratie met de klassieke informatica-infrastructuur, wat voor problemen kan zorgen. Ook horen we de term 'long data' al opduiken in plaats van 'big data' om het historisch perspectief van de informatieanalyse weer te geven, in plaats van opgeslagen volumes. Gartner noemt duizelingwekkende cijfers in verband met big data omdat deze niche goed was voor 28 miljard dollar in 2012 en zou oplopen tot 34 miljard dollar in 2013. De vraag is of we niet moeten afstappen van de term big data en moeten spreken van long data, om mettertijd meer nadruk te leggen op het begrip gegevensanalyse. Een andere belangrijke trend is die van Flash en SSD (deze termen worden soms door elkaar gehaald omdat ze gebaseerd zijn op de NAND-technologie, maar SSD is meer bedoeld voor toestellen voor het grote publiek, terwijl Flash bedoeld is voor bedrijven en meer "intelligence" bevat), die de klassieke harde schijven volledig of minstens deels gaan vervangen. De grote marktspelers volgen deze technologie geïnteresseerd van nabij op, zeker omdat de kostprijs per GB van SSD blijft dalen. Dit geldt met name voor IBM, dat indertijd TMS (Texas Memory Systems) overnam, terwijl HP de hand wist te leggen op 3Par en EMC in het bezit kwam van XtremIO (en naar verwachting in mei de eerste vruchten van deze overname zal onthullen ter gelegenheid van EMC World). NetApp stelde zopas zijn roadmap voor op het vlak van Flash-opslag (zie ook ons artikel op pagina 26). Het bedrijf denkt een specifiek antwoord te kunnen bieden op de verschillende problemen in verband met deze nieuwe opslag (Flash als cache of als pool in een hybride storage wat betreft de server, of een all-Flash opslag met EF 540). In Silicon Valley zien we trouwens veel start-ups bloeien die zich op deze veelbelovende markt positioneren, zoals Violin, Tintri, SolidFire, Pure Storage, Whiptail of Nimbus Data (er zou in Silicon Valley een twintigtal jonge bedrijven zijn die zich uitsluitend bezighouden met all-SDS). Volgens de gespecialiseerde nieuwsbrief Storage Newsletter zouden er momenteel zowat twintig bedrijven zijn die all-SSD opslagsystemen hebben ontwikkeld. Hun prestatieniveaus kunnen in tier-1 oplopen tot 500.000 à 1 miljoen iops (input/outputoperaties per seconde), terwijl de tier 2-arrays debieten bieden tussen 100.000 en 200.000 iops, maar tegen een fractie van de prijs van de topmodellen. De prijs van deze all-SSD-systemen is bovenmatig hoog als je dollar per GB neemt, maar hij wordt interessant als je hem berekent in dollar per iops, wat verklaart waarom dit soort opslag gebruikt wordt voor applicaties die hoge prestatie-eisen stellen, zoals gegevensanalyse, digitale beeldvorming, vdi (virtual desktop infrastructure), databaseapplicaties, financiële trading of gamewebsites. Om nog maar te zwijgen van high-volume transactiesystemen en highly random i/o. Tot nu toe is Flash nog niet volledig ingeburgerd in bedrijven, vooral als gevolg van de nog relatief beperkte capaciteit, maar ook door de vrij hoge prijs en te korte gebruiksduur ervan ten opzichte van klassieke harde schijven. In 2013 zouden Flash-controllers moeten verschijnen die zijn uitgerust met krachtige processors, speciaal ontworpen voor enterprise storage platformen en Flashgeheugens met een langere levensduur, betere prestaties en meer capaciteit. Servervirtualisatie, zoals blijkt uit het succes van VMware en Microsoft Hyper-V-, heeft een sterke invloed op de opslag vanwege de migratie van de workloads naar virtuele machines (wat de beschikbaarheid en prestaties van de applicaties beïnvloedt en waarvoor de opslagcapaciteit te groot bemeten moet worden, vandaar de hogere kosten en de grotere complexiteit). Momenteel werden de voordelen van servervirtualisatie op het vlak van flexibiliteit en kostprijs (omdat men zich niets meer moet aantrekken van het onderliggende platform) niet verkregen op de opslaginfrastructuur. Vandaar de noodzaak om zich te wenden tot softwaregebaseerde opslag. Met voornamelijk een storage hypervisor die het mogelijk maakt om de middelen te virtualiseren en voordelen biedt op het vlak van flexibiliteit en efficiëntie. Door de steeds groter wordende opgeslagen volumes moet er ook een automatiseringssoftware voor het opslagbeheer gebruikt worden. Voor de analisten zal de software dus een steeds grotere plaats innemen op de opslagmarkt om niet meer afhankelijk te zijn van de hardware en de opslagdiensten en -functies ter beschikking te stellen van de hele organisatie. En de opkomst van Flash storage zou deze beweging nog versnellen. Over SSD en Flash wordt heel wat geschreven, maar andere technologieën veroveren geleidelijk aan ook een plaats. Dit geldt voor de object based file storage (een technologie die beheerst wordt door het Belgische Amplidata en door Scality bijvoorbeeld, maar die ook belangstelling krijgt van de grote spelers, zoals NetApp), gestimuleerd door het toenemende volume niet-gestructureerde gegevens. Geleidelijk aan moeten de standaard bestandssystemen plaats maken voor object-based bestandsystemen omdat het beheer van data en metadata van file systems een sneller herstel van het bestandsysteem mogelijk maakt, een supersnelle toegang tot de bestanden waarborgt en een automatische tiering van de bestanden biedt. Een andere trend in 2013 is de versnelling van het gebruik van content platformen voor het archiveren en delen van gegevens. Virtualisatie maakt immers het delen van opslagmiddelen tussen applicaties mogelijk en het gebruik van dergelijke platformen voor het archiveren en delen zou nog toenemen naarmate de gebruikers correlaties tot stand willen brengen tussen informatie afkomstig van verschillende applicaties. Om de Asic te helpen steeds complexere workloads te verwerken en de debieten op te drijven, zullen de storage controllers worden uitgerust met gesofisticeerde processors en specifieke hardware. 2013 zou ook worden gekenmerkt door de veralgemening van back-ups op basis van snapshots. De technologie bestaat al enkele jaren, maar de ontplooiing ervan stelt it-afdelingen in staat om hun back-upaanpak te herzien en zich af te vragen welke informatie een back-up nodig heeft en waar en wanneer deze back-ups gemaakt moeten worden. Met de komst van servervirtualisatie stellen bedrijven zich trouwens vragen over de manier waarop de opslag moet worden voorzien en beheerd. En de uitbreiding van desktopvirtualisatie zet ertoe aan om de serverbeheerder te laten instaan voor de opslag. Tot slot zien we vooral voor de kmo-markt gecertificeerde, vooraf geconfigureerde en geteste oplossingen ontstaan die servers, opslag en netwerkmiddelen combineren binnen één geconvergeerd platform. In dit opzicht zijn de 2 belangrijkste oplossingen het platform FlexPod dat NetApp en Cisco verenigt, en het Vblock-aanbod dat het VCE-trio bevat (VMware, Cisco en EMC). Maar een van de fundamentele informaticatrends in het algemeen en van opslag in het bijzonder, is de overgang naar nieuwe consumptiewijzen die sommigen beschrijven als 'as a service', 'utility' of cloud, en waarbij vooral wordt afgestapt van capex ten voordele van opex. De afgelopen 10 jaar zijn de totale opslagkosten gestegen met ongeveer 7 % per jaar. Een toename die voornamelijk wordt veroorzaakt door investeringen in opex, terwijl de kosten van de hardware (capex) relatief stabiel zijn gebleven. Hiervoor moeten de bedrijven meer technologieën ontplooien zoals dynamic storage provisioning, virtualisatie en on the fly en non-disruptive migratie. Of ze moeten zich zelfs wenden tot managed services, bijvoorbeeld voor bepaalde functies zoals archivering of disaster recovery, waar nieuwe spelers diensten aanbieden in cloud. Gartner schat trouwens dat in 2013 ongeveer 25 % van de storage-infrastructuuraankopen gebaseerd zal zijn op een per-unit facturering. Marc Husquinet