Het heeft geen zin om lang stil te blijven staan bij de astronomische cijfers van consultancybureaus of grote spelers in de storagemarkt om te weten dat de volumes die de bedrijven opslagen voortdurend stijgen. Gegevens die steeds minder gestructureerd zijn, waarvan de relevantie steeds korter is en die steeds efficiëntere filters en opzoektools vereisen.
...

Het heeft geen zin om lang stil te blijven staan bij de astronomische cijfers van consultancybureaus of grote spelers in de storagemarkt om te weten dat de volumes die de bedrijven opslagen voortdurend stijgen. Gegevens die steeds minder gestructureerd zijn, waarvan de relevantie steeds korter is en die steeds efficiëntere filters en opzoektools vereisen. Uit een recent onderzoek bij cio's door The Wall Street Journal blijkt dat 68 % van de informaticadirecteurs van plan is om hun opslagbudgetten te verhogen in 2012, terwijl 65 % zegt dat veiligheid voorrang krijgt bij investeringen. 51 % vindt dat de servers de belangrijkste uitgavenpost vormen. Om deze uitbarsting van gegevens te illustreren moeten we maar kijken naar IDC, dat gelooft dat tegen 2020 de totale opslagcapaciteit met een factor 12 zal stijgen en zal oplopen tot ongeveer 15 zettabytes. Terwijl de digitale wereld zou groeien met een factor van 29 over dezelfde periode. Geen wonder dus dat begrippen als big data en Hadoop de afgelopen maanden opgang hebben gemaakt. Storage is een grote investeringspost die voorrang krijgt in de onderneming, maar er is geen sprake van dat de kranen helemaal open worden gezet. De zoektocht naar optimale efficiëntie van de infrastructuur is immers een must. Vooral omdat de moeilijkheden met de bevoorrading aan harde schijven (als gevolg van overstromingen in Thailand) voor problemen zullen zorgen... minstens tot in 2013. Gelukkig bestaan er op dit vlak technologieën, die vaak al tot rijping gekomen zijn, zoals consolidatie en opslagvirtualisatie. Ook thin provisioning en dynamic tiering zorgen er respectievelijk voor dat er niet te veel opslagcapaciteit wordt toegekend nog voordat ze maximaal werd benut en dat de gegevens hiërarchisch worden ingedeeld op basis van hun gebruik op de meest geschikte opslagmedia - die dus uiteindelijk het minst kosten. Een andere beschikbare techniek is archivering om te voorkomen dat gegevens die niet meer of nog zelden worden gebruikt bewaard worden op performante (en dure) dragers. Ook deduplicatie en datacompressie worden nu goed beheerd en vormen tools die de opslagcapaciteit kunnen beperken. Met het oog op besparingen moet tot slot de convergentie tussen opslag, servers, netwerken en applicaties worden gestimuleerd en opgevoerd, door ook tools te implementeren voor de organisatie tussen de beheer- en automatiseringsoplossingen. Een van de ongetwijfeld meest veelbelovende technologieën is die van storage appliances. Zo zien we dat NAS-filers geleidelijk aan worden vervangen door dergelijke toestellen. Filers blijven nog wel belangrijk, maar we zien een verandering in de manier waarop file sharing wordt verspreid in bedrijven en de manier waarop ongestructureerde data worden opgeslagen. Hierdoor zouden opslagapparaten uiteindelijk gateways kunnen worden naar cloud storage. Maar deze apparaten kunnen ook de ontbrekende schakel worden naar externe archivering, door gebruikers zelf te laten instaan voor het beheer van de archivering en hen te laten beschikken over een nagenoeg onbeperkt opslagvolume tegen een constante prijs per GB, of zelfs een lagere prijs als er een migratiebeleid voor de gegevens wordt ingevoerd in functie van hun leeftijd. Een ander gebied waar appliances een must worden, is de back-up. Vooral door de 'consumerization' van it zijn ondernemingen geneigd om zich uit te rusten met vooraf geconfigureerde appliances die zowel de software als de hardware voor back-up in één enkele behuizing bevatten. Vandaar het succes van het aanbod met EMC en Symantec. Bovendien beginnen deze apparaten alle segmenten van de markt aan te trekken, want de mid-range modellen bevatten voortaan functies die vroeger voorbehouden waren voor de high-end modellen en nu is het mogelijk om een NAS-apparaat te beheren vanaf een smartphone of een tablet. Sommigen merken ook de opkomst van zogenaamde storagecomputers, want we stellen vast dat de klassieke opslagarchitecturen die gebruik maken van algemene processors die zeer veel functies kunnen ondersteunen, te maken krijgen met grenzen op het vlak van I/O werkdruk. Deze opslagcomputers zouden beschikken over specifieke processorpools voor deze verschillende functies. Daarnaast zal de steeds meer geavanceerde virtualisatie van servers en desktops de bedrijven dwingen om te beschikken over opslagcapaciteit die kan evolueren volgens een niet-disruptieve technologie. Modulaire opslagarchitecturen zouden dus kunnen worden vervangen door opslagplatformen van ondernemingen met een hoge beschikbaarheid, die dienst doen als tier 1 en zo de vraag naar opslag van virtuele servers ondersteunen. Maar virtualisatie zelf zal moeten worden uitgebreid met nieuwe functies om een transparante en niet-disruptieve migratie mogelijk te maken om te vermijden dat het systeem moet worden heropgestart. Naarmate de opslagvolumes stijgen en virtualisatie onvermijdelijk wordt, rijst ook de vraag naar de netwerken die deze data vervoeren. De oorlog tussen Ethernet met 10 Gbit/s en Fibre Channel met 16 Gbit/s zou gaan losbarsten omdat de kostprijs van een port van 10GbE snel zal dalen als gevolg van de vraag. De fabrikanten van harde schijven lijken immers af te stappen van FC om zich te concentreren op SAS, aangezien SAS 12 Gbit/s voortaan gestandaardiseerd is. Ook op het vlak van connectiviteit zou de veralgemening van usb 3.0 in pc's er naar verwachting voor zorgen dat er recordtransfersnelheden worden bereikt. Vooral omdat werknemers steeds meer gebruik maken van hun eigen it-apparatuur op kantoor, een fenomeen dat bekend staat onder de naam it-consumerisatie. Deze vaak mobiele uitrusting (tablets of laptops) moeten ook worden beschermd op het vlak van gegevens, die dus systematisch moeten worden gebackupt. Tot slot zou de nieuwe Thunderbolt-interface van Intel/Apple moeten zorgen voor een revolutie in de transfer van zware bestanden, zoals video's. Op dit moment is Apple de enige fabrikant die dit soort interface aanbiedt en het aanbod van opslagsystemen die Thunderbolt ondersteunen is nog vrij beperkt en duur. De beslissing van Intel om dit te integreren in zijn eigen processors zou dit alternatief voor usb 3.0 dus een impuls kunnen geven. Met het oog op kostenbesparingen en/of milieubescherming vormt de energie-efficiëntie van de opslagsystemen ook een prioriteit voor cio's. Want opslag verbruikt veel elektriciteit om de systemen van stroom te voorzien en af te koelen, om nog maar te zwijgen van de CO2-uitstoot (en de hieraan gekoppelde CO2-taksen). Consolidatie en virtualisatie hebben al wel deels bijgedragen tot de daling van de energiekosten, maar er zal meer nodig zijn, soms genoodzaakt door een energie die moeilijker te krijgen is, en zeker duurder wordt. Technologieën zoals front-to-back-koeling of de insluiting van warme en koude lucht, zouden echter meer ingeburgerd geraken. Cloud zorgt ongetwijfeld voor een vloedgolf in de informaticawereld in het algemeen, en die van opslag in het bijzonder. Een - privé, publieke of hybride - cloud waar iedereen over praat... vooral de leveranciers. De - financiële - voordelen zijn onmiskenbaar, maar veiligheid blijft een teer punt. Vooral omdat sommige wetgevingen vereisen dat de gegevens worden opgeslagen op een speciale plaats. Deze garantie kan wel worden geboden, maar hoe zit het dan met de back-up van deze gegevens? Bovendien maken de afschrijvingstermijnen van de opslaguitrusting het niet altijd mogelijk om zo drastisch van strategie te veranderen. Cloud kan bovendien worden overwogen voor zowel de primaire gegevens als voor back-up of archivering. Tot slot kun je bij opslag niet meer om het fenomeen van big data heen. Ook al is de term naar onze mening slecht gekozen. Want de hoeveelheid gegevens is exponentieel gegroeid. Maar het feit dat gegevens nu vaak ongestructureerd zijn, maakt de opslag er niet gemakkelijker op, en zeker niet het opzoeken of het benutten van deze gegevens. Bovendien komen er tools bij kijken die zich niet beperken tot opslag. Zo is er Hadoop, het open source-project van de Apache Software Foundation dat een systeem voor gegevensverwerking wil creëren dat kan evolueren (gebaseerd op Map Reduce en het Google File System) voor de opslag en verwerking van grote hoeveelheden data. Hadoop was oorspronkelijk bedoeld voor onderzoeksprojecten, maar wordt nu in toenemende mate gebruikt in bedrijven, bv. bij JPMorgan, voor de opsporing van fraude en risicobeheer, of bij de veilingsite eBay voor zijn zoekmachine en bij Yahoo. Het platform is sinds eind 2011 beschikbaar in versie 1.0, terwijl EMC sinds kort HDFS (Hadoop Distributed File System) integreert in zijn NAS Isilon. Marc HusquinetStorage is een grote investeringspost die voorrang krijgt in de onderneming, maar er is geen sprake van dat de kranen helemaal open worden gezet. De zoektocht naar optimale efficiëntie van de infrastructuur is immers een must.