Datamanagement helpt het overzicht te bewaren
Data is het nieuwe goud, maar het volume en de verspreiding van de data van een bedrijf nemen veel sneller toe dan zijn goudvoorraad ooit zal doen. Datamanagement is daarbij essentieel om het geheel onder controle te houden.
De geografische spreiding van data is een trend waar corona duidelijk een versnelling op heeft gezet. In het jargon praten specialisten over geo dispersion. Data bevinden zich niet langer exclusief in een eigen datacenter, maar verspreiden zich almaar sneller ook over de cloud en de edge. Tegelijk blijft het datavolume toenemen. Het verdubbelt iedere achttien tot twintig maanden, waarbij negentig procent van de data ongestructureerd is. De grote uitdaging is dan ook om het gepaste datamanagement te voorzien op (heel) grote schaal.
Plan voor honderd jaar
Bij sommige organisaties gaat het niet alleen om grote schaal, maar ook om heel lange termijn. Princeton University is een goed voorbeeld. De universiteit bestaat sinds 1746 en behoort tot de absolute top. Onder meer Einstein en Oppenheimer waren aan het instituut verbonden. ‘De universiteit wil zijn bibliotheek digitaliseren’, zegt Jason Lohrey, de oprichter en CEO van Arcitecta. Data News bezocht het bedrijf in Louisville, nabij Denver, in het kader van de IT Press Tour. ‘Princeton University werkt daarvoor een datamanagementplan uit voor de komende honderd jaar.’
Wie daar even bij stilstaat, komt meteen tot een onthutsende vaststelling. Zal de universiteit de komende honderd jaar werkelijk iedere vijf jaar – de gebruikelijke refresh in hardware – haar complete digitale bibliotheek migreren? En zo ja, hoe zal een onderzoeker in pakweg 2040 de weg vinden naar data uit 2024? ‘Dat is echt een grote uitdaging op het vlak van datamanagement’, zegt Lohrey. ‘De universiteit werkte vroeger veel met IBM, later ook met Dell EMC Isolon. Maar om helemaal onafhankelijk te zijn van de gebruikte technologie, schakelt ze nu Arcitecta in voor datamanagement.’ Aan de hand van metadata zorgt de oplossing ervoor dat data vindbaar blijven.
Flexibiliteit voor AI-experimenten
Een bijkomende moeilijkheid – behalve het groeiende datavolume – is zoals gezegd de locatie waar al die data zich bevinden. Het hybride model is in opmars. ‘Jazeker, er zijn bedrijven die alles volledig in de cloud doen’, zegt Kiran Bhageshpur, CTO bij Qumulo, ‘maar de realiteit is toch dat de meeste bedrijven nog altijd heel veel on-prem opslag beheren.’ Toch treedt de cloud almaar duidelijker op het voorplan, en daar speelt Qumulo op in. De naam van het bedrijf uit Seattle verwijst niet toevallig naar cumulus, het Latijnse woord voor wolk. Data News ontmoette de CTO in het kantoor van zijn investeerder in Menlo Park, in Silicon Valley.
‘Je moet ergens naartoe kunnen met je data’
‘De cloud biedt goede bescherming tegen ransomware, bijvoorbeeld’, zegt Bhageshpur, ‘maar bedrijven willen vooral meer flexibiliteit voor hun workloads, bijvoorbeeld in de context van experimenten met AI. Dat is de grootste drijfveer om naar de cloud te gaan.’ Qumulo biedt een oplossing die alles overspant: on-prem, cloud en edge.
Qumulo schuift de voordelen van de cloud daarbij uitdrukkelijk naar voren. Het bedrijf doet dat onder meer door zijn oplossing als SaaS aan te bieden op Azure, zowel voor cold als voor hot data. ‘Zo bieden we schaalbare performantie en capaciteit, tegen een kostprijs die vergelijkbaar is – of beter – dan on-prem’, klinkt het. Op de website van Qumulo kun je als gebruiker zelf makkelijk keuzes maken. ‘Een deployment is klaar in enkele minuten, terwijl je on-prem een traject van maanden nodig zou hebben om alle hardware te bestellen en gebruiksklaar te maken.’ Wie vandaag snel met AI-toepassingen wil experimenteren, kan zich die lange doorlooptijd simpelweg niet meer veroorloven.
Een waardig einde voor elke applicatie
Een topic die in de context van datamanagement vaak onderbelicht blijft, is alles wat met application decommissioning te maken heeft. Wanneer een applicatie het einde van haar levenscyclus bereikt, blijft een bedrijf ze ook daarna vaak nog een hele tijd aan de praat houden. Want ja, die applicatie blijkt de enige manier te zijn om toegang te behouden tot de data. ‘Je moet ergens naartoe kunnen met je data’, zegt John Ottman, Executive Chairman bij Solix Technologies, iets verderop in Silicon Valley, in Santa Clara. ‘Je wil vermijden dat je bijvoorbeeld een mainframe in stand houdt, niet omdat je er nog echt applicaties op draait, maar gewoon om data te bewaren.’
Volgens Solix zouden bedrijven gemiddeld twintig procent van hun applicaties in gebruik houden, enkel en alleen als ersatz voor de opslag van data. ‘Alleen al daarin schuilt een enorm besparingspotentieel’, legt John Ottman uit. Het is één van de redenen waarom Solix een dataplatform ontwikkelde dat alle mogelijke datatypes samenbrengt. ‘Het zorgt ervoor dat je bijvoorbeeld geen oude infrastructuur of applicaties in stand moet houden, inclusief de bijhorende expertise. Via het dataplatform kan een bedrijf zijn data bewaren, zodat het perfect compliant is, maar dan zonder de onnodige kosten voor applicaties die eigenlijk allang niet meer in gebruik zijn.’
Fout opgemerkt of meer nieuws? Meld het hier