AI dwingt storage-leveranciers tot innovatie
Bedrijven beseffen het al langer: de berg data waarop ze zitten, vormt de grondstof die ze nodig hebben om met AI waarde te creëren. Maar die data zitten vast in allerlei opslag- en back-upsystemen. Ze efficiënt ontsluiten, is vandaag de grote uitdaging voor de leveranciers van storage-oplossingen.
Dat is onder meer waar Hammerspace op inzet. Data News ontmoette het bedrijf in Denver, in het kader van de IT Press Tour. ‘Uiteraard hebben bedrijven waardevolle data’, zegt CMO Molly Presley, ‘maar die bevinden zich in silo’s.’ Daar vlot mee werken, spreekt niet altijd vanzelf. Gebruikers die data willen ophalen, bijvoorbeeld vanop back-ups die in de cloud of ergens op tape staan, moeten daar vaak uren op wachten. Anders gezegd: de infrastructuur is lang niet altijd klaar voor het AI-tijdperk. En wanneer iets niet verloopt zoals de gebruikers het zouden willen, zoeken ze zelf een uitweg. ‘Dat leidt tot copy sprawl’, klinkt het. Dat is het fenomeen waarbij gebruikers heimelijk een ‘eigen’ kopie van de data achter de hand houden, met niet alleen oplopende kosten als gevolg, maar ook problemen op het vlak van governance en veiligheidsrisico’s.
Met klassieke opslagsystemen lukt het nauwelijks om toegang te krijgen tot die data in silo’s. De architectuur van Hammerspace kiest daarom voor een andere benadering. ‘We beschouwen de complete storage-omgeving als één filesysteem’, legt Presley uit. Onder die laag kan in principe gelijk welk type opslag zitten: cloud, tape, object, enzovoort. ‘Dat voelt aan als magie’, lacht ze, ‘omdat alles er onmiddellijk toegankelijk is.’ Volgens Hammerspace zou zijn Hyperscale NAS dankzij die aanpak de snelste oplossing ter wereld zijn voor AI-training. Onder meer Meta steunt voor AI-toepassingen op Hammerspace. Het bedrijf liet Hammerspace onlangs twee storageclusters opzetten met elk 24.000 GPU’s.
De silo’s connecteren
AI is dezer dagen ook het trefwoord bij BMC. We ontmoeten CTO Ram Chakravarti op kantoor in Santa Clara. ‘De voorbije jaren hoorden we zowat overal hetzelfde verhaal’, zegt hij. ‘Bedrijven zagen hun datavolumes alleen maar groeien en vroegen zich af hoe ze daar iets waardevols mee konden doen, bij voorkeur zonder extra druk op de resources. Wel, dat antwoord hebben we intussen: dat doe je met AI.’
‘Net zoals dat ook bij elke andere vorm van innovatie het geval is, kost het erg veel moeite om AI succesvol in de praktijk te brengen.’
Alleen blijkt dat in de praktijk toch niet zo makkelijk. ‘Net zoals dat ook bij elke andere vorm van innovatie het geval is, kost het erg veel moeite om AI succesvol in de praktijk te brengen.’ BMC lost dat op door met zijn Helix-platform voluit de kaart van de zogenaamde full-stack observability te trekken: van het mainframe, via de cloud, tot de edge. ‘We geloven sterk dat alle Ops verbonden moeten zijn: DevOps, DataOps, AIOps, noem maar op’, legt Ram Chakravarti uit. ‘Het gaat erom de silo’s te connecteren.’
Oplossingen verbeteren (of nieuwe bedenken)
Tot zover zijn we mee. Heel wat bedrijven behandelen hun data inderdaad als een asset. Maar tegelijk schopt bijna de helft van de grote dataprojecten het nooit tot de productiefase. BMC claimt dat beter te kunnen met zijn Helix-platform: een verzameling van 200 microservices, zowel via de cloud als on-prem beschikbaar. Het platform is in staat om heel snel data op te nemen en daarna met AI bestaande oplossingen te verbeteren of nieuwe toepassingen mogelijk te maken.
‘Denk aan het opsporen van afwijkend gedrag in systeembeheer, of het voortdurend verbeteren van een bepaalde service.’ Het is daarbij zaak een afwijking op te merken en op te lossen voor die de kans krijgt in een echt probleem te veranderen. ‘Neem nu een systeembeheerder van wie de taak vooral uit troubleshooten bestaat. Die krijgt via HelixGPT een overzicht van wat er gebeurt.’ Het systeem bouwt een tijdlijn op die laat zien tot waar alles goed ging en waar het begint scheef te lopen. Het voegt er een voorspelling aan toe van wanneer het echt fout zou gaan en formuleert met GenAI een suggestie voor wat er moet gebeuren om de situatie te herstellen.
Flash voor hot data… en AI
Zoals eerder aangehaald: voor AI is veel data nodig. ‘Maar dat betekent daarom niet dat je alles op flash moet bewaren’, vertelt CEO Jamie Lerner in het hoofdkwartier van Quantum, in Centennial bij Denver. Het komt erop aan de juiste data op de juiste drager te zetten. In de praktijk heeft een bedrijf amper tien procent van zijn data echt regelmatig nodig. ‘Uiteraard is het zinvol die hot data op flash te bewaren. Zowat dertig procent is warm data. Daarvoor volstaat opslag op schijf, wat toch drie keer goedkoper is. En voor de zestig procent cold data is tape goed genoeg, nog eens vier à vijf keer goedkoper dan opslag op schijf.’
Maar om resultaat te boeken met AI, heb je krachtige systemen nodig die grote volumes aankunnen. Quantum ziet daardoor meer en meer bedrijven die kiezen voor all-flash on-prem opslag. Begin april kondigde Quantum in dat verband ActiveScale Z200 aan: een all-flash-oplossing, specifiek bedoeld om makkelijk met AI te kunnen werken. ‘Tegelijk merken we dat meer en meer bedrijven ook een volledige kopie van hun data in de cloud bewaren, gewoon voor de zekerheid. Het uitgangspunt is dat ze die data in het ideale geval nooit uit de cloud moeten terughalen. Zelfs wanneer ze van hyperscaler veranderen, doen ze dat niet, gewoon omdat het veel te kostelijk is. In dat geval nemen ze een nieuw contract bij een andere leverancier en doen ze opnieuw een upload van de data die ze on-prem bewaren.’
Fout opgemerkt of meer nieuws? Meld het hier