AirMettle versnelt opslaganalyse
Naarmate bedrijven steeds meer data opslaan, wordt ook de analyse van die volumes een uitdaging. AirMettle voert zoekopdrachten rechtstreeks in het data lake uit zonder eerst via een datawarehouse te gaan.
‘Datawarehouses zijn vandaag de dag inefficiënt en voegen complexiteit toe. Geheugen voor analyses is duur, net als rekenkracht, om nog maar te zwijgen van de kosten van netwerken’, merkt DonPaul Stephens, CEO en oprichter van AirMettle, op. We ontmoeten hem tijdens de IT Press Tour in Californië. Voor hem zijn analyses voor Big Data en AI traag en duur, en die kosten nemen alleen maar toe naarmate de datavolumes groeien. Bovendien bleek ‘computational storage’ – een infrastructuur die opslag en compute combineert – een mislukking, opnieuw in de ogen van de baas van AirMettle.
Data Lake
In het licht van die observaties, ontwikkelt AirMettle momenteel een analytisch opslagplatform op basis van standaardhardware (x86-servers) dat schaalbare parallelle verwerking integreert. Dit platform ondersteunt alleen objectopslag (wat tegenwoordig het grootste deel van de bedrijfsopslag is) om big data om te zetten in analyses (‘inzichten’). ‘We integreren analyses rechtstreeks in het datameer zelf, zonder een datawarehouse te gebruiken om SQL-query’s uit te voeren, waardoor onnodige gegevensoverdracht wordt geëlimineerd’, legt Stephens uit.
Bovendien gaat de technologie van AirMettle niet alle objecten volledig analyseren, maar vat het relevante subsets samen. Dat vermindert de volumes die de ontwikkelaar voor een bepaalde zoekopdracht moet verwerken, waardoor er een groter aantal historische gegevens kunnen worden bekeken. ‘We creëren metadata die analyses in de opslag mogelijk maken’, legt Stephens uit. ‘Hierdoor kunnen we SQL-query’s tot 100 keer versnellen op industriestandaard hardware.’
Inzet
Een van de pilotlocaties voor de AirMettle-oplossing is het Los Alamos National Laboratory (het laboratorium van het Amerikaanse ministerie van Energie) dat op dit platform grootschalige wetenschappelijke simulaties uitvoert. Dergelijke simulaties kunnen honderden petabytes aan genereren. In dit geval werkt het AirMettle-platform naast een supercomputer die zich richt op meer specifieke taken.
Andere potentiële klanten van AirMettle zijn bedrijven die gespecialiseerd zijn in SIEM (security information and event management) maar ook bedrijven in de biologie of videoanalyse, evenals de publieke sector: denk dan bijvoorbeeld aan onderzoek naar vermiste personen door middel van fotoanalyse.
‘Veel klanten moeten nu de manier veranderen waarop ze hun gegevens opslaan en analyseren’, concludeert DonPaul Stephens. Door betere prestaties, kostenbesparingen en gemakkelijkere toegang tot diverse gegevens in native formaat aan te bieden, opent AirMettle nieuwe mogelijkheden voor het navigeren en analyseren van big data. Zijn product moet medio 2024 op de markt komen.
Fout opgemerkt of meer nieuws? Meld het hier