HPE introduceert single-memory computer voor Big Data-tijdperk
Hewlett Packard Enterprise (HPE) introduceert single-memory computer die specifiek is ontwikkeld voor het opkomende Big Data-tijdperk. De computer is onderdeel van The Machine, het grootste Research & Development traject van HPE ooit. Het onderzoeksproject richt zich op de ontwikkeling van Memory-Driven Computing, een nieuwe architectuur voor het verwerken van Big Data
“De volgende grote wetenschappelijke doorbraak, de innovaties die de IT veranderen en de technologie die levens gaat veranderen liggen verscholen in de enorme hoeveelheden data die we dagelijks creëren”, aldus Meg Whitman, CEO van Hewlett Packard Enterprise. “Om deze innovaties mogelijk te maken, kunnen we niet blijven leunen op technologieën uit het verleden. We hebben een computer nodig voor het Big Data-tijdperk.”
Complete datasets verwerken in single-memory system
Het prototype dat HPE heeft geïntroduceerd bevat 160 terabyte (TB) geheugen en kan gelijktijdig werken met data uit omgerekend ongeveer 160 miljoen boeken, acht keer zo veel als alle boeken uit de Library of Congress. HPE stelt dat het voor het eerst is dat datasets van dit formaat in een single-memory system kunnen worden bewaard en bewerkt.
Op basis van het huidige prototype verwacht HPE de architectuur te schalen naar een single-memory system op exabyteschaal en in later stadium naar een vrijwel oneindige bron van geheugen: 4.096 yottabytes. Dit is 250.000 keer meer dan het complete digitale universum op dit moment. Met deze hoeveelheid geheugen is het mogelijk om op hetzelfde moment met ieder digitaal medisch dossier op aarde, alle data van Facebook, iedere rit van de zelfrijdende auto’s van Google en iedere dataset uit ruimteonderzoek te werken. Dit brengt nieuwe mogelijkheden en antwoorden op uitzonderlijk tempo aan het licht.
Van ‘the intelligent edge’ tot supercomputers
“Wij geloven dat de technologie-industrie met Memory-Driven Computing voor vooruitgang kan zorgen in alle aspecten van de samenleving”, aldus Mark Potter, CTO bij HPE en directeur van Hewlett Packard Labs. “De ontwikkelde architectuur kan op elke computercategorie worden toegepast, van apparaten op ‘the intelligent edge’ (de rand van het netwerk) tot supercomputers.”
Memory-Driven Computing zet het geheugen – en dus niet de processor – centraal in de computingarchitectuur. Door de inefficiëntie van interactie tussen geheugen, storage en processors in traditionele systemen te elimineren, bespaart Memory-Driven Computing de benodigde tijd om complexe problemen te verwerken. Hiermee wordt realtime-intelligence mogelijk.
Technische specificaties
Het nieuwe prototype bouwt voort op de resultaten van het onderzoeksproject van The Machine waaronder:
- 160 TB shared memory, verspreid over 40 fysieke nodes, met elkaar verbonden door een high-performance fabric protocol.
- Een geoptimaliseerd op Linux gebaseerd besturingssysteem (OS) dat draait op Thunder X2 van Cavium.
- Photonics/Optical communication links zijn online en operationeel, inclusief de nieuwe X1 photonics module.
- Softwareprogrammeringstools om gebruik te kunnen maken van grote hoeveelheden persistent memory.
Meer over Memory-Driven Computing en het onderzoeksproject The Machine is te vinden op www.hpe.com/TheMachine.
In samenwerking met Dutch IT-Channel.
Fout opgemerkt of meer nieuws? Meld het hier