HPE gaat voor AI-native architectuur
Kunstmatige intelligentie domineert vandaag zowat elk gesprek over technologie. Daarom zet HPE in op de ontwikkeling van oplossingen die bedrijven helpen hun business AI-driven te maken, zo meldt het bedrijf op zijn edge-to-cloud conferentie HPE Discover in Barcelona.
De lancering van ChatGPT in oktober vorig jaar maakte het potentieel van artificiële intelligentie in de praktijk plots heel zichtbaar. ‘Door de opkomst van generatieve AI zijn bedrijven zich er steeds meer van bewust welke data en rekenkracht ze nodig zullen hebben om AI-modellen efficiënt te doen werken’, vertelt CEO Antonio Neri op HPE Discover.
Zijn keynote stond – weinig verrassend – voor een groot deel in het teken van artificiële intelligentie en de noodzaak van bedrijven om daarvoor over de nodige mensen, middelen en materiaal te beschikken. Want meer dan ooit willen bedrijven eigen AI-modellen ontwikkelen. ‘De AI-native en hybride cloudoplossingen van HPE maken het voor bedrijven mogelijk om op basis van vooraf ontworpen modellen hun eigen AI-modellen te ontwikkelen en die te finetunen met hun eigen bedrijfsdata,’ aldus Neri
Bedrijven kunnen dat bovendien allemaal perfect on-premise doen, zo stelt HPE, zonder dat ze hun bedrijfsdata moeten verplaatsen en mogelijk aan risico’s blootstellen op een externe locatie. Het is op die manier dat HPE zich wil onderscheiden van concurrenten als Microsoft en Google.
Uitbreiding van GreenLake
Voor hun AI-strategie zullen bedrijven hun cloud-based omgeving hoe dan ook moeten uitbreiden, denkt HPE. In die context schuift het bedrijf zijn GreenLake-platform opnieuw naar voren als suite van on-premise cloudservices. Zo koos het Belgische Mediahuis onlangs nog voor HPE GreenLake als oplossing voor zijn cloudinfrastructuur.
Dat portfolio breidt HPE nu verder uit met een cloud-based service, aangedreven door zijn eigen supercomputers, om de AI-toepassingen van bedrijven te ondersteunen. De service zal beschikbaar zijn in de eerste helft van 2024.
Toegankelijke AI
Verder ontwikkelde HPE samen met hardwareproducent Nvidia een AI-native stack: een combinatie van software en hardware die specifiek bedoeld is om bedrijven vooraf geconfigureerde AI-modellen te laten finetunen in de eigen on-premise omgeving. Het doel is om het bedrijven, ongeacht hun omvang, makkelijker te maken AI te gebruiken. De oplossing stelt gebruiksvriendelijkheid voorop, wat bedrijven moet toelaten de AI-modellen aan te passen met hun eigen data en ze te implementeren, zowel vanaf lokale apparaten als via cloudgebaseerde systemen.
Cloud of on-premise?
Het nieuwe AI-platform omvat ook een vernieuwde versie van het orkestratieplatform HPE Ezmeral, dat bedrijven in staat moet stellen sneller en gemakkelijker gegevens te verwerken, analyses te maken en AI-taken uit te voeren. Het softwareplatform maakt het mogelijk om applicaties in de cloud of on-premise uit te voeren en is ontworpen om vlot te werken in verschillende cloudomgevingen. De nieuwe versie maakt de integratie met de HPE Machine Learning Development Environment Software makkelijker, waarmee bedrijven hun AI-modellen kunnen verbeteren.
Capaciteiten voor digital twins
Tot slot plaatste HPE in Barcelona ook de GreenLake Flex-oplossing voor digital twins in de kijker. Die laat bedrijven toe hun productieprocessen sneller te simuleren en in een virtueel model gieten. ‘De oplossing draait op een multi-GPU framework’, zegt Antonio Neri. ‘Daarmee bieden we bedrijven de noodzakelijke infrastructuur, software en services aan om voluit voordelen te halen uit industriële digitalisering.’
Fout opgemerkt of meer nieuws? Meld het hier