Met Swarm Learning gaat het om een oplossing voor edge en distributed sites. Containers die in combinatie met de HPE swarm API vlot integreren met AI modellen zegt het bedrijf. Het grote voordeel van machine learning op de edge is daarbij dat grote datavolumes niet moeten verplaatst of gekopieerd worden.

Daarbij moet het mogelijk zijn om wat er wordt geleerd te delen, intern of extern, zonder dat er toegang is tot de brongegevens. Denk daarbij aan het analyseren van CT of MRI-scans om bepaalde zaken automatisch te herkennen, maar zonder dat iemand nadien toegang heeft tot de individuele scans.

Opmerkelijk genoeg zegt HPE daarbij dat het blockchain gebruikt om leden in zulke projecten te onboarden en dat moet verkopen dat enkel de data die de machines zichzelf aanleren kan worden gedeeld en niet de brondata zelf. Wat dat te maken heeft met blockchain is ons niet duidelijk, maar ongetwijfeld vond een marketeer bij HPE 'blockchain' nog hip genoeg klinken om te vermelden.

Machine Learning

Daarnaast komt het bedrijf ook met haar HPE Machine Learning Development System. Eigenlijk een machine op basis van de HPE Apollo 6500 Gen10 specifiek voor machine learning. Die machines worden standaard uitgerust met minstens acht 80GB Nvidia A100 tensor Core GPU's. De nieuwe machine komt verder uit de overname van Determined AI.

HPE belooft daarbij een end-to-end solution die zowel het machine learning softwareplatform, de rekenkracht, acceleratoren en networking bij elkaar zet om AI-modellen accuraat op grote schaal te trainen. Het bedrijf claimt daarmee sneller te zijn dan 'een cloudprovider' met 32 GPU's, zonder dat het daar verdere details rond geeft

Uniek is zo'n machine echter niet. Er zijn wel meer bedrijven die vandaag specifieke hard- en software maken specifiek voor AI en machine learning. Een daarvan is SambaNova dat naast haar eigen software ook haar eigen chip ontwikkelt voor haar machines. Daarover leest u meer in het volgend nummer van Data News dat deze week verschijnt.

Met Swarm Learning gaat het om een oplossing voor edge en distributed sites. Containers die in combinatie met de HPE swarm API vlot integreren met AI modellen zegt het bedrijf. Het grote voordeel van machine learning op de edge is daarbij dat grote datavolumes niet moeten verplaatst of gekopieerd worden.Daarbij moet het mogelijk zijn om wat er wordt geleerd te delen, intern of extern, zonder dat er toegang is tot de brongegevens. Denk daarbij aan het analyseren van CT of MRI-scans om bepaalde zaken automatisch te herkennen, maar zonder dat iemand nadien toegang heeft tot de individuele scans.Opmerkelijk genoeg zegt HPE daarbij dat het blockchain gebruikt om leden in zulke projecten te onboarden en dat moet verkopen dat enkel de data die de machines zichzelf aanleren kan worden gedeeld en niet de brondata zelf. Wat dat te maken heeft met blockchain is ons niet duidelijk, maar ongetwijfeld vond een marketeer bij HPE 'blockchain' nog hip genoeg klinken om te vermelden.Daarnaast komt het bedrijf ook met haar HPE Machine Learning Development System. Eigenlijk een machine op basis van de HPE Apollo 6500 Gen10 specifiek voor machine learning. Die machines worden standaard uitgerust met minstens acht 80GB Nvidia A100 tensor Core GPU's. De nieuwe machine komt verder uit de overname van Determined AI.HPE belooft daarbij een end-to-end solution die zowel het machine learning softwareplatform, de rekenkracht, acceleratoren en networking bij elkaar zet om AI-modellen accuraat op grote schaal te trainen. Het bedrijf claimt daarmee sneller te zijn dan 'een cloudprovider' met 32 GPU's, zonder dat het daar verdere details rond geeftUniek is zo'n machine echter niet. Er zijn wel meer bedrijven die vandaag specifieke hard- en software maken specifiek voor AI en machine learning. Een daarvan is SambaNova dat naast haar eigen software ook haar eigen chip ontwikkelt voor haar machines. Daarover leest u meer in het volgend nummer van Data News dat deze week verschijnt.