Foxconn wil efficiënter worden met eigen taalmodel

© Anadolu via Getty Images
Pieterjan Van Leemputten

Foxconn, een van de grootste hardwarefabrikanten ter wereld, heeft haar eigen LLM klaar. Daarmee wil het haar productie verbeteren.

Voor zover bekend is Foxconn niet van plan om een algemeen large language model (LLM) uit te brengen zoals OpenAI (ChatGPT), Meta (Llama) of DeepSeek. Wel wil het met de technologie haar productieprocessen en toeleveringsketen beter beheren.

Het model krijgt volgens Reuters de naam ‘FoxBrain’ mee en werd getraind op 120 H100 GPU’s van Nvidia over een periode van vier weken. Daarbij was het al gebaseerd op de Llama 3.1 architectuur van Meta en kreeg het ondersteuning van Nvidia en diens Taiwanese supercomputer Taipei-1. Foxconn produceert onder meer AI-servers voor Nvidia. Bij het grote publiek is het bedrijf vooral bekend als de maker van de iPhone en tal van andere Apple-toestellen, al produceert het bedrijf toestellen voor verschillende grote techspelers.

Wat het model verder ook bijzonder maakt is dat het om de het eerste taalmodel zou gaan dat kan redeneren, maar tegelijk geoptimaliseerd werd voor traditioneel Chinees en Taiwanees.

FoxBrain moet volgens Reuters onder meer ingezet worden in data-analyse, het nemen van beslissingen, wiskunde, documenten, het oplossen van problemen en het genereren van code. Het wil in de toekomst ook meer details publiek maken. Dat zal onder meer gebeuren midden deze maand tijdens de GTC-conferentie van Nvidia.

Fout opgemerkt of meer nieuws? Meld het hier

Partner Content