OpenAI komt met nieuwste generatie van zijn AI-taalmodel: GPT-4
Het nieuwe algoritme moet minder antwoorden verzinnen, en kan zowel met tekst als met beelden werken.
OpenAI, het bedrijf achter ChatGPT, heeft een nieuwe versie van zijn taalalgoritme aangekondigd. GPT-4 is, volgens de makers, creatiever en ‘menselijker’ dan voorgaande versies en zou moeilijke problemen accurater kunnen oplossen. De AI kan zowel input verwerken uit beelden als uit tekst, maar genereert zelf alleen tekst.
Wel wijzen de makers erop dat GPT-4 nog veel van de problemen heeft die eerdere versies ook hadden. ‘In gewone conversaties is het verschil tussen GPT-3.5 en GPT 4 vrij subtiel’, zo schrijft OpenAI. Zo kan de AI nog altijd sommige informatie verzinnen, en kan het algoritme dreigende of kwetsende taal genereren. Die laatste twee problemen kwamen de voorbije maanden naar boven toen het grote publiek de kans kreeg om ChatGPT te testen.
Wel opvallend is de nieuwe beeldverwerking. Zo kan GPT-4 beelden herkennen en bijvoorbeeld maaltijden adviseren, gebaseerd op een foto van wat er in je koelkast staat.
Bing
Het nieuwe model is te testen voor mensen met een abonnement op ChatGPT Plus, de betaalde dienst van zo’n twintig dollar per maand die OpenAI aanbiedt. Maar wie het model aan de slag wil zien, kan eigenlijk ook gewoon de Bing chatrobot proberen. Microsofts zoekmachine gebruikt al het GPT-4 model, zo maakte het bedrijf bekend. Het gaat hier dan wel om een aangepaste versie voor de zoekmachine. De Bing chatbot maakt samenvattingen en schrijft antwoorden op vragen, op basis van zoekresultaten. Er is een wachtlijst voor wat officieel nog altijd een betatest is.
Naast Microsoft werkt OpenAI ook samen met enkele andere bedrijven, waaronder financiële startup Stripe. Die gebruikt GPT-4 om zakelijke websites te scannen. Taalleerapp Duolingo verwerkt de AI in zijn opleidingen en ook bedrijven als Morgan Stanley en Khan Academy hebben GPT-4 al getest voor automatische samenvattingen en opleidingen.
Fout opgemerkt of meer nieuws? Meld het hier