App store, meer data, minder codeerwerk: OpenAI zet turbo op ChatGPT
Op haar eerste ontwikkelaarsconferentie heeft OpenAI een hoop nieuwe functies rond ChatGPT gelanceerd. De tekstgenerator kan nu nog meer data tegelijk verwerken en opent een eigen app store voor ‘GPT’s’.
Het is ongeveer een jaar geleden dat OpenAI ChatGPT voor het eerst breed publiek beschikbaar maakte. Sindsdien heeft de technologie flink wat aandacht getrokken en daarbij zowel enthousiasme als paniek veroorzaakt. Een jaar later toont het bedrijf een aantal nieuwigheden voor professionele gebruikers. De volledige keynote van CEO Sam Altman kan je hier herbekijken.
Zelf chatbots maken
Voortaan kan je als ontwikkelaar zelf chatbots maken in je eigen apps met de tools van OpenAI. Je kan ook chatbots, die het bedrijf ‘GPT’s’ noemt, delen met anderen. Als voorbeeld noemt het bedrijf bijvoorbeeld een GPT die je leert koken of pokeren.
Later deze maand lanceert het bedrijf de GPT Store waar ontwikkelaars hun eigen creaties (optioneel tegen betaling) kunnen delen met anderen. Voor eindgebruikers benadrukt het dat ontwikkelaars geen inzage hebben in de chats die op zo’n GPT worden gevoerd.
OpenAI heeft voor de makers van zo’n bots of andere GPT-toepassingen Assistants API uitgebracht. Die kan met de functie Code Interpreter Python code in een sandbox laten draaien, data visualiseren en verschillende bestandsformaten verwerken. Ook hier benadrukt OpenAI dat data of bestanden die je invoert nooit worden gebruikt om het algemeen taalmodel te trainen.
Met ‘Retrieval’, kan je de AI verrijken met data van buiten het taalmodel, denk daarbij aan klantgegevens van je bedrijf of andere specifieke kennis, al dan niet met plugins. ‘Function calling’ laat je toe om functies te omschrijven en dat in de antwoorden te verwerken.
Wie ChatGPT Plus, de betalende versie van ChatGPT, gebruikt, krijgt voortaan input die gaat tot april 2023. Momenteel was dat september 2021.
Turbo: Meer input
Voor GPT-4, dat sinds de zomer voor ontwikkelaars beschikbaar is, is er in preview ‘GPT-4 Turbo’ beschikbaar. De tool kan 128K aan context verwerken. Dat komt neer op ongeveer 128.000 ‘tokens’ die tegelijk kunnen worden verwerkt. Eén token is ongeveer 4 tekens. Dat wil zeggen dat je de GPT-4 Turbo ongeveer 512.000 tekens aan tekst, ongeveer 300 pagina’s, in één keer kan laten verwerken om er antwoorden, samenvattingen, vertalingen of andere dingen uit te krijgen.
OpenAI zegt dat de Turbo-versie ook drie keer goedkoper is voor input tokens en twee keer goedkoper voor output tokens, in vergelijking met GPT-4. Concreet betaal je voor GPT-4 Turbo 0,01 dollar per input token en 0,03 per output token.
Momenteel is de tool nog in testfase, betalende klanten kunnen wel de gpt-4-1106-preview in de API gebruiken. Al melden ontwikkelaars op het forum dat dit nog niet universeel is. Vooral wie veel uitgeeft aan de tool, zit in een hogere klasse en kan momenteel al meer input laten verwerken. OpenAI zegt wel dat het in de komende weken een stabielere versie van GPT-4 Turbo zal vrijgeven. Die versie krijgt, voorlopig in preview, ook vision: de mogelijkheid om beelden in de chat in te voeren.
Ook GPT-3.5 Turbo, die al langer bestaat, krijgt een upgrade. Hier gaat de tekstgenerator naar een 16K contextvenster, komt er ook een JSON mode en parallel function calling. Wie vandaag al GPT-3.5-turbo gebruikt krijgt vanaf 11 december automatisch de upgrade. Oudere modellen blijven wel beschikbaar tot 12 juni volgend jaar. Ook hier verlaagt de prijs per token.
Minder complexiteit
Specifiek voor wie toepassingen met GPT ontwikkelt heeft OpenAI in de Turbo-versie een aantal nieuwe mogelijkheden zoals Function calling, waarbij je functies van je app of externe API beschrijft voor het model. Daarbij kan je meerdere acties tegelijk opgeven. Ook worden specifieke instructies, zoals ‘antwoord in XML’ beter opgevolgd. OpenAI zegt dat het ook output in een correct JSON object kan geven.
Er is voortaan ook, in beta, een ‘seed’ parameter, waardoor het mogelijk is om antwoorden van GPT-4 Turbo consistenter te houden. Dat maakt het eenvoudiger om antwoorden te reproduceren, bijvoorbeeld tijdens het testen van bepaalde zaken.
Bescherming tegen copyrightklachten
OpenAI heeft al langer ingebouwde copyrightbescherming in haar systemen. Dat wordt nu uitgebreid met ‘Copyright Shield’ waarbij het bedrijf zich sterk maakt om bij te springen als er klachten komen..
‘We zullen nu tussenkomen en onze klanten verdedigen, en de kosten daarvan dragen, als je juridische claims krijgt rond copyrightschending,’ klinkt het. Tenminste voor de functies in ChatGPT Enterprise en het ontwikkelaarsplatform.
Fout opgemerkt of meer nieuws? Meld het hier