Meta toont hoe AI video van tekst maakt
In een demo heeft Mark Zuckerberg getoond hoe het bedrijf rudimentaire video’s op basis van een tekstomschrijving maakt. Een tegenhanger van Dall-E, maar dan voor video.
Eerder dit jaar kwam Meta, het moederbedrijf van Facebook, al met Make-A-Scene waarbij je net zoals met Dall-E of Midjourney iets met een tekst kan beschrijven waarna de AI er een afbeelding van maakt. Nu gaat het nog een stap verder met Make-A-Video, waar hetzelfde gebeurt, maar dan met een AI-video.
Het gaat momenteel nog niet om een toepassing die je zelf kan testen. Op Facebook deelt Zuckerberg korte fragmenten van een teddybeer die zichzelf schildert, een robot op een surfplank en een ruimteschip dat landt. Grafisch ziet het er een beetje uit als beelden uit de jaren 80 omdat de resolutie nog vrij laag, maar dat het volledig door AI werd gegenereerd is verbluffend.
Beelden genereren op basis van AI komt ook met heel wat gevoeligheden. Zo bestaat de kans dat een systeem bepaalde stereotypes overneemt, bijvoorbeeld door een verpleegkundige als vrouw af te beelden en een arts als man, omdat zulke systemen zich laten sturen door bestaand beeldmateriaal. Tegelijk is er ook een risico op misbruik omdat het met zulke technologie heel makkelijk is om aan beeldmanipulatie te doen.
Gelijk met de aankondiging heeft Meta een onderzoekspaper gepubliceerd met meer details over haar werk. Het zegt ook dat dergelijke AI systemen steunen op publieke datasets, maar ook dat het open staat voor toekomstige feedback om haar onderzoeksproject te verfijnen.
Fout opgemerkt of meer nieuws? Meld het hier