Wetenschappers waarschuwen voor ontsporende artificiële intelligentie
In nieuw rapport wijzen 26 onderzoekers van 14 verschillende organisaties op de gevaren van AI-algoritmes, als die in verkeerde handen terecht zouden komen. Ze geven ook een reeks aanbevelingen die de risico’s op ontsporing moeten beperken.
Een eerste gevaar dat de wetenschappers behandelen is het fenomeen van de ‘deepfakes‘. Een machinelearning-methode waarmee de gezichten van Hollywood-actrices op een geloofwaardige manier op de lichamen van pornoactrices worden geplaatst. De toepassing kwam tot stand op basis van open-source-materiaal dat afkomstig is van Google’s AI-ontwikkelaars.
Fake Trump
Volgens het rapport kunnen criminelen dergelijke methodes toepassen voor nog veel zorgwekkendere doeleinden. Denk bijvoorbeeld aan nepfilmpjes over wereldleiders. Als er morgen zo’n video zou opduiken waarin president Trump de oorlog verklaart aan Noord-korea, zouden de gevolgen immens kunnen zijn.
Maar het kan ook omgekeerd, want ook autoriteiten zouden AI kunnen inzetten om een ongeziene vorm van controle, onderdrukking en propaganda uit te oefenen op hun bevolking. Van zodra slimme algoritmes aan de slag kunnen met uitgebreide persoonsgegevens van mensen, zijn de mogelijkheden eindeloos.
Killerbots en IoT
Cybercriminaliteit is ook een enorme potentiële dreiging in combinatie met AI. Slimme software kan namelijk op enorme grotere schaal schade aanrichten met georganiseerde hacking-aanvallen. Op het Wereld Economisch Forum (WEF) begin dit jaar werd onlangs diezelfde mening gedeeld.
Daarnaast zien de onderzoekers vooral gevaren wat betreft Internet of Things-apparaten (IoT). Ze benadrukken dat slimme huizen die boordevol apparaten staan die verbonden zijn met het internet, een belangrijk doelwit vormen voor aanvallen. Als criminelen toegang kunnen krijgen tot slimme koelkasten of camera’s, betekent dat bijvoorbeeld een schat aan informatie om te misbruiken. Het rapport vernoemt ook specifiek zelfrijdende wagens.
Verder waarschuwen de wetenschappers ook voor AI-intelligente wapens en drone-invasies. Vorig jaar uitten verschillende CEO’s en experts van robots ook al hun bezorgdheid omtrent zogenaamde slimme ‘killer robots‘. In ons land riepen zo’n honderd Belgische robotica-en AI-experts de regering zelfs op om een nationaal verbod in te stellen op deze volledig autonome wapens.
‘Enkel licenties voor betrouwbare AI-ontwikkelaars’
Ten slotte geven de wetenschappers een reeks aanbevelingen die ons beter moeten leren omgaan met AI. Zij stellen voor om het gebruik van AI-technologie te laten monitoren door een onafhankelijk orgaan, zodat alle informatie gecentraliseerd wordt. Vervolgens zouden er dan alleen licenties uitgedeeld worden aan betrouwbare ontwikkelaars.
Daarnaast overweegt het 100 pagina’s tellend rapport ook de implementatie van verschillende niveaus van openheid omtrent AI-software. Niet elke instantie zou dezelfde mate van toegang moeten krijgen op informatie en materiaal dat met AI te maken heeft.
De wetenschappers verwachten binnen de vijf jaar een grote verhoging van de risico’s, als de technologie nog verder geëvolueerd is. Volgens hen is het nu aan de politiek om ons voor te bereiden, en de nodige limieten op te stellen. “Er zijn maatregelen nodig op zowel internationaal, nationaal, als lokaal niveau”,luidt de conclusie.
Fout opgemerkt of meer nieuws? Meld het hier