
Voorpublicatie: Technologie en recht – Hoe bewaar je het evenwicht?
In het boek ‘Technologie en recht’ vertrekken auteurs Georges Gielen, Peggy Valcke, Jan De Bruyne en Victoria Hendrickx vanuit technologische ontwikkelingen (big data, AI, privacy en cyberveiligheid), maar stellen ze kritische vragen over die evolutie. Hoe bewaar je het evenwicht tussen technologie en recht? Welke juridisch-ethische overwegingen en regelgeving moet je in acht nemen? We bieden je hier een voorsmaakje met een deel uit het hoofdstuk over de regulering van AI-technologie.
De fundamentele impact die AI op onze samenleving heeft en in toenemende mate zal hebben – volgens sommigen vergelijkbaar met de boekdrukkunst in de 15e eeuw, de stoommachine in de 18e eeuw, de elektriciteit op het einde van de 19e eeuw, en het internet in de 20e eeuw (Wetenschappelijke Raad voor het Regeringsbeleid, 2021), dwingt ons om na te denken over welke ontwikkelingen wenselijk, of moreel aanvaardbaar zijn. De voorbije jaren zijn door verschillende overheids- en private organisaties, binnen en buiten Europa, richtsnoeren aangenomen om de ontwikkeling en de implementatie van AI te reguleren. Die richtsnoeren zijn van diverse aard: moreel, juridisch, economisch en/of technisch, en houden verband met de modaliteiten van regulering, zoals voorgesteld door Lawrence Lessig in het boek Code and Other Laws of Cyberspace uit 1999 (herzien in 2006). Lessig identificeert vier modaliteiten van regulering: recht, normen, markt en architectuur. De modaliteiten dienen zowel ter regulering als sanctioneringsmechanisme om het gedrag van mensen te beperken (Lessig, 1999; Lessig, 2006).
Sinds dat boek is het besef gegroeid dat de technische architectuur van dingen ons gedrag in zeer sterke mate kan sturen, en zelfs in staat is om een systeem van perfecte afdwinging te creëren. In het boek richt Lessig zich op programmeercode of software, maar het kan evenzeer gaan om verkeersdrempels om snelheidslimieten af te dwingen of motorvoertuigen die geprogrammeerd zijn zodat ze maar kunnen starten als de bestuurder een negatieve alcohol- of drugstest aflegt. In dat geval is het verbod om te rijden onder invloed (quasi) perfect afdwingbaar.
De verschillende modaliteiten, of normeringsinstrumenten, bestaan niet los van elkaar, maar beïnvloeden elkaar en spreken elkaar idealiter niet tegen. Er is geen hiërarchie tussen modaliteiten, hoewel sommige meer effectief kunnen zijn, zoals architectuur, en andere meer democratisch, zoals het recht (de Oliveira Santos Coinage, 2020). Hieronder overlopen we de modaliteiten van Lessig meer in detail, namelijk het recht, de normen, de markt en de architectuur.
Recht
Het recht is de eerste modaliteit om het gedrag van mensen te reguleren. Het recht verwijst naar het geheel van wettelijk bindende regels die door de overheid worden opgelegd. Het bepaalt op een formele wijze wat toegelaten en verboden gedrag is. Recht reguleert door middel van publieke dwang en door sancties ex post op te leggen: als iemand zich niet volgens de regels gedraagt, kan de overheid deze persoon dwingen om zich aan de regels te onderwerpen. Op die manier kan recht worden ingezet om de ontwikkeling en het gebruik van AI te reguleren. Denk bijvoorbeeld aan de AI-Verordening in de EU of aan andere wettelijke regels buiten Europa.
Normen
Een tweede modaliteit om menselijk gedrag te reguleren, is door middel van sociale en ethische normen. Normen verwijzen naar de verwachtingen en gedeelde opvattingen over hoe mensen geacht worden zich te gedragen. Normen functioneren als een gemeenschap die iemand kan aansporen zich op een bepaalde manier te gedragen, uitsluitend op basis van verwachtingen van anderen en de wens om bij de gemeenschap te horen. Ze spelen een belangrijke rol in de naleving van regels door individuen een gevoel van schuld te geven als ze een norm overtreden, zelfs als er geen formele handhaving is. Hoewel zowel recht als normen ongewenste gevolgen voorzien bij niet-conformiteit, ligt het verschil in de aard van die gevolgen: bij recht zijn die geïnstitutionaliseerd en afgedwongen door een centrale autoriteit; bij normen worden ze informeel afgedwongen door sociale druk. Denk bijvoorbeeld aan sociale verwachtingen over welke grappen acceptabel zijn, hoe men zich moet gedragen binnen een bepaalde groep of wat als respectvol wordt beschouwd in specifieke situaties (Lessig, 1998).
Uiteraard bestaat er een sterke band tussen ethiek en recht. In essentie kan men stellen dat ethiek of moraal aan de basis ligt van het recht, en dat het recht de belangrijke waarden die centraal staan in onze visie van een goede, rechtvaardige maatschappij, incorporeert, zoals fundamentele rechten of het concept van de bonus pater/mater familias in het aansprakelijkheidsrecht. Ethiek dient ook als leidraad bij de interpretatie van het recht, vooral als het recht onduidelijk is door technologische, economische, sociale ontwikkelingen, of in het geval van conflict tussen rechtsregels. Tot slot dient ethiek ook als toetssteen voor het recht als bestaande regels aangepast moeten worden of nieuwe regels ingevoerd worden, bijvoorbeeld in reactie op veranderende maatschappelijke voorkeuren of radicaal nieuwe technologieën. Floridi maakt in dat verband een onderscheid tussen soft ethics (“what should be done over and above the law but not against it, or despite its scope”) en hard ethics (“the role of ethics to challenge existing laws and informing new ones as they are being formulated”) (Floridi, 2018).
De laatste jaren hebben zowel publieke als private organisaties het initiatief genomen om normen voor de ontwikkeling en de implementatie van AI-systemen uit te werken. Het voornaamste nut van dergelijke richtsnoeren ligt in hun kompasfunctie: ze geven organisaties een houvast bij de ontwikkeling en het gebruik van AI – maar ze zijn niet als dusdanig in rechte afdwingbaar. Hieronder bespreken we enkele sociale en ethische normen die het gebruik van AI beïnvloeden. Daarbij valt op dat die normen vaak overlappen in de ethische principes die ze bevatten, zoals transparantie, rechtvaardigheid, en billijkheid, non-maleficence (vermijden van schade), verantwoordelijkheid en privacy. Daarnaast krijgen ethische overwegingen in verband met duurzaamheid, waardigheid, en solidariteit meer en meer aandacht. We bespreken ten eerste de Ethische Richtsnoeren voor Betrouwbare AI. In het boek staan we verder ook kort stil bij de Microsoft AI-principes en de aanbevelingen over de ontwikkeling van ethische AI door de Organisatie der Verenigde Naties voor Onderwijs, Wetenschap en Cultuur. We bespreken in het boek ook de Aanbeveling in verband met AI die door de Organisatie voor Economische Samenwerking en Ontwikkeling werd gepubliceerd in de Ethically Aligned Design door het Institute of Electrical and Electronics Engineers.
De Ethische Richtsnoeren voor Betrouwbare AI
Een eerste illustratie van ethische normen die de ontwikkeling en het gebruik van AI reguleren, zijn de zogenaamde ‘Ethische Richtsnoeren voor Betrouwbare AI’ van de Onafhankelijke Deskundigengroep op Hoog Niveau inzake Kunstmatige Intelligentie (ook gekend als de High-Level Expert Group on AI, AI HLEG) van de Europese Commissie. Die richtsnoeren kaderen in het ruimere AI-beleid van de Europese Unie. De AI HLEG, die al eerder werd besproken bij de bespreking van de definitie van AI, is een onafhankelijke deskundigengroep die in juni 2018 door de Europese Commissie werd opgericht met 52 vertegenwoordigers van de industrie, de academische wereld, en het middenveld. Aangezien de Europese Commissie de ontwikkeling van ‘ethische, veilige en geavanceerde AI in Europa’ tot een prioriteit heeft gemaakt (Europese Commissie, 2018), kreeg de AI HLEG de opdracht om de uitvoering van deze visie te ondersteunen door twee documenten op te stellen: (1) ethische richtsnoeren voor AI, en (2) aanbevelingen voor beleid en investeringen. Beide documenten werden gepubliceerd op 8 april 2019.
De Ethische Richtsnoeren beogen ‘betrouwbare AI’ (trustworthy AI) te bevorderen in de Europese Unie, en omschrijven eveneens wat daaronder moet worden verstaan. Betrouwbare AI bestaat uit drie componenten, waaraan gedurende de volledige levenscyclus van het systeem moet worden voldaan. Het AI-systeem moet (1) wettig zijn, door te voldoen aan alle toepasselijke wet- en regelgeving, (2) ethisch zijn, door naleving van ethische beginselen en waarden te waarborgen en (3) robuust zijn uit zowel technisch als sociaal oogpunt, aangezien AI-systemen ongewild schade kunnen aanrichten, zelfs al zijn de bedoelingen goed. De AI HLEG beschouwt elk van die drie componenten op zichzelf als nodig, maar niet voldoende om betrouwbare AI te bewerkstelligen. In het ideale scenario sluiten ze alle drie op elkaar aan en valt de werking ervan gedeeltelijk samen. In de praktijk kunnen er echter spanningen bestaan tussen die elementen (soms kunnen bijvoorbeeld het toepassingsgebied en de inhoud van de bestaande wetgeving niet in lijn zijn met de ethische normen).
De EU richtsnoeren vertrekken van vier ethische principes, namelijk menselijke autonomie, het vermijden van schade, billijkheid (fairness) en verklaarbaarheid. Op basis daarvan worden zeven vereisten naar voren geschoven voor de verwezenlijking van betrouwbare AI, gebaseerd op de fundamentele rechten neergelegd in het EU Grond- rechtenhandvest en het Europees Verdrag voor de Rechten van de Mens (EVRM):
1 menselijke keuzevrijheid en controle;
2 technische robuustheid en veiligheid;
3 privacy en databeheer;
4 transparantie;
5 diversiteit, non-discriminatie en billijkheid;
6 milieu- en maatschappelijk welzijn;
7 verantwoording.
De richtsnoeren beschrijven ook technische en niet-technische methoden om boven- staande vereisten in de praktijk te verwezenlijken, en dat gedurende de gehele levens- cyclus van het systeem, gaande van ontwerp over ontwikkeling tot gebruik. Het omvat ook de analyse en de bijstelling van het oorspronkelijke ontwerp. De richtsnoeren gaan gepaard met een (niet-exhaustieve) controlelijst voor de operationalisering van betrouwbare AI, een praktische uitwerking van de richtsnoeren in een checklist die kan worden gebruikt door softwareontwikkelaars en gebruikers van AI. Die controle- of vragenlijst werd na een pilootproces bijgewerkt tot een finale checklist, beter bekend onder de naam ALTAI (Assessment List for Trustworthy AI). Die lijst werd in juli 2020 gepubliceerd onder de vorm van een statisch pdf-document, alsook onder de vorm van een dynamisch webgebaseerd instrument (AI HLEG, 2020).

Over het boek
‘Technologie en recht’ biedt inzicht in disruptieve technologische vernieuwingen en hun impact op de samenleving. Het hanteert een evenwicht tussen technologie en recht, het reikt enerzijds de technologische bouwstenen aan en haalt anderzijds de juridisch-ethische overwegingen en regelgeving aan. Het boek stelt juristen en andere niet-technologen in staat om kritisch te reflecteren over de technologische ontwikkelingen en hun maatschappelijke impact, en om in dialoog te kunnen treden met technische experten waar nodig.
· 59.95 euro
· Softcover, 624 pagina’s
· ISBN: 9789493410763
Over de auteurs
Auteurs George Gielen, Jan De Bruyne, Peggy Valcke en Victoria Hendrickx doceren allen aan KULeuven en zijn verbonden aan de onderzoeksgroep imec-KU Leuven – CiTip.
Fout opgemerkt of meer nieuws? Meld het hier