Stormenderhand veroveren AI-bots de vloer bij advocatenkantoren en op de Legal afdeling van bedrijven. Hoe maken ze de juridische praktijk efficiënter, liefst zonder voor ’t gemak hun eigen wetteksten te hallucineren?
Laat uw kinderen niet meer voor juridisch assistent leren: kunstmatige intelligentie neemt die hele job al over. Niet binnen een jaar of twee, maar nù, vandaag. Alleen al in België werden er een half dozijn legal AI bots ontwikkeld, en die zijn al in gebruik bij tientallen advocatenkantoren en bedrijven met een juridische afdeling. Allemaal met hetzelfde doel: het pure priegel- en delfwerk in wetteksten, precedenten, beleidsnota’s en clausuledatabanken uit mensenhanden halen. Werk waarvoor mensen vroeger gingen studeren.
‘Dat er nieuwe, snel evoluerende, op AI gebaseerde technologische mogelijkheden zijn, neemt natuurlijk niet weg dat er ook in de toekomst nog juridische jobs en opleidingen zullen zijn, zowel op master- als op bachelorniveau’, zegt Christoph Zenner, managing partner voor tax & legal services bij het Belgische kantoor van PwC. ‘Ze zullen er alleen anders uitzien dan tien jaar, of zelfs maar twee jaar, geleden. Functies en rollen verdwijnen niet door AI, ze evolueren. Het profiel van de legal assistant, of hoe we dat binnenkort ook zullen noemen, wordt technischer, digitaler.We hebben daar trouwens nog een inhaalbeweging te maken: we moeten de mogelijkheden van technologie veel sterker integreren in onze opleidingen.’
Assistent in een advocatenkantoor was een van de allereerste blue collar-jobs waarop AI probeerde in te breken: dat proces is al in 2016 begonnen met de installatie van ROSS: de eerste AI legal assistant, gebaseerd op het Watson-systeem van computerreus IBM. Het ding haalde toen het wereldwijde nieuws op zijn nieuwigheidseffect, maar in 2021 ging letterlijk en figuurlijk de stekker eruit na teleurstellende resultaten: te duur, niet schaalbaar genoeg, te weinig zelflerend. Euvels die helaas precies op dat moment begonnen te worden weggewerkt door de huidige generatie kunstmatig intelligente taalmodellen. Zeker sinds die doorbraak van generatieve AI, eind 2022, is er een soort van wildgroei ontstaan van juridische AI-bots en de start-ups die ze hebben ontwikkeld.
‘Moves’ maken
Die laatste hebben de afgelopen tijd zelfs al flink wat manoeuvers gemaakt. In de VS werd Legal AI-bedrijf Casetext in 2023 voor zo’n 650 miljoen dollar (ruwweg 600 miljoen euro) overgenomen door informatiereus Thomson Reuters. En ook in België hebben we op die korte tijd al zo’n exit gezien: Henchman, een Gentse startup die een ‘advocatenbutler’ had ontwikkeld, werd in de zomer van vorig jaar voor 160 miljoen euro opgeslokt door het Britse LexisNexis, bekend van de juridische databank. LegalFly, ook al uit Gent, is nog altijd zelfstandig (wel met een flinke duit geld dankzij 17 miljoen euro durfkapitaal, binnen een jaar tijd opgehaald in 2023), maar vond een partner van hoge renommée bij Microsoft, dat de Gentse oplossing opnam in zijn cloudoplossingenwinkel Azure Marketplace. En Harvey, een in San Francisco opgerichte pionier uit GenAI-doorbraakjaar 2022, wordt wereldwijd gebruikt door PwC om de Tax-en Legalafdeling van de consultancyreus en zijn klanten bij te staan..
Met een groeiritme van 9 procent per jaar is de legaltech-industrie een van de snelst groeiende softwaremarkten in Europa, zegt marktstudiebureau Grandview Research. In 2023 was ze goed voor 5,5 miljard euro per jaar, tegen 2030 zal dat al bijna verdubbeld zijn. AI-toepassingen zijn daarbij een van de speerpunten.
Ook al omdat ze in zowat alle uithoeken van de juridische praktijk kunnen worden ingezet. Zowel voor het opstellen van contracten als voor klassieke litigatie bijvoorbeeld, een niche waarvan het Mortselse Nexa AI zijn speerpunt heeft gemaakt. ‘Middelgrote kantoren die willen groeien, zoeken naar manieren om hun caseload te vergroten zonder meteen extra ondersteunend personeel aan te nemen’, zegt medeoprichter Jasper D’Hooghe. ‘Kleine kantoren, vaak gerund door ervaren seniors, zien het anders: hun tijd is duur en schaars, dus elke besparing maakt een verschil. Het einddoel is in beide gevallen hetzelfde: meer efficiëntie en hogere kwaliteit. Alleen het vertrekpunt verschilt.’
Taken, geen jobs
Wat zo’n legal AI dan doet? Het is een hulp, een sparringpartner, een ontsluiting van de bergen data waarop ieder advocatenkantoor zit. ‘Data-analyse is een taak waar AI zich zeer verdienstelijk in maakt’, zegt Zenner. ‘Je hebt klantdata die je moet begrijpen én je hebt een wettelijk kader. Als je die twee samenbrengt, zie je meteen de meerwaarde van AI. Verder kan het al veel doen in compliance, kijken of je als organisatie alle regels naleeft. Maar ook in knowledge updates. Wat gebeurt er in de wereld dat relevant is voor klanten, en hoe hou je hen daar gericht van op de hoogte? Je kan dan zeggen: daar bestaan databanken voor. Klopt, maar de vraag is altijd wat er daaruit relevant is voor de persoon of sector. Bij een AI-systeem combineer je bij voorbeeld vaults van interne kennis met externe gegevens of bronnen, en bepaal je hoe die worden omgezet in output.’
Het klassieke adagium: AI-systemen nemen afgebakende deeltaken over, geen complete jobs. ‘AI kan snel repetitieve output genereren’, zegt D’Hooghe. ‘Korte juridische stukken zoals dagvaardingen, ingebrekestellingen, eenvoudige conclusies of standaard verkeersdossiers. Veel advocaten stellen er zo tientallen per week op, en hun inhoud is vaak grotendeels dezelfde, met kleine variaties in context. Verder kan kunstmatige intelligentie helpen om sneller inzicht te krijgen in grote dossiers. Strafrechtadvocaten krijgen dossiers van 3.000 tot 5.000 pagina’s te verwerken. Ze lezen dat nog altijd, maar kunstmatige intelligentie kan hen wel helpen om daar sneller details in terug te vinden. Die diepgaande juridische research kan bovendien over meerdere bronnen heen gebeuren: AI kan verbanden helpen leggen. En het kan, tot slot, een eerste inhoudelijke aanzet van argumentatie geven. Een eerste structuur of conceptversie, alleen al om het ‘wittebladsyndroom’ te vermijden.’
Dwalende output
Maar op een bepaald moment moet de mens het wel weer overnemen. De Orde van Vlaamse Balies stelde dit jaar een reeks duidelijke richtlijnen op wat verantwoord gebruik van AI betreft. Advocaten mogen kunstmatige intelligentie gebruiken zolang ze voldoende basiskennis hebben van de technologie, vertrouwelijke gegevens beschermen en de output kritisch controleren. Ze zijn niet verplicht om cliënten te informeren over het gebruik van kunstmatige intelligentie, maar ze blijven wel eindverantwoordelijk en aansprakelijk over alle informatie die uit de AI-molen komt: de verantwoordelijkheid kan niet worden afgeschoven op de technologie.
‘Wie denkt dat kunstmatige intelligentie vandaag automatisch zo’n kwalitatieve output genereert dat er geen menselijk werk meer aan te pas komt, die droomt’, zegt Zenner. ‘Ik ken vandaag geen enkele VP Legal die naar zijn of haar raad van bestuur stapt en zegt: ‘Dit is afgetekend door Harvey.’ Zo werkt het niet. De technologie biedt enorme efficiëntiewinsten in processen, maar voor kwalitatieve output moet er altijd een mens zijn die het eindresultaat nakijkt en er zijn handtekening onder zet. Dat blijven menselijke taken.’
Die menselijke tussenkomst is ook al belangrijk omdat AI-technologie nog niet helemaal te vertrouwen is. Wanneer ze teveel moeite moet doen om informatie te vinden, gaat ze die ‘hallucineren’: zelf dingen verzinnen dus. Dat maakt dat een publieke tool als ChatGPT schromelijk ongeschikt is voor juridisch gebruik. Er zijn al meerdere zaken geweest, onder meer in de V.S. en Canada, waar een te gemakzuchtige advocaat met verzonnen precedenten naar de hoorzitting trok. Type ‘Smith v Jones, 2012 ABKB 224’: het formaat lijkt op een lemma uit waarachtige rechtspraak, maar er is geen match met een juridische database omdat de tekst gewoon niet bestaat.
‘Het is cruciaal dat je legal AI alleen traint op betrouwbare bronnen’, zegt D’Hooghe. ‘Je kunt met eigen, gecontroleerde datasets werken, je kunt instellen welke publieke websites je als betrouwbaar beschouwt, en je artificiële intelligentie uitsluitend laten zoeken binnen die bronnen. Geen enkele tool kan hallucinaties volledig uitsluiten, maar je kan het risico wel sterk beperken.’
Zo is ook Harvey ontworpen, de tool van PwC: gebruikers kunnen desgewenst de functie waarbij externe bronnen worden geraadpleegd uitschakelen. Per definitie zit de technologie ook nog in de groei. Niet voor niets landen er de afgelopen tijd geregeld berichten dat er een overname of een diepe samenwerking komt tussen legaltech-bedrijven met een eigen AI en partijen die eigenaar zijn van een uitgebreide juridische database. Zoals met LexisNexis’ recente acquisitie van het Gentse Henchman.
Maar evengoed is er nog werk aan de gebruiker. Het oude credo van ‘bullshit in, bullshit out’ gaat hier weer op: een medewerker van een advocatenkantoor of de legal counsel van een bedrijf moet onder meer weten hoe men een deftige prompt moet schrijven. ‘Dat is minstens even belangrijk als betere technologie’, stelt D’Hooghe. ‘Er is daar nog wat bewustwording nodig, er moet een skillset worden opgebouwd. Verder heb je nog wel je juridische expertise nodig om de AI-output kritisch te bekijken. Bij zo’n gevallen van verzonnen rechtspraak, soms bij mensen die ervoor kiezen om zichzelf te verdedigen, kan het bijna niet anders dan dat daar een gratis versie van ChatGPT werd gebruikt. Dat is pijnlijk natuurlijk, maar een goeie advocaat had daar meteen gezien dat er iets niet klopte. Zonder training, kader en expertise wordt het gevaarlijk.’