Kan AI ook het medisch personeel ontlasten?
Geen probleem te groot om door AI op te lossen, lijkt de leuze van de grote technologiebedrijven. Ook in onze gezondheidszorg kan kunstmatige intelligentie helpen met betere diagnoses en een vlottere administratie. Maar het is geen wonderoplossing, per domein en toepassing kijken wat werkt is de boodschap.
De uitdagingen in de zorg zijn groot. Een tekort aan artsen en zorgkundigen maken de al stevige werkdruk er niet minder op. Maar ook tijdens de job gaat er veel tijd naar taken naast de rechtstreekse zorg. Daar hoopt Microsoft op verschillende vlakken een rol te kunnen spelen.
‘Gezondheidssystemen verzamelen al jaren data, maar zelden genoeg om er met AI inzichten uit te halen,’vertelt Hadas Bitran, hoofd R&D Health AI bij de Health & Life Science afdeling van Microsoft. ‘Het is op de juiste plek, op het juiste moment en gecombineerd met andere data dat het betekenisvol kan zijn.’
Ook het AI-systeem zelf moet aan een pak meer voorwaarden voldoen dan je doorsnee ChatGPT-dialoogvenster. Een uitspraak die we meermaals horen bij Microsoft en de sprekers die het bedrijf uitnodigde op een event over het belang van AI in de Europese gezondheidszorg. ‘Je zit met een hoop veiligheidsnormen die je moet inbouwen. Dat gaat over compliance, algemene veiligheid, misbruik enz… Je wil dat het gesprek met zo’n tool over gezondheid gaat, dat je het kan auditeren en dat het in elk land goedgekeurd wordt,’ aldus Bitran die ook opmerkt dat Microsoft die goedkeuring nu in 52 regio’s op zak heeft.
Maar ondanks de loftrompet voor AI, nuanceert Microsoft wel dat het de arts niet wil vervangen, maar wel wil aanvullen en ontlasten. ‘Generatieve AI gaat geen alternatief zijn voor de menselijke ervaring, hun verantwoordelijkheid of aansprakelijkheid. Tegelijk moeten we ook voorzichtig zijn rond de bronnen die worden gebruikt en mogelijke gevolgen van ze te gebruiken.’
Milvue, een Franse startup, doet dat sinds 2018 voor de rapportering van medische beeldvorming. Het ondersteunt radiologen door hun rapport deels te automatiseren. ‘Op termijn willen we dat voor de hele workflow van radiologen kunnen doen’, vertelt COO Peggy Séjourné. Haar bedrijf kan radiologen zo naar eigen zeggen dertig tot veertig procent productiever maken door het rapport dat ze moeten schrijven al in een ruwe versie op te stellen dat de radioloog vervolgens nakijkt en indien nodig aanvult of corrigeert. We moeten daar meteen ook bij nuanceren dat zo’n rapport al in zekere zin een gestandaardiseerde checklist is. Wat controle vlotter maakt dan bijvoorbeeld een losse tekst die je op inhoudelijke fouten moet controleren. Ook gaat het momenteel vooral over X-rays en CT-scans. Voor scans bij spoedgevallen is het momenteel minder geschikt.
‘Dat menselijk overzicht blijft verplicht, en uiteraard is AI niet onfeilbaar. Maar de radiologen worden ook opgeleid hierin. Ze weten hoe hun AI-tool werkt, ze begrijpen hoe dingen tot stand komen en dat de kennis uit het systeem werd ondersteund met data uit klinische studies,’ zegt Séjourné daarover.
Bij de huisarts gaat het dan vooral over het dicteren van nota’s waardoor de ogen van de dokter minder op het scherm en meer op de patiënt gericht zijn. Daarover deed Microsoft recent een onderzoek in een handvol West-Europese landen, inclusief bij duizend Belgen. Voor ons land leerde het bedrijf dat 29 procent van de patiënten al bij een arts is geweest die tijdens de consultatie te veel op het scherm keek. 37 procent van die groep vond dat frustrerend.
Omgekeerd zegt 38 procent dat hun arts al eens opmerkingen dicteerde tijdens de consultatie, waarbij 58 procent van de patiënten aangaf dat hen dat de mogelijkheid gaf om actiever in gesprek te gaan met de arts.
Rond AI denkt 36 procent van de bevraagde patiënten dat het een goed idee is om AI te gebruiken. 42 procent van die groep ziet dat als een kans voor de arts om meer tijd vrij te maken.
De nuance dwingt ons wel te zeggen dat het onderzoek werd uitgevoerd namens Microsoft-dochter Nuance, dat spraaktechnologie verkoopt. Ook werden er geen resultaten gedeeld over de negatieve meningen of ervaringen rond AI of spraaktechnologie.
Gepersonaliseerde behandelingen
In het ziekenhuis zelf kan AI verschillende richtingen uit en ook voor het eigen personeel kan een chatbot van pas komen. ‘We testen momenteel een copilot voor dokters en verplegers waarin al onze protocollen zitten,’ vertelt Manuel Bosch Arcos, chief transformation officer van de Spaanse ziekenhuisgroep Ribera Salud. Copilot is de AI-assistent die Microsoft momenteel ontwikkelt en test in verschillende sectoren.
‘Dat gaat onder meer over hoe je medicatie toedient, over regels die van toepassing zijn in Spanje, of specifiek hoe we het in ons ziekenhuis doen. Daarvoor hoeft een arts niet telkens een hoop PDF’s door te nemen op zoek naar het antwoord of de juiste procendure, maar men kan het gewoon vragen aan Copilot die al die info heeft en een duidelijk antwoord geeft.’
‘Ons doel is om een volledig gepersonaliseerd traject op te zetten vanuit het idee dat we zo veel mogelijk mensen zo gezond mogelijk houden.’
Ook de Noorse dr. Ishita Barua, experte in medische AI en medeoprichter en chief medical officer van Livv Health is daar een voorstander van. Ze waarschuwt voor de valkuilen met AI, maar evenzeer benadrukt ze dat er heel veel mogelijkheden op tafel liggen. De valkuilen zitten volgens haar vooral in gender bias. Het vrouwen- en mannenlichaam verschilt, maar medisch onderzoek steunt vaak op onderzoek dat overwegend op mannelijke testpersonen is uitgevoerd. ‘Zeker voor 1999 was dat vaak het geval, waardoor artsen bij een probleem van een vrouw dat sneller als emotioneel probleem in plaats van medische aandoening klasseerden.’
Maar als we die bias uit de systemen krijgen zijn er mogelijkheden. ‘Daar wordt AI een bondgenoot die precieziezorg of unieke behandelingen toelaat.’
Geen alternatief voor expertise en aansprakelijkheid
Tegelijk blijft AI in een medische omgeving gevoelige materie. Voorzichtigheid en voldoende controles blijven cruciaal, dat benadrukt ook Microsoft zelf. ‘Je moet AI op een verantwoorde manier uitrollen. Je kan niet zomaar ChatGPT voor een patiënt of arts zetten en klaar zijn. Er moeten veiligheidsnormen zijn en je moet ernstig omgaan met de data die je gebruikt waarop het antwoord gebaseerd is. Tegelijk moet je kritisch blijven voor de kwaliteit van het antwoord,’ zegt Hadas Bitran daarover.
‘AI is geen vervanger voor expertise, voor ervaring en voor aansprakelijkheid. En zowel het oordeel van een mens als dat van AI, of dat nu generatief is of niet, moet op een verantwoorde en respectvolle manier worden toegepast. Daarom dat we hier zoveel moeite in steken.’ Die moeite gebeurt trouwens ook vanuit België. Tijdens het gesprek benadrukt ze expliciet dat ze een uitstekend team in ons land heeft. ‘Zet alsjeblieft in je artikel dat ik heel trots op hen ben’, bij deze.
Een andere eigenschap van de tools van Microsoft is dat ze retrieval augmented generation of RAG hanteren. Daarbij wordt een model niet op voorhand getraind met massaal veel patiëntendata, maar geef je het de meest recente informatie, eventueel aangevuld met de meest recente richtlijnen van het ziekenhuis. ‘Hierbij train je het model op het moment dat je de input nodig hebt, maar zo zorg je er ook voor dat het antwoord gebaseerd is op actuele patiëntendata en de meest actuele medische informatie of richtlijnen die het ziekenhuis hanteert,’ aldus Bitran. Ze sluit daarbij niet uit dat ziekenhuizen die sterk inzetten op AI en databetrouwbaarheid, een soort AI-manager zullen hebben. In de medische wereld kunnen wetenschappelijke inzichten soms snel evolueren. Zo’n persoon of systeem kan er voor zorgen dat alle artsen met de meest up-to-date informatie werken.
Niets bewaren
Tegelijkertijd ligt inzage of verwerking van data door een Amerikaanse multinational ook gevoelig in het data-tijdperk. Maar ook daar is Bitran nuchter over: ‘Voor RAG moet data niet extern geüpload worden. Dat kan in de toepassing, op het moment zelf. Maar ook Azure houdt niets onnodig bij. In dit soort omgevingen verdwijnt alles na 48 uur. We hebben onze diensten getraind in verschillende talen, daarvoor hebben we samengewerkt met verschillende spelers in de gezondheidssector om te trainen op ge-deïdentificeerde data. Ook toen hebben we die data niet overgezet naar onze systemen, maar dat met federated learning gedaan.’ (Een manier van machine learning waarbij specifieke parameters worden gedeeld, maar niet de hele dataset, nvdr.)
‘We nemen data-grenzen en soevereiniteit zeer ernstig. Rollen we iets uit in Europa dan blijft die data in Europa. Voor diensten rond text analytics in de gezondheidszorg kan dat ook in een containermodus, waarbij de dienst lokaal beschikbaar is, en wij enkel telemetrische data ontvangen voor de facturatie.’
Alles bij elkaar zal kunstmatige intelligentie, net zoals in elke sector, met de jaren verder ingang vinden in de gezondheidszorg. Is het een deus ex machina die alles zal oplossen? Neen. Maar geval per geval, met voldoende aandacht voor gevoeligheden zoals patiëntendata, of mogelijke bias in systemen, biedt het wel mogelijkheden. Zowel om efficiënter te werken als om betere patiëntenzorg mogelijk te maken.
Fout opgemerkt of meer nieuws? Meld het hier