Maartje Schermer: ‘AI kan mensen nooit vervangen’

Arts en filosoof Maartje Schermer houdt zich al 30 jaar bezig met medische ethiek. In haar nieuwe leerstoel richt ze zich op ethische vragen rond digitalisering in de zorg. “Het kritische vermogen van de zorgprofessional blijft onmisbaar.”

Wat is eigenlijk goede zorg? Die vraag boeit Maartje Schermer (55) al sinds haar studietijd. Als tiener begint ze vol enthousiasme aan haar geneeskunde­opleiding. Dat ze daarbij vooral feiten in haar hoofd moet stampen, is een teleurstelling.

Voor de broodnodige diepgang besluit ze ook filosofie te gaan studeren. “Ik was en ben altijd op zoek naar het grote verhaal”, zegt ze. “Naar hoe zorg is ingebed in de maatschappij, welke regels we daarvoor met elkaar afspreken, wat voor professionals en patiënten werkt en wat niet. Op het snijvlak van geneeskunde en filosofie komen die vragen samen.”

Schermer kiest voor een academische carrière en doet veel onderzoek naar (bio-)medische ethiek. In 2011 krijgt ze bij het Erasmus MC een speciale leerstoel, Filosofie van de geneeskunde. Een jaar later wordt ze lid van de Gezondheidsraad, waar ze zich onder andere buigt over het thema ethiek en recht. Ook is ze nauw betrokken bij Gezondheidsraadadviezen rond covidvaccinaties. Vanaf 15 oktober 2024 bekleedt ze een nieuwe leerstoel: Gezondheidsethiek in een technologische samenleving, een gezamenlijk initiatief van de Erasmus Universiteit en de KNMG.

Waarom juist nu deze leerstoel?

“Digitalisering in de zorg is natuurlijk niets nieuws. Maar er kan steeds meer en de ontwikkelingen gaan ook steeds sneller. Hoe kunnen we bijvoorbeeld e-health, domotica, robots en medische expertsystemen verantwoord inzetten, ook in de eerste en tweede lijn? Hoe veranderen die onze opvattingen over gezondheid en ziekte, en over wat goede zorg is? Zitten zorg­professionals en patiënten wel op dit soort technieken te wachten? En wat betekenen ze voor hoe we in de zorg met elkaar omgaan? Naar dat soort dilemma’s ga ik verder onderzoek doen.”

Met speciale aandacht voor artificial intelligence?

“De grootschalige toepassing van AI zorgt zeker voor een kentering. Tot een paar jaar geleden kon je goed uitleggen en verantwoorden hoe zorgtechnologie werkt. Met de komst van zelf­lerende systemen verandert dat. Daarvan kun je immers niet meer zeggen: dit stoppen we erin en dat komt eruit.

Zo zijn diagnostische tools inmiddels in staat om zelf te selecteren welke samples verdacht zijn of welke patiënten een arts als eerste moet zien, zónder dat je de redenering daarachter kunt achterhalen. Dat roept allerlei nieuwe ethische vragen op. Bijvoorbeeld in welke gevallen we zo’n AI-selectie acceptabel vinden, en wie er verantwoordelijk is als er iets fout gaat.

Overigens moeten we de impact van AI ook niet overschatten. Veel van dit soort medische AI-tools komen hun belofte nog lang niet na. Op dit moment werken ze eigenlijk alleen nog goed op plekken waar grote hoeveel­heden data worden gebruikt, zoals in de radiologie, pathologie en laboratoria. Wel worden er grote stappen gezet met AI-toepassingen in logistieke werkprocessen. En met het gebruik van large language models, zoals ChatGPT die bijvoorbeeld automatisch gespreksverslagen maken. Zo kan AI professionals op de werkvloer veel routinematig werk uit handen nemen en tijd besparen. Maar in het primaire zorgproces is de invloed nog beperkt.”

Dus AI gaat niet op korte termijn behandelplannen maken?

“Eerlijk gezegd verwacht ik niet dat dat ooit zal gebeuren. AI-technologie kan een waardevol hulpmiddel zijn voor zorgprofessionals, maar het is niet in staat om mensen te vervangen bij het nemen van behandelbeslissingen en shared decision making. Zo’n systeem houdt immers geen rekening met de specifieke situatie, wensen en waarden van een individuele patiënt, noch met de kennis en ervaring van de professional. Bovendien kunnen AI-toepassingen ongewenste bias bevatten en daardoor soms ook schade toebrengen of de gezondheidskloof vergroten.”
Waar gaat het dan fout?

“Veel medische onderzoeksdata zijn afkomstig van – ik zeg het even heel gechargeerd – Europese witte mannen. Voor vrouwen of mensen met een andere culturele achtergrond zijn die data mogelijk niet representatief. Soortgelijke bias kan ontstaan op basis van bijvoorbeeld leeftijd, opleidingsniveau of regio. Dat is nu natuurlijk ook al zo bij wetenschappelijk onderzoek. Maar daar wéét je tenminste nog wie er is geïncludeerd, terwijl er niet altijd zicht is op de trainingsdata die AI gebruikt. Het kritische vermogen van de zorgprofessional blijft dus onmisbaar.”

Meer informatie

Dit artikel werd oorspronkelijk gepubliceerd door Arts en Auto. Lees het volledige originele artikel op hun website.

Vergelijk @count opleiding

  • @title

    • Tijdsduur: @duration
Vergelijk opleidingen