>> 68 Publieksjaarverslag 2024 69 Michel van Genderen ‘ Innovatie betekent risico’s nemen, maar nooit zonder controle en zorgvuldigheid’ Het ethieklab, met de volledige naam Responsible and Ethical AI in Healthcare Lab (REAiHL), is een samenwerking tussen het Erasmus MC, de TU Delft en de Erasmus Universiteit Rotterdam (zie kader), met steun van softwarebedrijf SAS. Begin 2025 werd het ethieklab kracht bijgezet toen de TU Delft, dankzij de samenwerking met het Erasmus MC, werd benoemd als officiële raadgever van de Wereldgezondheidsorganisatie op het gebied van AI in de zorg. Met het ethieklab bouwen de partners aan een stevige basis voor de veilige en verantwoorde inzet van AI in de zorg. En dat is hard nodig, ziet Michel. ‘Op dit moment bereikt minder dan twee procent van de AI-modellen de kliniek. Nog te vaak blijft het steken bij een prototype: we kunnen iets voorspellen en daar blijft het bij. Maar voorspellen alleen is niet genoeg. De echte uitdaging zit in de implementatie: hoe krijgen we een model aan het bed? Hoe zorgen we dat patiënten, verpleegkundigen en artsen het vertrouwen? Hoe garanderen we dat het model betrouwbaar blijft en voldoet aan wet- en regelgeving? Dat is waar wij aan werken.’ Het ethieklab doet dat door zelf AI-modellen te ontwikkelen en in de kliniek te brengen. ‘Dan kijken we: wat werkt wel, wat niet? Waar lopen we tegenaan? Die kennis is nog nauwelijks beschikbaar. Daarmee onderscheiden we ons – we zijn wereldwijd een van de weinige groepen die dit zo praktisch aanpakken’, legt Michel uit. Model maken met goede data Een van de grootste struikelblokken voor het gebruik van AI is gelijkheid. De Wereldgezondheidsorganisatie noemt het zelfs een van de belangrijkste ethische principes. Gelijkheid betekent dat een AI-model een behandeling net zo goed voorspelt voor een witte man van 45 als voor een kind van 3, of voor een vrouw van 23 met een zwarte of bruine huidskleur. Daarin schuilt een risico, legt Michel uit. ‘Mensen zijn van nature bevooroordeeld en die vooroordelen sluipen ongemerkt in de data. Als we AI-modellen bouwen op basis van dertig jaar aan data ga je daarin die vooroordelen terugzien.’ Daarom is de basis zo belangrijk, benadrukt hij. ‘Een model dat getraind is op slechte data, levert slechte uitkomsten op. Daarom moet je data eerst zorgvuldig controleren voordat je ermee aan de slag gaat, en is transparantie belangrijk.’ Voor Michel is het duidelijk waar het ethieklab naartoe werkt. ‘In het ideale scenario ontwikkelen we AI vanuit één stevig fundament. Dat betekent: we hebben de data gecheckt, goed opgeslagen, gekeken of het model geen foutieve informatie verzint, het model eerlijk is, we weten hoe het model werkt en we zijn ons bewust van de risico’s en eventuele nadelen. In het Erasmus MC zien wij inmiddels dat dat essentieel is. Daarom bundelen we al deze kennis binnen de Erasmus MC AI Accelerator, in 2024 opgericht. Zo bouwen we verder aan onze expertise en zorgen we ervoor dat we kennis delen en de kwaliteit en controle over AI kunnen waarborgen.’ >> ‘AI die een familiegesprek vastlegt voor het medisch dossier en er direct een samenvatting van maakt voor de patiënt. AI die de visite voorbereidt voor een arts of verpleegkundige of AI-systemen die voorspellen welke patiënt een verhoogd risico loopt op complicaties na hersenletsel en welke behandeling daarbij past. Of AI die bepaalt welke patiënt na een operatie sneller veilig naar huis kan.’ Ook durven falen Michel bouwde de afgelopen jaren een tweede carrière op naast zijn baan als IC-arts: die van innovator in de zorg. Een rol die goed past bij zijn persoonlijkheid, vertelt hij. ‘Ik ben van nature kritisch en vraag me voortdurend af: kan dit niet slimmer, sneller of beter? Dat is precies de kern van innovatie: nieuwe ideeën durven uitproberen, investeren in vernieuwing én accepteren dat falen soms onderdeel is van succes.’ Werken met data en AI is in de zorg al lang geen hobby of luxe meer, benadrukt Michel. ‘Het is pure noodzaak, want we hebben een grote uitdaging. De zorgvraag stijgt, terwijl het personeelstekort alleen maar groter wordt. Kun je het je dan veroorloven om technieken die zoveel kunnen betekenen links te laten liggen? Ik vind van niet. De vraag is niet óf je hiermee aan de slag moet. De vraag is: hoe kun je het verantwoorden om het níet te doen? We hebben een morele verantwoordelijkheid om de zorg toegankelijk te houden. AI kan ons werk verlichten, efficiënter maken en zelfs leuker.’ Verantwoord en veilig Een van de initiatieven die Michel samen met IC-afdelingshoofd prof. dr. Diederik Gommers opstartte is een ethieklab voor AI in de zorg. Het is een plek waar verpleegkundigen, artsen, data-wetenschappers en ethici samen werken aan één doel: kunstmatige intelligentie op een veilige en verantwoorde manier inzetten. Want, zo benadrukt Michel: ‘Innovatie betekent risico’s nemen, maar nooit zonder controle en zorgvuldigheid, zeker niet in de zorg.’
RkJQdWJsaXNoZXIy ODY1MjQ=