Big data en kunstmatige intelligentie

Jeroen van den Hoven: houd Facebook en Google in de gaten

Jeroen van den Hoven, hoogleraar Ethiek en Technologie in Delft, waarschuwt voor de gevaren van Artificial Intelligence in de zorg. Onder meer van grote techbedrijven die er aan willen verdienen.

“De grote techbedrijven hebben een geheel eigen Silicon Valley-benadering van innovatie,” zegt Jeroen van den Hoven in zijn werkkamer in Delft. “Snel handelen en sorry zeggen als er iets misgaat. Geen aanpak die we in de gezondheidszorg zouden moeten willen. Buiten de deur houden dus, tenzij in zeer duidelijk omschreven gevallen onder zeer expliciet omschreven condities. Want als je het vertrouwen eenmaal hebt verloren, krijg je het niet meer terug. En de schade daarvan voor de zorg zal groot zijn.”

__________________________________________________________________________________________

Abonneer u nu op de nieuwsbrief van Qruxx tech. En krijg daarmee iedere maandag een update van alle artikelen, blogs en nieuwsberichten.

___________________________________________________________________________________________

Het kan niemand zijn ontgaan: het gebruik van Artificial Intelligence neemt hand over hand toe, stelt hoogleraar Ethiek en Technologie Jeroen van den Hoven vast. Maar in de praktijk zijn er ook problemen. “Heel vaak is Artificial Intelligence in de zorg aantoonbaar een zegen, dat staat voorop,” licht Van den Hoven toe. “Grofweg alle toepassingen die door de Amerikaanse toezichthouder FDA zijn goedgekeurd, leveren geweldige resultaten op. Veel meer dan alle menselijke topexperts bij elkaar.”

Machines worden niet moe

Machines worden niet moe, dat is een van de redenen. “Die bekijken ieder plaatje van duizenden plaatjes alsof het de eerste is. Ze maken geen fouten. Althans, ze zijn consistent. Als ze een fout maken, doen ze dat elke keer hetzelfde.’ Voor patroonherkenning is dit concept ideaal. ‘Hoe gedetailleerder omschreven waarnaar je op zoek bent, hoe beter de uitkomst is. Machines zijn dan onvervangbaar. Het zou onverantwoord zijn ze niet te gebruiken.”

Tegelijkertijd blijft de menselijke expert, in de zorg meestal de dokter, een voorwaarde voor een goede uitkomst. “Het is de combinatie van mensen en machines die geweldige prestaties kan leveren. Je moet mens en machine dus met elkaar verbinden en ervoor zorgen dat dat zo optimaal mogelijk gebeurt. In de praktijk betekent dat dat de mens aansprakelijk is en verantwoordelijk blijft.”

Fatale vergissing

Computer says no, dat is te makkelijk, licht Van den Hoven toe. ‘Dat kan zelfs leiden tot dramatische situaties, zoals het neerstorten vorig jaar van de Boeing 737 Max in Indonesië. De sensoren in het toestel gaven aan dat het te snel steeg, het systeem corrigeerde dat met een duik naar beneden. Tientallen keren achter elkaar. De piloten, die natuurlijk maar al te goed begrepen dat dit een gruwelijke vergissing was, slaagden er niet in het systeem te overrulen. En dat kan leiden tot een catastrofe. In de luchtvaart, maar ook in de zorg.’

De toekomst is dus niet volledige automatisering en robotisering, vervolgt Jeroen van den Hoven. ‘De toekomst is een harmonieuze samenwerking van mens en machine. Je zult niet snel in de situatie belanden dat je als arts de patiënt de OK inrijdt en vervolgens koffie gaat drinken. Je blijft als zorgverlener betrokken en scherp, maar je kunt je met hulp van Artificial Intelligence meer focussen op de taken die mensen goed kunnen. Zoals het herstellen van overduidelijke fouten.’

Wolf of hond

Systemen zijn net zo goed als de data waarmee je ze traint, aldus Jeroen van den Hoven. “De zogeheten bias is een enorm probleem. Een klassiek voorbeeld is dat van de hond en de wolf. Een computer werd getraind om honden van wolven te onderscheiden. Wolven waren in de trainingsset met foto’s echter altijd, geheel toevallig, in de sneeuw afgebeeld. Een Husky in de sneeuw werd dus als wolf geclassificeerd. Het ging niet om het dier maar om de kleur van de achtergrond.”

Toch moet je het bij AI soms doen met de data die beschikbaar zijn. Ook in de zorg. “Maar als dat er te weinig zijn, heb je een potentieel probleem. De ebolacrisis van 2013 bijvoorbeeld werd lange tijd verkeerd aangepakt omdat de hulpverleners uitgingen van medische data. Wat ze niet wisten, en dus niet meenamen in hun afwegingen, was dat er in het betreffende deel van Afrika bepaalde rituelen op het gebied van de lijkverzorging in acht worden genomen die de verspreiding van de ziekte bevorderden. Antropologen hadden hen dat kunnen vertellen, maar die waren er niet naar gevraagd. Toen men daar achter was, werd er ingegrepen. Maar voor veel mensen was het al te laat.”

IJsverkoop en bosbranden

Andersom kan een teveel aan gegevens ook een probleem opleveren. ‘Als je heel veel data hebt, heb je ook heel veel correlaties, die soms nergens over gaan. Uit alle statistieken blijkt: er is een sterke correlatie tussen de consumptie van ijs en het optreden van bosbranden. Logisch, want beide verschijnselen doen zich vaker voor in de zomer. Toch zul je het aantal bosbranden niet terugdringen door de ijsconsumptie te beperken. Net zomin als de zon opgaat doordat de haan kraait. Het gaat dus om de kwaliteit van de data, en dat op orde brengen kost veel tijd en aandacht. En vervolgens is het van belang wat je met die data doet, en zeker ook wat je nalaat.’

Een voorbeeld levert Aspire Health. Deze Amerikaanse start-up ontwikkelde een algoritme dat zou kunnen voorspellen wanneer in de komende twaalf maanden een zieke patiënt zou overlijden. Aspire Health berekende dat een kwart van alle ziekteverzekeringskosten wordt gemaakt in het laatste levensjaar van zieke Amerikanen. Als je de datum van overlijden kunt voorspellen, is het dus mogelijk om dure behandelingen te beperken en je te focussen op palliatieve zorg.

“Het is maar zeer de vraag of je dat moet willen”, reageert Van den Hoven. ‘Natuurlijk kan het zinnig zijn om op een gegeven moment over te stappen op palliatieve zorg. Maar dat betekent niet dat je mensen zinvolle zorg moet onthouden om financiële redenen.’

Waarden

Value sensitive design, dat is volgens Jeroen van den Hoven de oplossing. ‘Het gaat niet alleen om het voorkomen van overduidelijke fouten, mensen bouwen ook waarden in een systeem. Mensen hebben waarden, machines niet.’

Vertrouwen is daarbij een sleutelwoord. En dat vertrouwen hangt sterk af van de context waarin je leeft. ‘In Nederland, maar meer nog in Scandinavische landen, is het vertrouwen in de overheid groot. Uit onderzoek blijkt dan ook dat inwoners van Zweden veel meer bereid zijn om hun data te delen met anderen dan inwoners van bijvoorbeeld landen in Zuid-Europa. Zweden is een high trust society. De Zweden weten dat hun vertrouwen niet wordt beschaamd.’

Publieke taak

Vandaar ook dat AI in de zorg volgens Van den Hoven een publieke taak moeten blijven. “De grote techbedrijven leveren in sommige opzichten een interessante bijdrage aan ons welzijn, maar hun doel is het maken van winst. Als zij over gezondheidsdata beschikken, willen ze die dus daarvoor kunnen gebruiken. Zolang de zakelijke en publieke doelen met elkaar in overeenstemming zijn, is er geen probleem. Maar als financiële winst niet in overeenstemming is met gezondheidswinst, ontstaat er een probleem.”

Bovendien speelt ook hier de kwestie van het vertrouwen een rol. “Wat doen Facebook, Uber, Google, Amazon en Microsoft met al onze medische gegevens? Ze kunnen zelfs problemen met fake news niet de baas, net zomin als ze kunnen voorkomen dat gegevens van miljoenen gebruikers worden misbruikt voor politieke campagnes. Vandaar mijn oproep voor een zorgvuldige aanpak hiervan.”

Zie ook het artikel over dit onderwerp in Zorgvisie ict magazine

Reacties