Medische Technologie

Wie is aansprakelijk als een robot een medische fout maakt?

Master Video / stock.adobe.com

Vooralsnog staat wet- en regelgeving voor robots in de kinderschoenen, zo bleek tijdens een themabijeenkomst bij Academy Het Dorp en Proeftuin Robotica in Arnhem.

Een robot wordt nog steeds gezien als een apparaat als een magnetron, met vergelijkbare veiligheidseisen. Dat zei Beat Kreuter tijdens de bijeenkomst van themabijeenkomst bij Academy Het Dorp en Proeftuin Robotica. Kreuter is global director service line consumer safety bij keuringsinstituut Dekra.

Bij deze eisen gaat het om zaken als milieueisen, mechanische veiligheid, gevaarlijke stoffen en niet storen op andere apparaten. In een enkel geval wordt een robot gezien als een medisch hulpmiddel en dan gelden er wat meer eisen.

Isaac Asimov

Meerdere malen kwamen tijdens de bijeenkomst de drie wetten van de robotica ter sprake van sciencefiction schrijver en biochemicus Isaac Asimov.

Die schreef hij al in 1950 en ze luiden als volgt: 1. Een robot mag een mens geen letsel toebrengen of door niet te handelen toestaan dat een mens letsel oploopt. 2. Een robot moet de bevelen uitvoeren die hij van mensen krijgt, behalve als die opdrachten in strijd zijn met de Eerste Wet. 3. Een robot moet zijn eigen bestaan beschermen, voor zover die bescherming niet in strijd is met de Eerste of Tweede Wet.

Basisprincipes gereedschap

Asimov stelde de eisen op analoog aan de basisprincipes van gereedschap. Hij ging er vanuit dat robots ook gereedschap zijn. Zoveel is er in de tussentijd dus niet veranderd.

Zo lijkt het, want waar Asimov, de keurmerkinstanties en wet- en regelgevers geen rekening mee hielden is dat robots inmiddels cognitieve vaardigheden krijgen. Ze worden letterlijk te kwalificeren als robo sapiens. Dit stelde Mauritz Kop, managing partner bij juridisch adviesbureau Artificiële Intelligentie & Recht.

Fundamentele rechten

En dat roept vragen op als het gaat om fundamentele rechten van de robot. “Worden ze object of subject van robotrecht, of iets daartussenin?”, vroeg Kop zich af. “Nu hebben ze geen rechten en plichten. Maar het is niet ondenkbaar dat in de nabije toekomst instellingen bijvoorbeeld een arbeidscontract met een robot aangaan. Sterker nog: in Saudi-Arabië gebeurt dat al.”

Hoe meer robots zelf gaan denken, hoe meer ethische vragen op de mens als regisseur afkomen. Dat schept verantwoordelijkheid voor ontwikkelaars. Mauritz Kop: “De drie wetten van Asimov en de kernbegrippen van de Franse Revolutie – vrijheid, gelijkheid en broederschap – moet je van begin af aan in de code van het design inbouwen. Als we daar geen rekening mee houden, komen we in de buurt van die dystopische toekomstscenario’s als in enge sciencefictionfilms.”

Privacy Impact Assessment

Hoe dat moet? Daarvoor zijn wel handvatten. Kop noemt bijvoorbeeld het A.I. Impact Assessment. Dit is vergelijkbaar met het Privacy Impact Assessment binnen de AVG.

Alleen zijn robots nu slechts rechtsobject. “Ze zijn juridisch gezien een zaak of een ding. Dus zijn ze onderhevig aan regelgeving op gebied van privacy, gezondheidsrecht, intellectueel eigendom en veiligheid voor software en hardware.”

Alleen dat al levert veel verschil van inzicht op, legt Kop uit. Denk maar aan auteursrecht. Ligt dat bij de bouwer van een robot of bij de trainer van artificiële intelligentie? Hij laat ook voorbeelden van door computers gemaakte kunst zien en vraagt zich af of we hiervoor nieuw auteursrecht moeten ontwikkelen. Volgens de huidige wetgeving is de computer hier een ‘verfkwast’ en zijn de werken menselijke creaties.

Zelfrijdende Tesla

De aansprakelijkheid van schade door robots is ook nog niet goed geregeld, stelt Kop. “Als een robot een medische fout maakt, wie is dan aansprakelijk? De leverancier, de programmeur, de arts, de verantwoordelijke voor de internetverbinding? Het lijkt er nu op dat de programmeur niet aansprakelijk kan worden gesteld, maar de arts of het ziekenhuis wel.”

Leveranciers lijken daar ook op aan te sturen, zo toont Evert-Jeen van der Meer, Industry Director Automotive bij Aon Risk Solutions. Als voorbeeld geeft hij het ongeluk dat een zelfrijdende Tesla in 2016 veroorzaakte. “Wij zijn niet aansprakelijk”, bracht Tesla meteen in een persbericht naar buiten.

Event Data Registration

Van der Meer pleit daarom voor brede inzet van Event Data Registration (EDR), een soort blackbox voor zelfrijdende auto’s. Misschien moet die wel in elke artificiële intelligentie worden ingebouwd.

Hoe dan ook, de ethiek van zelfdenkende robots en machines kan niet alleen aan IT’ers worden overgelaten, zo betoogt Mauritz Kop. “Daarom is een Europese Commissie bezig een ethische code te ontwikkelen. Die wordt over een paar weken gepresenteerd en daar moet wet- en regelgeving uit volgen.”

Maar die moet dan ook weer niet op te strenge grondslag zijn, vindt Kop. “Wetgeving moet vooruitgang niet in de weg staan, dus geen rem vormen op de ontwikkeling van algoritmes.”

Reacties