Artificiële intelligentie: Zijn robots verantwoordelijk voor hun daden?

De jongste weken en dagen staat de problematiek van de killer robots – autonome machines die zelf kunnen beslissen om tot dodelijk geweld over te gaan – opnieuw in het centrum van de belangstelling. Onder meer de organisatie Campaign to Stop Killer Robots heeft zware kritiek geuit op de Verenigde Staten en Rusland, die beperkende afspraken over de inzet van de killer robots bij de Verenigde Naties hebben geblokkeerd.

De problematiek heeft ook de vraag over de verantwoordelijkheid van artificiële robots weer aan de oppervlakte gebracht. De discussie kan ook een belangrijke impact hebben op de verzekeringssector.

Verwarrend

Eerder had ook Amnesty International al te kennen gegeven dat killer robots moesten worden verboden, zodat zware inbreuken op de mensenrechten zouden kunnen worden vermeden voor het te laat is. De ontwikkeling van automatische wapens, die op eigen initiatief doelwitten kunnen selecteren en uitschakelen zonder een tussenkomst van een menselijke operator, heeft het voorbije decennium een sterke groei gekend.

Landen zoals de Verenigde Staten, Rusland, Zuid-Korea, China, Frankrijk, en Groot-Brittannië hebben al automatische wapens ontwikkeld en verzetten zich dan ook tegen een algemeen verbod. Andere landen hebben zich al wel tegen de inzet van killer robots uitgesproken.

De vooruitgang van artificiële intelligentie, zoals robots en zelfrijdende wagens, creëert een verwarrend wettelijk landschap waarin fabrikanten, programmeurs en zelfs robots zelf verantwoordelijk voor schade of andere problemen zouden kunnen worden gesteld.

“De betrokkenen moeten weten wie verantwoordelijk is voor vastgestelde fouten,” merken specialisten op. “De graad van verantwoordelijkheid kan daarbij verschillen van de karakteristieken die aan de artificiële intelligentie worden toegewezen. Wanneer de technologie wordt bestempeld als een product of service, is een andere benadering noodzakelijk dan wanneer aan de machine over menselijke beslissingsbevoegdheid zou beschikken.”

Groepsgeding

“Onder meer autobouwers zoals Volvo, Google en Mercedes hebben al aangegeven dat ze de volledige verantwoordelijkheid zouden opnemen voor de problemen die hun voertuigen in automatische status zouden kunnen veroorzaken,” zeggen de experts. “Maar zelfs zonder die beloftes zou het heel waarschijnlijk zijn dat de fabrikanten uiteindelijk verantwoordelijk zouden worden gesteld voor de schade die voor hun zelfrijdende auto’s zou worden veroorzaakt.”

“Indien de auto als een defect product zou worden beschouwd, zou het bedrijf uiteindelijk het mikpunt van een groepsgeding kunnen worden en verplicht kunnen worden tot dure terugroepacties,” zegt de Amerikaanse jurist Nathan Greenblatt. “Wanneer echter de software van de auto als een service zou worden bestempeld, zou mogelijk van onachtzaamheid kunnen gewag worden gemaakt, vergelijkbaar met een roekeloze chauffeur.”

“Wanneer artificiële intelligentie gelijk wordt gesteld met de menselijke chauffeur, zouden dure rechtszaken over productiefouten kunnen worden vermeden.”

John Kingston, professor rechtsleer aan de University of Brighton, wijst er echter op dat het niet altijd eenvoudig zal zijn om de fabrikant te identificeren. Weliswaar zou kunnen worden gewezen naar de autobouwer, maar datzelfde geldt volgens hem ook voor de ontwikkelaar van de software of de leverancier van cruciale onderdelen.

Sancties

Volgens verzekeraar Allianz zal een dekking voor productiefouten ooit verplicht worden, zodat chauffeurs beschermd blijven wanneer ze de zelfrijdende functie van hun auto activeren.

Volgens Gabriel Hallevy, professor recht aan het Ono Academic College in Israel, zou echter ook de artificiële intelligentie zelf verantwoordelijk kunnen worden gesteld. Mogelijk zou daarbij gewag kunnen worden gemaakt van een gedeelde verantwoordelijkheid met de programmeur of de fabrikant.

Het opleggen van een sanctie aan artificiële intelligentie is echter moeilijk. Onder meer zou men de technologie uit dienst kunnen nemen, maar sommige specialisten suggereren meer creatieve oplossingen. Onder meer wordt gewag gemaakt van een tijdelijke inactiviteit of een verplichte inzet voor maatschappelijke diensten.

Professor Kingston zegt dat de problematiek mogelijk de introductie van een aantal nieuwe wetten zal vereisen. Huidige wetten gaan bij hun beoordeling vaak uit van het redelijke menselijke gedrag, maar die benadering kan bij artificiële intelligentie moeilijk worden gehanteerd.

Meer