Tech Blog

AI och ansvar – vad är egentligen problemet?

Inledning
Utvecklingen inom artificiell intelligens (AI) går snabbt framåt och allt fler AI-baserade applikationer och produkter når marknaden. Med detta uppkommer frågorna: vilka regler aktualiseras om ett AI-system orsakar person- eller sakskada, vem kan potentiellt hållas ansvarig för skadan och kan ansvar överhuvudtaget utkrävas? I detta inlägg diskuteras och förklaras några grundläggande frågor och problem som rör utomobligatoriskt ansvar för skador orsakade av AI-system.

Kort fördjupning om AI
AI är avancerad och kraftig mjukvara, som används för många tillämpningar i många olika verksamheter. Förenklat bygger AI-teknik på att en mjukvara uppnår mål som den programmerats och instruerats att uppnå genom att analysera data och statistik och sedan vidta de åtgärder som AI-systemet bedömer bäst uppnår dessa mål. Ett AI-system såsom mjukvaran i ett automatiserat fordon bedömer exempelvis om föremålet framför bilen är en människa som kommer att korsa bilens färdbana eller inte och avgör sedan om fordonet ska stanna eller inte. Maskininlärning och djupinlärning bygger förenklat på att ett AI-system lär sig självt och på egen hand förbättrar sin förmåga att uppnå de mål som AI-systemet programmerats och instruerats att uppnå. På detta sätt kan AI-systemet lära sig att uppnå komplexa mål utan att hindras av förutfattade meningar hos människor eller av begränsningar i människors förmåga att behandla och analysera stora mängder information. Genom att AI-system lär sig själva och ständigt förbättrar sin förmåga att uppnå dess mål är förhoppningarna bland annat att AI-system ska kunna agera självständigt utan mänsklig övervakning och kunna hitta ”nya” och ”kreativa” lösningar på problem som vi människor ännu inte kunnat lösa.

AI-teknik är mycket komplex och det kan i många fall vara svårt att förstå exakt hur ett AI-system har fattat ett beslut eller kommit till en slutsats. Det brukar talas om att AI-system är en svart låda (eng. black box) eftersom det kan vara svårt att se och förstå hur systemet fungerar. Det kan även vara svårt att förutse hur ett AI-system kommer att agera när det exponeras för den riktiga världen eller scenarion det inte utvecklats eller tränats för. En följd av detta är att det kan vara svårt att förutse vilka skador ett AI-system kan komma att orsaka samt hur dessa skador kan komma att orsakas. Det kan även leda stora problem om ett AI-system faktiskt orsakar skada – exempelvis om ett automatiserat fordon kör på en människa – då det kan vara svårt att utreda hur och varför AI-systemet fattade ett visst beslut. Dessa problem försvårar i sin tur skadeståndsbedömningen enligt nuvarande svensk rätt.

Det finns gott om exempel på när AI-teknik inte fungerat som förväntat, ibland med komiska och ibland med mycket allvarliga konsekvenser. Några exempel är Microsofts chatbott Tay, Knight Capital-algoritmen, Amazons HR-algoritm, Boeing 737-Max algoritmen, och rasistiska automatiserade fordon.

Om skadestånd
Huvudregeln för utomobligatoriskt skadestånd i svensk rätt är att den som uppsåtligen eller av vårdslöshet vållar person- eller sakskada ska ersätta skadan (Skadeståndslagen [”SkL”] 2:1). För att skadeståndslagens regler ska vara tillämpliga måste följande rekvisit vara uppfyllda:

• någon har lidit person- eller sakskada;
• person- eller sakskadan orsakades av skadevållarens uppsåtliga eller vårdslösa (”culpösa”) handling(ar) eller underlåtenhet;
• det föreligger adekvat kausalitet mellan den vårdslösa handlingen och person- eller sakskadan.

En skadevållare kan även hållas skadeståndsrättsligt ansvarig på andra grunder, primärt strikt ansvar, om det finns stöd för det i andra föreskrifter än SkL. Strikt ansvar innebär att skadevållaren ska hållas ansvarig för skada hen vållat den skadelidande oberoende av om skadevållaren agerat culpöst eller inte. Exempelvis innehåller produktansvarslagen bestämmelser om strikt ansvar för säkerhetsbrister i produkter och trafikskadelagen bestämmelser om strikt ansvar för person- eller sakskador orsakade av motordrivna fordon i trafiken. Frågor om AI och produktansvar kommer att diskuteras i ett senare inlägg.

AI och skadeståndsrättsligt ansvar – tre grundläggande frågor
Vem kan hållas ansvarig?
Den första frågan som uppkommer om ett AI-system orsakar person- eller sakskada är vem som kan hållas ansvarig för skadan. AI-systemet är mjukvara och saknar därmed rättskapacitet. AI-system har med andra ord inte förmågan att äga egendom och rättigheter samt ha skulder och förpliktelser. Om ett AI-system orsakar skada kan det därför inte straffas eller hållas ansvarigt. Däremot kan fysiska och juridiska personer som står bakom ett AI-system potentiellt hållas ansvariga för skador orsakade av AI-systemet. Dessa fysiska och juridiska personer kan exempelvis vara de som skapat och utvecklat AI-systemet, de personer som tränat AI-systemet och matat det med data, eller de personer som använt AI-systemet. När ett AI-system orsakat skada kan det vara svårt att identifiera vem eller vilka av dessa personer som ska och kan hållas ansvariga.

AI och culpa
Den andra frågan som uppkommer om ett AI-system orsakar person- eller sakskada är om personerna bakom AI-systemet varit culpösa. Culpabedömningen går i korthet ut på att den skadevållande partens handlingar eller underlåtenhet som ledde till skadan jämförs med hur en normalt aktsam person skulle ha handlat i den givna situationen. Den norm som ligger till grund för bedömningen kommer ofta från praxis, branschregler eller sedvana. Föreskrifter och regler som potentiellt kan spela in i en culpabedömning om ett AI-system orsakar person- eller sakskada är exempelvis produktsäkerhetslagen (analogivis), branschspecifika bestämmelser om AI och etiska riktlinjer för användning och utveckling av AI-system. När ingen norm finns som kan ligga till grund för bedömningen görs en fri bedömning. Kraven på aktsamhet bedöms då utifrån tre riskfaktorer: risken för skada, den sannolika skadans storlek och möjligheten att förekomma skadan. Till dessa bör en fjärde faktor läggas till: den handlandes möjlighet att inse risken för skada.

Det är i dagsläget oklart vad culpa innebär vid utveckling och användning av AI-system. Dels för att det är osäkert vilken aktsamhetsnorm som gäller och dels för att AI-system kan vara oförutsebara och orsaka skada även om försiktighetsåtgärder vidtagits. Fel i AI-system kan vara svåra att upptäcka och förebygga. Sådana fel kan exempelvis vara att AI-systemet tränats med otillräcklig data, att det utsätts för miljöer det inte kan hantera, eller att det fått otydliga instruktioner. Även om fel i AI-system upptäcks är det osäkert om dessa beror på culpösa handlingar eller underlåtenhet av personerna bakom AI-systemet eller om felet beror på handlingar eller underlåtenhet som inte varit culpös.

Adekvat kausalitet
Den tredje frågan som uppkommer om AI-system orsakar person- eller sakskada är om det föreligger adekvat kausalitet mellan någon människas handlingar eller underlåtenhet och den skada som orsakats av AI-systemet. För att skadestånd ska utdömas krävs ett tillräckligt nära orsakssamband mellan den skadevållande partens culpösa handling eller underlåtenhet och den uppkomna skadan. Adekvat kausalitet kan mycket förenklat beskrivas som en bedömning av huruvida den culpösa handlingen eller underlåtenheten faktiskt orsakade skadan samt huruvida den uppkomna skadan var påräknelig eller förutsebar vid tillfället för den culpösa handlingen eller underlåtenheten. Exempelvis, om en fotgängare utan att se efter går in på en cykelbana och en cyklist måste väja undan varpå cyklisten träffas av blixten och dör föreligger det inte adekvat kausalitet mellan culpös handling och skada. Om cyklisten däremot cyklar ner i diket och bryter armen föreligger adekvat kausalitet mellan fotgängarens handling och att cyklisten bryter armen. Anledningen till detta är att man inte vill belasta ens den som handlat uppsåtligt med att ersätta slumpmässiga, opåräkneliga följder.

Om ett AI-system orsakar person- eller sakskada kan det vara svårt att avgöra om det föreligger adekvat kausalitet mellan en persons handling och den skada som uppstår. Anledningen till det är att det är oklart i vilken utsträckning den mänskliga inblandningen i händelseförloppet – exempelvis att AI-systemet innehåller ett programmeringsfel eller att det tränats med otillräcklig data – faktiskt orsakar den skada som AI-systemet vållar. Det är även oklart om personerna bakom AI-systemet har möjlighet att inse att deras handlingar eller underlåtenhet i ett senare skede kan komma att leda till att AI-systemet orsakar den skada som AI-systemet i framtiden faktiskt orsakar. Detta blir ännu svårare att förutse eller avgöra om AI-systemet är en svart låda.

Avslutande kommentar
I fall då AI-system orsakar person- eller sakskada kan ansvar utkrävas enligt skadeståndslagen. För att ansvar ska utkrävas krävs det dock att de fysiska eller juridiska personerna bakom AI-systemet varit vårdslösa och att det föreligger adekvat kausalitet mellan den skadevållande vårdslösheten och skadan som uppkommer. Det är emellertid oklart hur höga kraven på vårdslöshet och adekvat kausalitet är, och om ansvar i praktiken faktiskt kan utkrävas i fall då person- eller sakskada orsakas av AI-system.

På ett mer allmänt plan kan det sägas att två motstridiga intressen står mot varandra. I den ena vågskålen ligger allmänhetens intresse att inte lida person- eller sakskador och om AI-system orsakar sådana skador få rättelse och ersättning för skadorna. I den andra vågskålen ligger intresset hos dem som utvecklar, tränar och använder AI-system att inte hållas ansvariga för skador de inte kunnat förutse eller haft möjlighet att förebygga. Hur dessa intressen ska balanseras mot varandra är den stora frågan som måste avgöras i fall då AI-system orsakar person- eller sakskada.


Relaterat innehåll