Tech Blog

EU skrotar direktiv om skadeståndsansvar för artificiell intelligens

EU har dragit tillbaka det föreslagna direktivet om skadeståndsansvar för skador orsakade av AI-system (AI-ansvarsdirektivet). Regelverket var ett av tre (tillsammans med AI-förordningen och det uppdaterade produktansvarsdirektivet) som inom EU skulle främja användningen av AI och samtidigt minimera potentiella risker med ny teknik. Syftet med direktivet var framför allt att göra det lättare att driva utomobligatoriska skadeståndsanspråk för skada orsakad av AI. Beslutet att skrota direktivet beror dels på svårigheter att nå en politisk överenskommelse, dels på kritik om att det överlappade befintliga regelverk och kunde skapa en betungande administrativ börda för företag.

Direktivets syfte och tillämpningsområde

Den nuvarande skadeståndsrätten baseras på den s.k. culparegeln som innebär att skadeståndsansvar förutsätter att den skadevållande har agerat, eller underlåtit att agera, med uppsåt eller oaktsamhet. Det finns också krav på kausalitet, alltså att agerandet ska ha orsakat den aktuella skadan. Bevisbördan för både culpa och kausalitet ligger på den skadelidande.

Vid AI-relaterade skador blir detta problematiskt. Bristen på transparens i ett AI-system innebär stora svårigheter för den enskilde att bevisa ett orsakssamband mellan systemets funktion och skadan. Att driva en skadeståndsprocess när AI är inblandad kan därför bli både långdraget och kostsamt. För att bota den bristen innehöll direktivet en bevislättnad för den skadelidande som innebar att domstolarna i vissa fall skulle presumera ett orsakssamband mellan culpa och kausalitet. Direktivet innehöll också regler om bevarande av bevis och edition, d.v.s. krav på att skriftliga handlingar lämnas in till domstolen, vilket ytterligare skulle underlätta för den skadelidande att styrka sin sak.

Delphi har skrivit mer ingående om hur man kan angripa skada orsakad av AI i den här artikeln.

Direktivets förhållande till AI-förordningen

AI-ansvarsdirektivet byggde på AI-förordningen och regelverken delade terminologi. Regelverken skulle tillämpas vid olika tidpunkter och för olika syften, där AI-förordningen innehåller säkerhetsbestämmelser som i första hand syftar till att minska risken för skador. Att helt eliminera risken för skada är omöjlig och när en skada orsakad av ett AI-system uppkommit skulle AI-ansvarsdirektivet kunna tillämpas med ett bredare skydd för dem som drabbas av skada. Reglerna skulle till exempel göra det lättare att få ersättning vid diskriminering i rekryteringsprocesser som inbegriper AI-teknik eller vid felaktiga bedömningar av kreditbetyg.

Tillsammans med det uppdaterade produktansvarsdirektivet skulle de bilda en helhet. Produktansvarsdirektivet, som har teknikanpassats för att också täcka in skador i form av dataförluster, tilldelar tillverkaren strikt ansvar för skador som orsakas av säkerhetsbrister i en produkt.

Håller EU på att förändra sin syn på teknikreglering?

På AI-toppmötet ”AI Summit” i Paris i februari presenterade kommissionen en AI-satsning värd 200 miljarder euro. Samtidigt beslutade man att överge både AI-ansvarsdirektivet och den omdiskuterade ePrivacy-förordningen, eftersom man inte såg en möjligt politisk överenskommelse. AI-ansvarsdirektivet hade dessutom kritiserats för att överlappa reglerna i AI-förordningen och produktansvarsdirektivet samt att vara alltför betungande för företagen. Kommissionen ska nu bedöma om ett annat förslag bör läggas fram eller om man ska gå vidare med en annan strategi.

EU har ett uttalat mål om att stärka sitt digitala oberoende fram till 2030. Arbetet har bland annat lett till AI-förordningen som är världens första heltäckande regelverk för AI. Samtidigt har kritiska röster ansett att EU är på väg mot en överreglering som begränsar investeringsviljan och leder till att företag väljer att flytta sin verksamhet eller inte etablera sig alls inom regionen.

Redan idag finns sådana exempel. Det enda europeiska bolaget som i dagsläget är en betydande aktör på den globala marknaden är franska Mistral som bygger grundmodeller. Istället har USA och Kina övertaget på marknaden och enligt en rapport som EU släppte förra året är bara tre av världens största techbolag baserade i ett EU-land. Meta, som bland annat äger Facebook och Instagram, kommer inte att lansera sina mest avancerade AI-modeller i EU på grund av oförutsägbarheten i lagstiftningen och när Apple släppte sin senaste version av iPhone förra året var det till att börja med utan de nya AI-tjänsterna i Europa. Samtidigt är Apples plan att släppa tjänsterna på den europeiska marknaden i april i år, och många anser att det är positivt att unionen ställer krav på att företagen ser över säkerheten på produkterna innan de introduceras på marknaden.

Är beslutet att dra tillbaka AI-ansvarsdirektivet en reaktion på kritiken om överreglering? Det är möjligt att vi framöver får se en ny strategi där EU i stället fokuserar på att prioritera och konsolidera sin befintliga lagstiftning, snarare än att införa nya regler. En sådan inriktning skulle kunna skapa större förutsägbarhet för både de aktörer som omfattas av regelverket och de som tillämpar det. När de första bestämmelserna i AI-förordningen trädde i kraft i början av februari publicerade kommissionen samtidigt en 140 sidor lång vägledning om tolkningen av förbjudna AI-metoder. Även om vägledningen underlättar förståelsen av regelverket, väcker det frågor om huruvida en enskild artikel verkligen bör kräva en så omfattande förklaring och motiverar frågan om regleringen är effektiv. Samtidigt kvarstår utmaningen att upprätthålla skyddet för den enskildes rättigheter parallellt som en rättvis AI-ekonomi ska skapas och samhället ska spegla de grundvärderingar som EU vill värna.

Det återstår att se om ett nytt förslag på skadeståndsreglering för skada orsakad av AI läggs fram av kommissionen. Under tiden fortsätter, som vanligt, de nationella skadeståndsrättsliga reglerna att gälla. Delphi ser fram emot att fortsätta följa utvecklingen.

 

Denna artikel är skriven av Associate David Suh och Thesis Trainee Sophie Wichmann.