Kapprustningen inom AI och lagstiftningsarbetet
Den senaste utvecklingen inom AI
Det senaste halvåret har AI-tjänster fått stor uppmärksamhet och genererat många rubriker. Några tjänster som har uppmärksammats särskilt mycket är så kallade generativa AI-modeller, det vill säga teknik som använder sig av maskininlärning för att producera bland annat texter eller bilder. Dessa kan ibland benämnas AI-system för allmänna ändamål, då de kan användas i ett flertal sammanhang, så som att korrekturläsa texter, skapa kod eller känna igen bilder och mönster. Förutom detta kan de även integreras i ett flertal andra AI-system.
De mest omtalade exemplen har kommit från organisationen och forskningsbolaget OpenAI som stått bakom tjänster som DALL-E 2, som kan skapa bilder utifrån användarens instruktioner, och ChatGPT – en språkmodell som kan besvara frågor samt skapa texter och kod utifrån användarens instruktioner. Nyligen släpptes den senaste versionen av tekniken bakom ChatGPT, GPT-4, som förutom att hantera text också kan uppfatta och analysera bilder. Ett exempel från GPT-4 är att den utifrån en bild på en slarvig skiss på ett papper kan skapa kod till en fullt fungerande hemsida, något som föregångaren GPT-3.5 inte klarade av. Microsoft, som har investerat många miljarder i OpenAI, har annonserat planer på att inkorporera tekniken bakom ChatGPT i flera av företagets tjänster och produkter, inklusive Office och söktjänsten Bing. Dessutom har Microsoft-ägda LinkedIn integrerat AI-genererade textförslag för att hjälpa användarna att skapa bättre profiler.
Svaren från konkurrenterna har inte låtit vänta på sig, då Google har släppt en utmanare till ChatGPT, Bard, och även annonserat (samma dag som OpenAI gick ut med GPT-4) att man kommer att inkorporera AI i sina produktivitetsverktyg, Workspace. Samtidigt har Google investerat runt 300 miljoner dollar i OpenAI:s konkurrent, Anthropic. Anthropic grundades av forskare som tidigare har jobbat för OpenAI och som även har släppt sin egen ChatGPT-utmanare, Claude. Från Kina kommer chattbotten ERNIE Bot, som utvecklats av företaget Baidu. Ytterligare exempel är Meta som i sin kvartalsrapport uttryckte en ambition om att vara ledande inom generativ AI och söktjänsten DuckDuckGo som har tagit fram en AI-baserad sökassistent, DuckAssist.
Att vi står inför en ”AI-kapprustning” bland de stora techföretagen står klart. Bill Gates har nyligen gått så långt som att säga att den senaste AI-utvecklingen är det största som hänt på årtionden, och kan jämföras med skapandet av internet, mobiltelefonen och persondatorn.
Utvecklingen av generativa AI-modeller har även uppmärksammats inom juridiken, och följaktligen påverkat EU:s föreslagna AI-förordning.
AI-förordningen
EU lade 2021 fram förslaget om en AI-förordning. Delphi har tidigare skrivit om förslaget här. Förordningen använder sig av ett riskbaserat angreppssätt för att dela upp AI-system, där vissa är förbjudna och andra tillåtna men med olika krav på den som tillhandahåller AI-systemet, beroende på vilken risk AI-systemet utgör. Efter den snabba utvecklingen av generativa AI-modeller har det nu i det senaste utkastet till förordningen förts in särskilda bestämmelser som tar sikte på AI-system för allmänna ändamål.
Detta innebär att det dels har förts in en definition av AI-system för allmänna ändamål, dels att man har skrivit ut vissa särskilda krav på sådana AI-system. Bland annat föreskrivs det att kraven för AI-system som utgör hög risk även ska tillämpas på AI-system för allmänna ändamål, om den används på ett sådant sätt eller i ett sådant system som utgör hög risk. De krav som då ska tillämpas innefattar bland annat krav på teknisk dokumentation, inrättande av riskhanteringssystem, sparande av händelseloggar, att systemen utformas på ett sådant sätt att man kan ha mänsklig tillsyn över dem när de används och att de CE-märks. AI-systemen ska i sådana situationer även tränas på data som är relevant, representativ och så långt som möjligt felfri och fullständig. Vidare har det införts en särskild skyldighet för leverantörer av AI-system för allmänna ändamål att samarbeta med och tillhandahålla nödvändig information till andra leverantörer som avser att ta i bruk eller släppa ut sådana system inom EU, för att möjliggöra för dessa leverantörer att fullgöra sina skyldigheter enligt AI-förordningen. Detta skulle exempelvis kunna leda till att vi får se konkurrenter som Google och Microsoft samarbeta.
AI-förordningen väntas av många kunna antas under 2023, men mot bakgrund av den hastiga utvecklingen inom AI, och behovet av att – likt i fallet med AI-system för allmänna ändamål – uppdatera utkastet och omvärdera riskerna för att möta de nya tekniska framstegen, är det inte alls klart om någon överenskommelse kan nås i närtid. Samtidigt har det kommit en vädjan i form av ett öppet brev från hundratals ledande aktörer inom tech-branschen och akademin, däribland Elon Musk och Apples medgrundare Steve Wozniak, om att i sex månader pausa träningen och utvecklingen av alla AI-system som är mer kraftfulla än GPT-4. Detta mot bakgrund av att man anser att utvecklingen går för snabbt, vilket leder till osäkra AI-system och negativa effekter på människan.
Kanske är det just en sådan paus i utvecklingen som lagstiftaren behöver för att komma överens om ett AI-regelverk som kan säkra individers fri- och rättigheter samtidigt som det inte hindrar innovation.
*******
Delphi följer utvecklingen med spänning och kommer att ha anledning att återkomma till diskussionen om AI-utvecklingen i förhållande till AI-förordningen mer i detalj i takt med att förslaget behandlas vidare inom Europaparlamentet. Om du är intresserad av artificiell intelligens har vi tidigare skrivit flera blogginlägg på temat. Du hittar blogginläggen om artificiell intelligens här.
Denna artikel är skriven av Associate Sebastian Torres, Senior Associate/Advokat Louise Sundström och Senior Associate/Advokat Linus Larsén.
Relaterat innehåll