Utvecklingen inom AI har gått snabbt de senaste åren, och genombrotten har skapat stor debatt om teknikens risker och möjligheter. Många företag använder redan AI i sina verksamheter, men intresset för att implementera tekniken på nya områden och på nya sätt har exploderat. Det har samtidigt lett till en oro för teknikens baksidor.
– Målsättningen med den nya AI-förordningen är att säkerställa våra grundläggande rättigheter och att skydda hälsa och säkerhet. Men det har också funnits en önskan om att främja användandet av AI, stödja innovation inom EU och se till att vi har ett gemensamt regelverk på den inre marknaden, säger Carolina Brånby.
Ett AI-system definieras i förordningen efter ett antal kriterier, där några av de viktigaste är att systemet kan lära sig och anpassa sig över tid utan mänsklig inblandning, och kunna generera resultat i form av exempelvis förutsägelser, innehåll, rekommendationer eller beslut. För att omfattas av de regleringar som finns i förordningen krävs dessutom att systemet bedöms innehålla någon form av risk.
– De allra flesta av de AI-system som finns i dag kommer inte att påverkas av de nya regleringarna eftersom de som huvudregel inte gäller retroaktivt. Dessutom har merparten av dagens AI-system låg eller ingen risk. Men alltfler nya system kan sannolikt falla in under förordningens krav i framtiden, inte minst med den ökade användningen av generativ AI och nya modeller och system som kommer ut på marknaden, säger Carolina Brånby.
För att förstå hur de system man själv använder, eller kan tänkas använda, påverkas kan man dela in förordningen i fem riskklasser. Den översta är förbjuden AI, sedan kommer AI med hög risk, AI-modeller för allmänna ändamål, AI-modeller med viss risk och AI-modeller med låg eller ingen risk. Enligt Carolina Brånby är det viktigaste för företagen att ha koll på om man använder system som klassas som hög risk. Med det följer nämligen många krav kring transparens, kompetens, säkerhet, med mera.
– I förordningen finns det ett antal högriskområden specificerade, men också undantag för enklare system som inte kan anses vara så riskfulla även om de skulle användas inom dessa områden, säger Carolina Brånby.
De nya reglerna börjar dock inte gälla direkt. Förbudet mot viss användning börjar gälla redan vid årsskiftet, men först senare börjar reglerna som omfattar nya AI-system med hög risk att gälla. För vissa av högrisksystemen börjar reglerna gälla juli 2026, medan det för andra börjar gälla i juli 2027.
– De system som redan träffas av sektorsspecifik lagstiftning har längre tid på sig att anpassa sig till den nya förordningen, främst för att man ska hinna ta fram gemensamma standarder som företagen kan anpassa sig efter, säger Carolina Brånby.
Carolina Brånby påpekar också att AI-systemen träffas av den nya regleringen först när de tas i bruk inom företaget, eller börjar säljas på marknaden.
– System och modeller som används till forskning, eller som är under utveckling och ännu inte tagits i bruk, omfattas inte. Det är viktigt för att företagen ska kunna ta fram ny AI, säger Carolina Brånby.