<img height="1" width="1" style="display:none" src="https://www.facebook.com/tr?id=959086704153666&amp;ev=PageView&amp;noscript=1">

Ny EU-förordning reglerar användning av AI - så här förbereder du dig

Flaggor EU-kommissionen ‹ Tillbaka till artiklarna

EU-kommissionen har lagt fram ett förslag till förordning rörande harmoniserade regler för utveckling och användning av artificiell intelligens (AI). En anledning är säkerställa att systemen är förenliga med befintlig lagstiftning om grundläggande rättigheter och unionens värderingar. Läs mer om förslaget och när det planeras att träda i kraft.

Mål om säker, tillförlitlig och etisk AI

Europeiska rådet angav i oktober 2020 att EU ska vara världsledande i utvecklingen av säker, tillförlitlig och etisk AI. Europaparlamentet har dessutom vid flera tillfällen uppmanat kommissionen att lägga fram lagförslag för att potentialen med AI kan nyttjas i ökad utsträckning, samtidigt som de grundläggande rättigheterna vid sådant nyttjande också säkerställs. En oberoende expertgrupp för AI-frågor inrättades av kommissionen 2018 och gruppen har bland annat tagit fram etiska riktlinjer för tillförlitlig AI. Målet med den kommande förordningen är att harmonisera regler för AI inom EU, stärka den inre marknadens konkurrenskraft och funktion samt att undvika fragmentering på den inre marknaden, skydda hälsa, säkerhet och grundläggande rättigheter, främja de positiva aspekterna av AI och säkerställa fri rörlighet av AI-system.

Syftet är:

  • att AI-system som släpps ut och används på unionsmarknaden är säkra och är förenliga med befintlig lagstiftning om de grundläggande rättigheterna och unionens värderingar
  • att säkerställa rättssäkerhet för att underlätta investeringar och innovation för AI
  • att förbättra styrningen och säkra en effektiv kontroll av uppfyllandet av befintlig lagstiftning om de grundläggande rättigheterna och säkerhetskrav som är tillämpliga på AI-system
  • att främja utvecklingen av en inre marknad för lagliga, säkra och tillförlitliga AI-tillämpningar och förhindra marknadsfragmentering.

Har du frågor om regelverk?

Metod för AI-system med hög risk

Vissa särskilt skadliga AI-metoder är förbjudna eftersom de strider mot unionens värden, medan särskilda begränsningar och skyddsåtgärder föreslås i samband med viss användning av biometriska fjärridentifieringssystem för brottsbekämpande ändamål. I förslaget fastställs en solid riskmetod för att definiera AI-system med ”hög risk”, som medför betydande risker för människors hälsa och säkerhet eller grundläggande rättigheter. Dessa AI-system måste uppfylla en uppsättning övergripande obligatoriska krav på tillförlitlig AI och genomgå förfaranden för bedömning innan de kan släppas ut på unionsmarknaden. Leverantörer och användare av dessa system åläggs också förutsägbara, proportionella och tydliga skyldigheter för att säkerställa säkerhet och beaktande av befintlig lagstiftning som skyddar de grundläggande rättigheterna under hela AI-systemens livscykel. För vissa specifika AI-system föreslås endast minimikrav på transparens, särskilt när chatbotar eller ”deepfake” används.

Ökat krav på dokumentation och koll på risker

För organisationer som utvecklar och använder tekniska lösningar som innefattar AI kommer den nya regleringen att innebära ytterligare krav på såväl dokumentation som riskbedömningar. Som ett komplement till GDPR:s konsekvensbedömning (Data Processing Impact Assessment, DPIA) avseende dataskydd kommer även en AI-riskbedömning (AI Risk Assessment, AIRA) att behöva göras. Även denna byggd på ett riskbaserat tillvägagångssätt. Förordningsförslaget har dock fått kritik av vissa intresseorganisationer som menar att riskbedömningen istället bör ta avstamp i en riskbedömning med fokus på mänskliga rättigheter (Human Rights Impact Assessment, HRIA).

AI-reglerna kan träda i kraft 2024

Förordningen planerar att antas hösten 2022 och kommer i så fall att börja tillämpas som tidigast hösten 2024.

Hanna Kjellman

Hanna Kjellman

Hanna Kjellman arbetar på PwC:s kontor i Stockholm. Hanna är legal rådgivare och specialist på dataskyddsfrågor.

Kontakt: 072-880 92 72, hanna.kjellman@pwc.com

Lämna en kommentar