EU-kommisjonen har kommet med et forslag til regulering av kunstig intelligens - Artificial Intelligence Act. Formålet er å klassifisere og regulere AI basert på risiko. Forordningen vil trolig være EØS-relevant, og bli norsk lov etter hvert.
AI - eller kunstig intelligens – defineres gjerne som datasystemer som lærer av tidligere erfaringer ved tolkning av data. Det sies at AI har potensial til å transformere samfunnet, effektivisere prosesser og støtte beslutningsprosesser.
Regulering av AI er nødvendig for å ivareta personvern og respekt for grunnleggende rettigheter.
AI-forordningen følger en risikobasert tilnærming, som innebærer at desto større risiko den aktuelle AI-aktiviteten representerer, desto strengere krav er det til virksomheten som utfører aktiviteten.
Forordningen definerer fire risikonivåer:
EU har som mål å bidra til innovasjon og utvikling innenfor AI-sektoren.
Regelverket vil ikke pålegge samme sikkerhetskrav til programvare som har åpen kildekode / open-source.
Videre foreslås det å legge til rette for regulatoriske sandkasser, altså utviklingsprogrammer der AI-utviklere får bistand til utvikling og testing av AI-systemer.
I tillegg ønsker EU å opprette et AI-kontor som skal gi råd, veiledning og bidra til samarbeid mellom AI-aktører innen EU.
Forordningen vil håndheves gjennom et samspill av AI-kontoret og nasjonale tilsynsmyndigheter.