Ny EU-lovgivning sætter rammer for kunstig intelligens – Hvad betyder det for bureauerne?

Lørdag den 9. november landede en politisk aftale på EU-plan om kunstig intelligens under navnet AI Act, som på sigt vil gælde i alle EU-medlemsstater. AI Act fastlægger forpligtelser for kunstig intelligens baseret på potentielle risici og niveauet af påvirkning, samt regler for generelle AI-modeller. De nye regler vil være ens for og blive anvendt direkte i alle medlemsstater i EU.

AI Act bygger på en risikobaseret tilgang for AI-systemer, som er designet med intentionen om at blive brugt til én eller flere specifikke formål. Den risikobaserede tilgang er inddelt i tre forskellige kategorier:

Minimal risiko
Størstedelen af AI-systemerne falder ind under denne kategori. Systemer med minimal risiko, såsom AI-aktiverede anbefalingssystemer eller spamfiltre er fritaget fra en række forpligtelser, da disse systemer kun udgør minimal eller ingen risiko for borgernes rettigheder eller sikkerhed.

Høj risiko
AI-systemer, der er identificeret med høj risiko, skal overholde strenge krav, herunder risikobegrænsende systemer, høj kvalitet af datasæt, logning af aktivitet, detaljeret dokumentation, klar brugerinformation, menneskelige tilsyn samt høj robusthed, nøjagtighed og cybersikkerhed. Højrisiko-AI-systemer inkluderer fx kritisk infrastruktur inden for vand, gas og elektricitet, medicinske enheder, systemer til at bestemme adgang til uddannelsesinstitutioner eller rekruttering, samt visse systemer inden for retshåndhævelse, grænsekontrol, retsvæsen og demokratiske processer.

Uacceptabel risiko
AI-systemer, der betragtes som en klar trussel mod menneskers grundlæggende rettigheder, vil blive forbudt. Dette inkluderer AI-systemer eller applikationer, der manipulerer menneskelig adfærd for at omgå brugernes frie vilje, såsom legetøj med stemmestyring, der opmuntrer til farlig adfærd hos mindreårige, biometriske systemer, som følelsesgenkendelse, der anvendes på arbejdspladser, eller systemer, der tillader ‘social scoring’/sociale pointsystem af regeringer eller virksomheder.

General-purpose AI (GPAI)
AI-Act pålægger generelle GPAI-modeller en række specifikke krav. Kravene betyder, at når man som bruger interagerer med AI-systemer, som fx chatbots, så skal man gøres opmærksom på dette. Derudover skal deep fakes og andet indhold markeres. Der vil være krav om gennemsigtighed for alle AI-modeller til generelle formål.

Bøder
Manglende overholdelse af reglerne fører til bøder på 35 millioner euro eller 7% af den globale omsætning (alt efter, hvad der er højest) for overtrædelse af forbudte AI-systemer. For overtrædelse af andre forpligtigelser vil bøderne fastsættes til 15 millioner euro eller 3 % af den globale omsætning og for angivelse af forkerte oplysninger 7,5 millioner euro eller 1,5 % af den globale omsætning. For SMV’er og nystartede virksomheder er der fastsat mere forholdsmæssige lofter for bøderne.

Næste skridt
Den politiske aftale skal nu formelt godkendes af Europa-Parlamentet og Rådet. Efter den formelle godkendelse, hvor datoen endnu er uvis, vil loven være gældende efter to år. Bemærk at nogle dele af forordningen dog vil være gældende før.

Hvad betyder AI Act for bureauer?
Reklameaktiviteter er ikke eksplicit omfattet af AI-loven, men specifikke aktiviteter vil sandsynligvis indirekte falde ind under loven, afhængigt af brugen. Automatiseret interaktion med mennesker, såsom chatbots, følelsesdetektion (Emotion AI) eller automatiseret kategorisering baseret på biometriske data, vil fx som udgangspunkt falde ind under de mere strenge gennemsigtighedskrav.

Kravene vil gælde for bureauer på to niveauer

1. Ved udvikling eller tilpasning af AI-modeller
Når bureauer udvikler eller tilpasser AI-modeller fra upstream-udbydere til en specifik brug, skal de overholde kravene, der gælder for udbydere af AI-systemer (som beskrevet tidligere i artiklen).

2. Ved visning af annoncer eller interaktion med brugere:
Brugere skal gøres opmærksomme på, når de interagerer med AI-systemer, som for eksempel chatbots. Brugerne skal også informeres, når biometrisk kategorisering (analyse af data som fx ansigtstræk, stemmemønstre eller fingeraftryk) eller følelsesgenkendelse (genkendelsesteknologi, der kan tolke følelser) anvendes.

Desuden skal platforme/udbydere designe systemer på en måde, hvor ”kunstig” lyd, video, tekst og billedindhold er markeret i et maskinlæsbart format og kan spores som kunstigt genereret eller manipuleret. Det vil højst sandsynligt være platformene/udbyderne, som viser annoncerne, der i de fleste tilfælde vil være ansvarlige for at overholde de mere specifikke gennemsigtighedskrav og gøre brugerne opmærksomme på det. Men på bureauerne skal man være opmærksom på, at bureauets egne processer er strømlinet med reglerne i den nye AI Act – uanset hvilken platform/medie, man benytter til at vise sine annoncer.

I Kreativitet & Kommunikation følger vi løbende AI Act og kommer med mere information, når den endelige lovtekst til AI Act er offentliggjort.

Mere information

Læs pressemeddelelsen fra Europa Kommissionen her.