Europees Parlement en Raad bereiken politiek akkoord over nieuwe AI-Verordening

De Artificial Intelligence (AI)-verordening van de EU waarover het politiek akkoord is bereikt moet het eerste uitgebreide rechtskader voor artificiële intelligentie wereldwijd worden. Verantwoorde innovatie in Europa wordt gestimuleerd doordat de AI-regelgeving is toegespitst op identificeerbare risico's. Door de veiligheid en grondrechten van bevolking en bedrijfsleven te waarborgen, kan met de nieuwe AI-Verordening de ontwikkeling, uitrol en toepassing van betrouwbare AI in de EU worden bevorderd.

Het politieke akkoord dat het Europees Parlement en de Raad op 9 december 2023 hebben bereikt over de verordening artificiële intelligentie (AI-verordening), volgt op het voorstel voor die verordening van de Europese Commissie uit april 2021.

Het politiek akkoord moet nu formeel worden goedgekeurd door het Europees Parlement en de Raad en treedt vervolgens twintig dagen na de bekendmaking ervan in het EU-Publicatieblad in werking. Twee jaar na de inwerkingtreding wordt de AI-verordening van toepassing, met uitzondering van een aantal bepalingen. De verbodsbepalingen zullen al na zes maanden van toepassing zijn en de AI-regels voor algemene doeleinden na twaalf maanden.

Voor de overgangsperiode - de periode vóór het algemeen van toepassing worden van de verordening - zal de Europese Commissie nog een AI-pact lanceren. Dit pact verenigt AI-ontwikkelaars uit Europa en de rest van de wereld die vrijwillig toezeggen om vóór de wettelijke termijn uitvoering te geven aan de belangrijkste verplichtingen van de AI-verordening.

Om de regels voor betrouwbare AI internationaal te bevorderen, blijft de Europese Unie deze promoten in fora als de G7, de OESO, de Raad van Europa, de G20 en de VN. Zo werd onlangs het akkoord van de G7 over internationale leidende richtsnoeren en een vrijwillige gedragscode voor geavanceerde AI-systemen in het kader van het AI-proces van Hiroshima gesteund.

Achtergrond

Na de publicatie van de Europese AI-strategie in 2018 en de uitgebreide raadpleging van belanghebbenden heeft de deskundigengroep op hoog niveau inzake artificiële intelligentie (HLEG) in 2019 richtsnoeren voor betrouwbare AI en in 2020 een beoordelingslijst voor betrouwbare AI opgesteld. Ook werd in december 2018 het eerste gecoördineerde AI-plan voorgesteld als gezamenlijke verbintenis van de EU en de lidstaten.

Het AI-witboek van de Commissie uit 2020 (zie ook website informatie Commissie) schetst een duidelijke visie op AI in Europa: een ecosysteem van excellentie en vertrouwen. De openbare raadpleging over het AI-witboek van eind 2020 leidde wereldwijd tot veel respons. Het witboek ging vergezeld van een verslag van de Commissie (COM(2020) 64) over de gevolgen van artificiële intelligentie, het internet der dingen en robotica op het gebied van veiligheid en aansprakelijkheid. Conclusie was dat de huidige wetgeving voor productveiligheid een aantal lacunes bevat die moeten worden aangepakt, met name in de machinerichtlijn.

Onderzoek van het Gemeenschappelijk Centrum voor Onderzoek (JRC) is van groot belang geweest voor de vormgeving van het AI-beleid, de doeltreffende uitvoering ervan en de ontwikkeling van de AI-verordening.

De nieuwe EU-Artificial Intelligence Verordening

De nieuwe regels zullen in alle EU-lidstaten rechtstreeks op dezelfde wijze worden toegepast op basis van een toekomstbestendige definitie van AI. Daarbij geldt een risico gebaseerde aanpak:

Minimaal risico: De overgrote meerderheid van AI-systemen valt in deze categorie. Toepassingen met een minimaal risico, zoals op AI gebaseerde aanbevelingssystemen of spamfilters, krijgen een “laissez-passer” en zijn niet onderworpen aan verplichtingen. Zij vormen geen tot slechts een uiterst klein risico voor de rechten of veiligheid van de burger. Bedrijven kunnen zich wel vrijwillig binden aan aanvullende gedragscodes voor deze AI-systemen.

Hoog risico: AI-systemen die als hoog risico worden aangemerkt, moeten voldoen aan strenge eisen, waaronder risicobeperkende systemen, kwalitatief hoogwaardige gegevensreeksen, registratie van activiteiten, gedetailleerde documentatie, duidelijke gebruikersinformatie, menselijk toezicht en sterke robuustheid, nauwkeurigheid en cyberbeveiliging. Testomgevingen voor regelgeving vergemakkelijken verantwoorde innovatie en de ontwikkeling van conforme AI-systemen.

Bij AI-systemen met een hoog risico gaat het bijvoorbeeld om bepaalde kritieke infrastructuur, zoals infrastructuur op het gebied van water, gas en elektriciteit, medische hulpmiddelen, systemen om de toegang tot onderwijsinstellingen te bepalen of personen aan te werven, en bepaalde systemen die worden ingezet op het gebied van rechtshandhaving, grenscontrole, rechtsbedeling en democratische processen. Ook biometrische systemen voor identificatie, categorisering en emotieherkenning betreffen AI-systemen met een hoog risico.

Onaanvaardbaar risico: AI-systemen die een duidelijke bedreiging vormen voor de grondrechten van de bevolking, worden verboden. Het gaat om AI-systemen of -toepassingen die menselijk gedrag manipuleren om de vrije wil van gebruikers te omzeilen, zoals speelgoed met spraakondersteuning dat minderjarigen aanspoort tot gevaarlijk gedrag, systemen die “sociale scoring” door overheden of bedrijven mogelijk maken, en bepaalde toepassingen op het gebied van voorspellend politiewerk. Sommige toepassingen van biometrische systemen worden verboden, zoals systemen voor emotieherkenning op de werkplek en sommige systemen voor de categorisering van mensen of biometrische realtime-identificatie op afstand voor rechtshandhavingsdoeleinden.

Specifiek transparantierisico: Bij AI-systemen als chatbots moeten gebruikers zich ervan bewust zijn dat zij met een machine communiceren. Deepfakes en andere door AI gegenereerde inhoud moeten als zodanig worden aangemerkt en gebruikers moeten het weten als er biometrische systemen voor categorisering of emotieherkenning worden ingezet. Aanbieders moeten systemen zodanig ontwerpen dat synthetische inhoud (audio, video, tekst en afbeeldingen) in een machineleesbaar formaat wordt gemarkeerd en detecteerbaar is als artificieel gegenereerd of gemanipuleerd.

Geldboeten

Bedrijven die de regels niet naleven, krijgen een boete. Deze boetes kunnen uiteen lopen van 35 miljoen euro of (als dat hoger is) 7 procent van de wereldwijde jaaromzet bij de inzet van verboden AI-toepassingen tot 15 miljoen euro of 3 procent bij andere overtredingen en 7,5 miljoen euro of 1,5 procent voor het verstrekken van onjuiste informatie. Voor kmo's en start-ups gelden verhoudingswijs lagere boetes.

AI voor algemeen gebruik

Met de AI-verordening worden speciale regels voor AI-modellen voor algemene doeleinden ingevoerd die zorgen voor transparantie in de hele waardeketen. Voor AI-modellen die systeemrisico's kunnen inhouden, komen er aanvullende bindende verplichtingen op het gebied van risicobeheer en de monitoring van ernstige incidenten, modelevaluaties en tests die moeten bewijzen dat de modellen veilig zijn. De nieuwe verplichtingen worden ingevoerd via gedragscodes die de Commissie samen met de industrie, de wetenschappelijke gemeenschap, het maatschappelijk middenveld en andere belanghebbenden heeft ontwikkeld.

De nationale bevoegde markttoezichtautoriteiten zullen toezien op de uitvoering van de nieuwe regels op nationaal niveau. Een nieuw op te richten Europees AI-bureau in de Europese Commissie zal zorgen voor coördinatie op Europees niveau. Dat AI-bureau zal ook toezicht houden op de uitvoering en handhaving van de nieuwe regels voor AI-modellen voor algemene doeleinden. Het AI-bureau wordt de eerste organisatie ter wereld die naast de nationale markttoezichtautoriteiten bindende AI-regels handhaaft. Daarom wordt het naar verwachting een internationaal ijkpunt. Voor modellen voor algemene doeleinden zal een wetenschappelijk panel van onafhankelijke deskundigen een centrale rol spelen bij het geven van waarschuwingen over systeemrisico's en bij het classificeren en testen van de modellen.

Print Friendly and PDF ^