AI Act: stap dichter bij regels op het gebied van kunstmatige intelligentie
Donderdag keurden de Commissie interne markt en de Commissie burgerlijke vrijheden een ontwerp van onderhandelingsmandaat over de allereerste regels voor kunstmatige intelligentie goed met 84 stemmen voor, 7 tegen en 12 onthoudingen. In hun amendementen op het voorstel van de Commissie streven de EP-leden ernaar ervoor te zorgen dat AI-systemen onder toezicht van mensen staan, veilig, transparant, traceerbaar, niet-discriminerend en milieuvriendelijk zijn. Ze willen ook een uniforme definitie van AI die technologieneutraal is ontworpen, zodat het kan worden toegepast op de AI-systemen van vandaag en morgen.
Om een mensgerichte en ethische ontwikkeling van kunstmatige intelligentie (AI) in Europa te garanderen, keurden de EP-leden nieuwe regels voor transparantie en risicobeheer voor AI-systemen goed.
Zodra ze zijn goedgekeurd, zijn het 's werelds eerste regels voor kunstmatige intelligentie. Het gaat om onder andere:
|
Verboden AI-praktijken
De regels volgen een risicogebaseerde benadering en stellen verplichtingen vast voor aanbieders en gebruikers, afhankelijk van het risiconiveau dat de AI kan genereren.
AI-systemen met een onaanvaardbaar risico voor de veiligheid van mensen zouden ten strengste verboden zijn, inclusief systemen die verborgen onderbewuste of doelbewuste manipulatieve technieken toepassen, de kwetsbaarheden van mensen uitbuiten of worden gebruikt voor sociale scores (mensen classificeren op basis van hun sociaal gedrag, sociaaleconomische status, persoonlijke kenmerken).
EP-leden hebben de lijst ingrijpend gewijzigd om er verboden op opdringend en discriminerend gebruik van AI-systemen in op te nemen, zoals:
- "Realtime" biometrische identificatiesystemen op afstand in openbaar toegankelijke ruimtes;
- "Post" biometrische identificatiesystemen op afstand, met als enige uitzondering rechtshandhaving voor de vervolging van ernstige misdrijven en alleen na gerechtelijke toestemming;
- Biometrische categoriseringssystemen die gebruik maken van gevoelige kenmerken (bijv. geslacht, ras, etniciteit, staatsburgerschap, religie, politieke oriëntatie);
- Voorspellende politiesystemen (gebaseerd op profilering, locatie of crimineel gedrag in het verleden);
- Emotieherkenningssystemen bij wetshandhaving, grensbeheer, werkplekken en onderwijsinstellingen; En
- Willekeurig schrapen van biometrische gegevens van sociale media of CCTV-beelden om databases voor gezichtsherkenning te creëren (in strijd met mensenrechten en recht op privacy).
AI met een hoog risico
Europarlementsleden hebben de classificatie van gebieden met een hoog risico uitgebreid met schade aan de gezondheid, veiligheid, grondrechten of het milieu van mensen. Ze voegden ook AI-systemen toe om kiezers te beïnvloeden in politieke campagnes en in aanbevelingssystemen die worden gebruikt door sociale mediaplatforms (met meer dan 45 miljoen gebruikers onder de Digital Services Act) aan de lijst met hoge risico's.
AI voor algemeen gebruik - transparantiemaatregelen
EP-leden legden verplichtingen op voor aanbieders van stichtingsmodellen - een nieuwe en snel evoluerende ontwikkeling op het gebied van AI - die een robuuste bescherming van grondrechten, gezondheid en veiligheid en het milieu, democratie en rechtsstaat zouden moeten garanderen. Ze zouden risico's moeten beoordelen en beperken, moeten voldoen aan ontwerp-, informatie- en milieueisen en zich moeten registreren in de EU-databank.
Generatieve basismodellen, zoals GPT, zouden moeten voldoen aan aanvullende transparantievereisten, zoals onthullen dat de inhoud door AI is gegenereerd, het model ontwerpen om te voorkomen dat het illegale inhoud genereert en samenvattingen publiceren van auteursrechtelijk beschermde gegevens die voor training worden gebruikt.
Innovatie steunen en burgers beschermen
Om AI-innovatie te stimuleren, voegden EP-leden vrijstellingen toe aan deze regels voor onderzoeksactiviteiten en AI-componenten die worden geleverd onder open-sourcelicenties. De nieuwe wet promoot regelgevende sandboxen, of gecontroleerde omgevingen, die door de overheid zijn opgezet om AI te testen voordat deze wordt ingezet.
EP-leden willen het recht van burgers versterken om klachten over AI-systemen in te dienen en uitleg te krijgen over beslissingen op basis van risicovolle AI-systemen die hun rechten aanzienlijk beïnvloeden. De leden van het Europees Parlement hervormden ook de rol van het EU AI-Bureau, dat zou moeten toezien op de uitvoering van het AI-rulebook.
Voordat de onderhandelingen met de Raad over de definitieve vorm van de wet kunnen beginnen, moet dit ontwerp-onderhandelingsmandaat door het hele parlement worden goedgekeurd, en de stemming wordt verwacht tijdens de zitting van 12-15 juni.