AI-Act: Wat je moet weten

4 februari 2025 – Leestijd 3 minuten

Overheden en organisaties in Europa moeten zich voorbereiden op een nieuwe manier van omgaan met kunstmatige intelligentie. Vanaf 1 februari 2025 gaat er daarom een verbod in voor bepaalde AI-systemen die als onaanvaardbaar risico worden beschouwd. Dit betekent dat deze systemen niet mogen worden verhandeld, gebruikt of in gebruik genomen. Dit kan impact hebben op jouw organisatie.

Voor wie?

Dit verbod geldt voor zowel aanbieders als gebruikers. Daarom raden wij zeker aan om dit intern onder de loep te nemen. Heb je hulp nodig? Weet dat wij voor je klaar staan. We zien de kracht van AI maar ook de risico’s rondom ethiek, privacy en veiligheid. Daarom zien wij deze actie ook als een belangrijke mijlpaal zodat we met z’n allen veilige en ethische AI-toepassingen binnen de Europese Unie kunnen waarborgen.

Wat houdt het verbod in?

De Europese Unie streeft met de AI-Act naar een juridisch kader dat een evenwicht creëert tussen innovatie en de bescherming van fundamentele mensenrechten. Dit betekent dat bepaalde AI-praktijken, die aanzienlijke risico’s voor burgers en de samenleving met zich meebrengen, verboden worden. Deze verboden zijn ontworpen om manipulatie, uitbuiting, ongewenste sociale controle en andere schadelijke effecten van AI te voorkomen.

Meer weten over andere richtlijnen als Nis2?

Een greep uit de verboden:

  • Manipulatieve of misleidende AI-Systemen
    Systemen die inspelen op kwetsbaarheden van mensen, zoals leeftijd of handicap, om hen onbewust te beïnvloeden.
  • Social Scoring
    Het beoordelen van mensen op basis van hun sociale gedrag of persoonlijke kenmerken, zoals in China wordt toegepast, is niet toegestaan in de EU.
  • Risicobeoordeling voor criminaliteit
    AI-systemen die proberen te voorspellen of iemand strafbare feiten zal plegen op basis van persoonlijkheidskenmerken of -eigenschappen, zijn verboden.
  • Biometrische categorisering
    Het gebruik van AI om gevoelige informatie af te leiden, zoals religie, seksuele geaardheid of politieke voorkeuren, is verboden.
  • Realtime biometrische identificatie in openbare ruimtes
    Dit mag alleen onder zeer specifieke omstandigheden, zoals het opsporen van vermiste personen of het voorkomen van ernstige bedreigingen voor het leven van mensen en het opsporen van verdachten van bepaalde zeer ernstige misdrijven.
  • Emotieherkenning en scraping van gezichtsdata
    AI-systemen die emoties analyseren op de werkplek of in het onderwijs worden verboden. Ook het verzamelen van gezichtsafbeeldingen van internet of camerabeelden zonder toestemming om databanken te vullen, is niet toegestaan.
AI-act beleid

Voorbeelden van verboden AI-systemen

  • Manipulatieve AI in marketing
    AI-systemen die consumenten onbewust beïnvloeden om aankopen te doen door gebruik te maken van hun emotionele kwetsbaarheden.
  • Social Scoring Systemen
    AI die mensen beoordeelt op basis van hun online gedrag en sociale interacties, zoals het Chinese sociale kredietsysteem.
  • Predictive Policing
    AI-systemen die proberen te voorspellen of iemand een misdaad zal begaan op basis van hun persoonlijkheidskenmerken of eerdere gedragingen.
  • Biometrische Surveillance
    Gezichtsherkenningssystemen die zonder toestemming worden gebruikt om mensen in openbare ruimtes te identificeren.
Raoul en Maarten van SPEYK

WAT BETEKENT DIT VOOR JOUW ORGANISATIE?

Organisaties, met name overheden, die gebruikmaken van AI, staan voor de uitdaging om hun systemen te evalueren. Het is essentieel om vóór 1 februari 2025 te achterhalen of je organisatie AI-systemen gebruikt die onder de verboden vallen. Indien dit het geval is, moeten deze systemen zo snel mogelijk worden uitgefaseerd. De Europese Commissie zal nog richtsnoeren publiceren om de verboden in de praktijk te implementeren.

WAAROM ACTIE ONDERNEMEN?

  • Wettelijke verplichting
    Vanaf 1 februari 2025 verbiedt de Europese AI-verordening (AI Act) het gebruik van bepaalde AI-systemen die als onaanvaardbaar risico worden beschouwd. Organisaties zijn wettelijk verplicht om deze verboden na te leven.
  • Voorkomen van sancties
    Niet-naleving van de in artikel 5 bedoelde AI-praktijken kan leiden tot aanzienlijke boetes, oplopend tot € 35 miljoen of 7% van de wereldwijde jaaromzet van een organisatie (Art. 99 Sancties EU-AI Act).
  • Ethische verantwoordelijkheid
    Het vermijden van het gebruik van AI-systemen die een onaanvaardbaar risico vormen, zoals manipulatieve of misleidende AI, beschermt de rechten en vrijheden van individuen en bevordert het vertrouwen in technologie.
  • Reputatiemanagement
    Het naleven van de AI-Act toont aan dat een organisatie zich inzet voor ethisch en verantwoord gebruik van technologie, wat bijdraagt aan een positief imago en het vertrouwen van klanten/inwoners en partners versterkt.

Door proactief te handelen en de nodige stappen te ondernemen om aan de AI-Act te voldoen, kunnen organisaties juridische risico’s minimaliseren en bijdragen aan een verantwoorde inzet van kunstmatige intelligentie.

Tijdlijn: Wat staat ons nog te wachten?

De AI-Act volgt een gefaseerde implementatie, met verschillende mijlpalen. De volgende stappen die de komende jaren op de planning staan zijn:

  • Vanaf 2 augustus 2025 moeten organisaties die werken met algemene AI-modellen (GPAI), zoals ChatGPT, voldoen aan strengere eisen op het gebied van transparantie, dataveiligheid en risicobeheer.
  • Op 2 augustus 2026 worden strenge eisen van kracht voor AI-systemen met een hoog risico. Bedrijven die met deze systemen werken, moeten onder andere zorgen voor technische documentatie, menselijke controle en continue monitoring van de werking van hun systemen.

Deze gefaseerde implementatie biedt organisaties de mogelijkheid om zich tijdig aan te passen aan de nieuwe regelgeving en ervoor te zorgen dat hun AI-systemen compliant zijn met de AI-Act.AI kan een superkracht zijn, maar veiligheid en privacy zijn tegelijkertijd ook erg belangrijk. Samen met jou zorgen we ervoor dat we profiteren van de voordelen, maar ook compliant zijn met AI-Act.

Geschreven door Jessica Blijleven

Meer weten over AI-ACT?

Wil jij meer weten over de ethische en veiligheidsnormen zoals vastgelegd in de AI-Act en vooral – welke stappen je kunt ondernemen?

Contact