EU AI Act ā Dit zijn de 5 belangrijkste artikelen die je nu moet kennen! Mis vooral nummer 4 niet!
By Anove
February 4, 2025
Op 2 februari 2025 traden de eerste bepalingen van de EU Artificial Intelligence Act (AI Act) officieel in werking. Is de wereld vergaan? Nee, we zijn er nog. Moet je in paniek raken? Alleen als je koffie is gezet door een rebelse AI. Is het belangrijk? Absoluut!
De EU AI Act is de nieuwste juridische vinding van de Europese Unie, die eindelijk het toneel betrekt (of in elk geval in werking is getreden). Deze baanbrekende verordening is als een regelboek voor AI, erop gericht om ervoor te zorgen dat onze robotoverheren — ik bedoel, behulpzame AI-assistenten — ethisch, veilig en vooral niet bezig zijn met het beramen van wereldheerschappij.
Serieus: Deze verordening legt een omvattend juridisch kader vast om de verantwoorde ontwikkeling van AI-technologieën in de Europese Unie te waarborgen. Het doel? Het verbeteren van de interne markt, het stimuleren van mensgerichte en betrouwbare AI, en tegelijkertijd het beschermen van gezondheid, veiligheid en fundamentele rechten — zoals vastgelegd in het Handvest van de Grondrechten. Kortom: AI krijgt regels, wij krijgen gemoedsrust. Klinkt als een eerlijke deal, toch?
De startende vijf: Artikel 1
Net als bij basketbal hebben we een startende vijf: de eerste vijf artikelen van de EU AI Act die nu van kracht zijn en de basis leggen voor AI-regulering.
Artikel 1 zet de toon door het doel van de verordening te definiëren: het verbeteren van de werking van de interne markt en het bevorderen van mensgerichte en betrouwbare AI. Daarnaast zorgt het voor een hoog niveau van bescherming voor gezondheid, veiligheid en fundamentele rechten – want niemand wil een wereld waarin AI speelt met ons welzijn!
Meestal komen regelgevingen met overwegingen: de achtergrondverhalen achter de wet. Overweging 3 legt uit waarom de EU AI Act bestaat: om een geharmoniseerde, betrouwbare aanpak van AI in de hele Unie te creëren en een rommeltje van nationale regels te voorkomen. Omdat AI over sectoren en grenzen heen wordt gebruikt, kunnen inconsistente regels leiden tot juridische onzekerheid en innovatie vertragen. Door uniforme verplichtingen vast te leggen onder Artikel 114 van het Verdrag betreffende de werking van de Europese Unie (VWEU), zorgt de verordening ervoor dat AI vrij kan circuleren, terwijl fundamentele rechten en openbare belangen worden beschermd. Daarnaast introduceert het specifieke waarborgen voor AI in strafrechtelijke handhaving (denk aan biometrische identificatie en risicobeoordelingen), in lijn met Artikel 16 VWEU en met hulp van de Europese Gegevensbeschermingsraad (EDPB) om persoonsgegevens te beschermen.
Overweging 7 herinnert ons eraan waarom AI een veiligheidsnet nodig heeft. Om alles veilig en betrouwbaar te houden (en AI-geïnduceerde chaos te voorkomen), voert de EU gemeenschappelijke regels in voor hoogrisico-AI-systemen. Denk eraan als een gordel voor AI – om openbare belangen zoals gezondheid, veiligheid en fundamentele rechten te beschermen, waar AI ook wordt ingezet. Want laten we eerlijk zijn: niemand wil dat een oncontroleerbaar algoritme levensbelangrijke beslissingen neemt zonder stevige leuningen!
Artikel 2: Zijn of niet zijn? Ja, jij bent het
Artikel 2 legt de reikwijdte van de verordening uit en verdeelt duidelijk de verantwoordelijkheden tussen aanbieders, gebruikers, importeurs en distributeurs. Volgens traditie strekt de EU haar invloed uit tot buiten haar grenzen, zodat bedrijven buiten de EU die AI binnen de Unie inzetten, ook moeten voldoen. Dit moet zorgen voor een gelijk speelveld en effectieve bescherming van de rechten en vrijheden van individuen in de hele Unie (zie Overweging 21).
Toch weet de EU ook wanneer ze een stap terug moet doen. Sommige AI-systemen vallen buiten de verordening, zoals systemen voor militaire, defensie- of nationale veiligheidsdoeleinden – terreinen waar de EU wijselijk vanaf blijft. Deze uitsluiting is gerechtvaardigd omdat nationale veiligheid de verantwoordelijkheid blijft van de lidstaten en vanwege de specifieke aard en operationele behoeften van nationale veiligheidsactiviteiten (zie Overweging 24). Ook AI-modellen die uitsluitend voor wetenschappelijk onderzoek en ontwikkeling worden gebruikt, zijn vrijgesteld – want laten we innovatie niet overal verstikken; de EU respecteert de vrijheid van wetenschap en wil onderzoek en ontwikkeling niet ondermijnen (zie Overweging 25). AI-systemen die door openbare autoriteiten in derde landen worden gebruikt voor internationale strafrechtelijke handhaving en justitiële samenwerking, blijven buiten schot, mits ze voldoen aan de bescherming van fundamentele rechten. Lidstaten blijven verantwoordelijk om ervoor te zorgen dat hun gebruik in lijn is met het EU-recht (zie Overweging 22). Tot slot zijn AI-systemen die onder vrije en open-source licenties vallen, grotendeels vrijgesteld, tenzij ze als hoogrisico worden geclassificeerd of expliciet verboden zijn – want waarom het leven moeilijker maken voor voorstanders van open technologie?
Artikel 3: De terminologie-paragraaf
Artikel 3 is dé terminologie-paragraaf. We hebben er altijd een nodig, om er zeker van te zijn dat we het eens zijn over waar we het oneens over zijn. Onder de sleuteldefinities valt een ruime omschrijving van een AI-systeem, die toekomstige ontwikkelingen, formaten en toepassingen van AI kan omvatten. Ook de rollen van aanbieders, gebruikers, distributeurs en operators worden duidelijker gedefinieerd, zodat iedereen zijn verantwoordelijkheden kent in dit evoluerende landschap.
Daarnaast introduceert de verordening het concept ‘conformiteitsbeoordeling’: het proces om aan te tonen dat aan de eisen uit Hoofdstuk III, Sectie 2 voor hoogrisico-AI-systemen is voldaan. Wist je dat je je AI-gebruik moet beoordelen? Ja, nog een beoordeling om aan je compliance-checklist toe te voegen!
Artikel 4: De echte game-changer
Sprekend over beoordelingen: Artikel 4 stelt de noodzaak van AI-governance en verantwoordelijkheid voor alle betrokkenen vast – inclusief aanbieders (waarschijnlijk jouw bedrijf, als je AI gebruikt). Het vereist dat AI-aanbieders en -gebruikers ervoor zorgen dat hun medewerkers zijn opgeleid in AI-compliance en risicobeheer. Bedrijven moeten ervoor zorgen dat hun personeel voldoende AI-geletterd is, rekening houdend met technische kennis, ervaring, opleiding en de context waarin AI-systemen worden gebruikt, evenals de personen of groepen die hierdoor worden beïnvloed. En dit geldt nu al! Het minimum dat je kunt doen? AI-richtlijnen opstellen en een lijst van verboden toepassingen. Heb je hulp nodig? Wij hebben een sjabloon – neem contact met ons op en we sturen je er een toe.
Artikel 5: Onze MVP – Meest Waardevolle Verboden
Tot slot trekt de EU een duidelijke grens als het gaat om AI-systemen die onaanvaardbare risico’s vormen voor fundamentele rechten, democratie en menselijke waardigheid. Kortom, sommige AI-toepassingen zijn officieel in de "bedankt, maar nee bedankt"-categorie beland. Dit is strikt verboden:
- Subliminale of misleidende technieken die individuen buiten hun bewustzijn om manipuleren, zodat ze beslissingen nemen die ze anders niet zouden nemen, vaak met schadelijke gevolgen.
- Misbruik van kwetsbaarheden op basis van leeftijd, handicap of sociaal-economische status om gedrag te vervormen en schade te veroorzaken. Het uitbuiten van zwakheden is onacceptabel.
- Sociale scoresystemen die individuen beoordelen of classificeren op basis van hun gedrag, wat leidt tot ongerechtvaardigde of onevenredige behandeling. Het echte leven is geen dystopische aflevering van Black Mirror.
- Predictive policing-AI die het risico inschat of voorspelt dat iemand een misdaad zal plegen, uitsluitend op basis van profilering of persoonlijkheidskenmerken. Minority Report was een film, geen beleidsgids.
- Het schrapen van gezichtsbeelden om biometrische databanken aan te leggen of uit te breiden zonder toestemming. Privacy telt nog steeds, ook in het AI-tijdperk.
- Emotieherkenning-AI op de werkvloer en in onderwijsinstellingen, tenzij voor medische of veiligheidsredenen. Werkgevers hebben geen AI nodig om te weten of medewerkers afhaken tijdens een lange vergadering.
- Biometrische categorisering die gevoelige kenmerken afleidt, zoals ras, politieke opvattingen, religieuze overtuigingen of seksuele geaardheid. AI mag mensen niet labelen op manieren die tot discriminatie kunnen leiden.
- Real-time biometrische identificatie op openbare plaatsen voor strafrechtelijke handhaving, behalve in specifieke en strikt noodzakelijke gevallen, zoals het opsporen van vermiste personen, het voorkomen van dreigend gevaar of het onderzoeken van ernstige misdrijven. Massasurveillance staat niet op de EU-wensenlijst.
Elke instantie van real-time remote biometrische identificatie voor handhaving moet vooraf worden goedgekeurd door een rechterlijke of onafhankelijke autoriteit, behalve in spoedeisende gevallen waarbij achteraf goedkeuring vereist is binnen 24 uur. Daarnaast moeten handhavingsinstanties markttoezicht- en gegevensbeschermingsautoriteiten informeren over elk gebruikgeval. Als een AI-project een van bovenstaande zaken omvat, is het waarschijnlijk tijd om de aanpak te heroverwegen. Een regulatorische mijlpaal voor AI in Europa Met deze eerste hoofdstukken die nu van kracht zijn, heeft de EU een significante stap gezet in het waarborgen van het verantwoorde gebruik van AI. De regulering vindt een balans tussen het bevorderen van innovatie en het beschermen van de rechten van burgers, en stelt een wereldwijd precedent voor AI-governance. Het tijdperk van ongereguleerde AI is voorbij, en het is nu tijd om je aan te passen aan deze nieuwe regels. Naarmate de AI Act in fasen wordt ingevoerd, moeten bedrijven en organisaties op de hoogte blijven en zich aanpassen aan het evoluerende regelgevende landschap. Meer bepalingen zullen in de komende maanden in werking treden, dus bijblijven is essentieel. Wil je voorop lopen? Doe mee aan ons volgende webinar, waar we dieper ingaan op de AI Act, uitleggen wat het betekent voor je bedrijf, en je praktische stappen geven om compliance te waarborgen terwijl je innovatie bevordert. Registreer je nu en wees deel van het gesprek!
Een regulatorische mijlpaal voor AI in Europa
Met deze eerste hoofdstukken die nu van kracht zijn, heeft de EU een significante stap gezet in het waarborgen van het verantwoorde gebruik van AI. De regulering vindt een balans tussen het bevorderen van innovatie en het beschermen van de rechten van burgers, en stelt een wereldwijd precedent voor AI-governance. Het tijdperk van ongereguleerde AI is voorbij, en het is nu tijd om je aan te passen aan deze nieuwe regels.
Naarmate de AI Act in fasen wordt ingevoerd, moeten bedrijven en organisaties op de hoogte blijven en zich aanpassen aan het evoluerende regelgevende landschap. Meer bepalingen zullen in de komende maanden in werking treden, dus bijblijven is essentieel.
Wil je voorop lopen?
Doe mee aan ons volgende webinar, waar we dieper ingaan op de AI Act, uitleggen wat het betekent voor je bedrijf, en je praktische stappen geven om compliance te waarborgen terwijl je innovatie bevordert. Registreer je nu en wees deel van het gesprek