Skip to main content

Europese verboden op ongewenste AI toepassingen ingegaan

Zowel de economische kansen van kunstmatige intelligentie, AI, verzilveren als de veilige en betrouwbare werking van de technologie verzekeren. Dat is het uitgangspunt van de Europese AI verordening, AI Act, die sinds vorig jaar zomer gefaseerd is ingegaan. Vanaf 2 februari 2025 gelden in de gehele EU diverse verboden op ongewenste toepassingen van AI. Bijvoorbeeld op AI systemen die mensen indelen of rangschikken op basis van sociaal gedrag of persoonlijke kenmerken, social scoring, waarbij dit tot nadelige of ongunstige behandeling kan leiden.

De gehele AI verordening biedt kansen voor zowel ontwikkelaars als ondernemers en ook waarborgen voor Europese consumenten. Het gaat onder andere om basisafspraken over de werking van AI in producten en diensten, eisen aan, mogelijk, risicovolle toepassingen en de ondersteuning van ontwikkelaars zoals mkb ers. Zo kunnen Europeanen vertrouwen op AI en ondernemers gerichter aan de slag met innovaties.

Belangrijkste verboden

Naast het verbod op sociale scoring via de technologie, zijn ook AI systemen niet meer toegestaan die emotieherkenning in het werk en onderwijs toepassen. Evenals AI systemen die manipulatieve of misleidende technieken gebruiken, om in negatieve zin gedrag te veranderen. Hetzelfde geldt voor realtime biometrische identificatie op afstand in de openbare ruimte voor rechtshandhaving, met beperkte uitzonderingen. Ook het inzetten van AI voor risicobeoordelingen voor het plegen van strafbare feiten uitsluitend op basis van profilering is niet meer gedoogd in de EU.

Verder lezen bij de bron
IB&P

Nieuwsbrief

Deze versturen we 3-4x per jaar.

Recente blogs

Jouw leverancier, jouw risico: Waarom ketenrisico’s geen IT-probleem zijn
Veel gemeenten vertrouwen op leveranciers, maar blijven zelf verantwoordelijk voor de risico’s in de keten. In deze blog lees je waarom ketenrisico’s actief bestuurd moeten worden en hoe je als organisatie grip krijgt op leveranciers, contracten en continuïteit.
Ransomware bij een leverancier – waarom wachten geen strategie is
Een ransomware-incident bij een leverancier kan de gemeentelijke dienstverlening direct raken, juist omdat overzicht, contractmanagement en voorbereiding vaak onvoldoende zijn ingericht. Door inzicht te hebben in leveranciers, duidelijke afspraken te maken en ook organisatorisch na te denken over handelingsperspectief, voorkom je dat de gemeente bij een incident in een afwachtende slachtofferrol belandt.
Onzichtbare AI in systemen: privacyrisico’s voor gemeenten
In deze blog leggen we uit hoe AI ongemerkt gemeentelijke software binnendringt, waarom dit een privacyrisico vormt en hoe je hier als gemeente grip op houdt.

Meer recente berichten

Wie heeft zicht op alle camera’s in de publieke ruimte?
Verder lezen
Tweede Kamer neemt Cyberbeveiligingswet aan
Verder lezen
Nieuwe Amerikaanse wet moet ASML-verkoop aan China stoppen
Verder lezen
Cy­ber­se­cu­ri­ty awareness via ge­per­so­na­li­seer­de game bij Gemeente Meierijstad (Phantom’sLab)
Verder lezen
Hoogleraar pleit wegens datalekken voor professionele digitale architecten
Verder lezen
Realiteit van ransomware: kruip in het hoofd van een hacker
Verder lezen
Docenten kijken na met AI: slimme tijdsbesparing of risicovol?
Verder lezen
AI in het bedrijfsleven: innovatie stimuleren zonder het cyberrisico te vergroten
Verder lezen
AP wijst scholen op privacyrisico’s bij gebruik van digitale leermiddelen
Verder lezen
Adviescollege ICT publiceert concrete veiligheidslessen
Verder lezen