Zijn Google en OpenAI de juiste partners om AI te reguleren?
We zien keer op keer berichtgeving over de mogelijke gevaren van AI. Dit komt vaak uit de hoek van politici en ethici, maar zij staan hier niet alleen in. Opvallend is namelijk dat de CEO s van Google en OpenAI zich eveneens regelmatig uitlaten over de noodzaak om kunstmatige intelligentie te reguleren. Recent bleek dat Google s Sundar Pichai actief meewerkt met het opstellen van AI regulering. Moeten we wel willen dat deze twee AI ontwikkelaars actief meedoen met het opstellen van wetgeving over hun speelveld?
Allereerst is het voor de hand liggend om partijen als Google en OpenAI te betrekken bij het opstellen van regelgeving. Binnen die bedrijven is er immers de expertise en het inzicht in naderende ontwikkelingen om duidelijkheid te geven over de aard van AI. Toch is het belangrijk voor bewindslieden om hun eigen professionele afstand te bewaren. Daarbij zijn er meer dan genoeg ethici en alumni van Big Tech, zoals de godfather of AI Geoffrey Hinton, om een eigen beeld van de plussen en minnen van AI op te bouwen. Wat Hinton betreft is er in ieder geval genoeg reden om te geloven dat er aardig wat gevaren bestaan omtrent AI.
We mogen wat weerstand tegen wetgeving verwachten vanuit bedrijven toegespitst op AI. Dat is van alle tijden bij zowat alle economische sectoren. Om innovatie te garanderen, maken prominenten zoals CEO Sam Altman van OpenAI zich hard voor een vrij losse interpretatie van AI-regelgeving wat betreft privacy en copyright. AI-toepassingen barsten uit de voegen van garanties over gegevensbescherming en chatbots zijn er als de kippen bij om hun capaciteiten te bagetalliseren. Voor de eindgebruiker is de boodschap vanuit grote AI-boeren: geef ons het voordeel van de twijfel. Immers is het niet zo dat we snel inzichtelijk krijgen wat er met onze chatbot-prompts gebeurt. Dit terwijl we bij bijvoorbeeld Microsoft bij het gebruik van cloudomgevingen meer kunnen weten over de stricte regels waaraan zij zich dienen te houden als het gaat om gebruikersgegevens.
Input-output
Laten we het tech-bedrijfsleven vooral niet zomaar het voordeel van de twijfel geven als het gaat om privacy. EU-landen strooien met boetes voor Meta en andere Big Tech-partijen. De track record van deze bedrijven is op dit gebied op z n minst discutabel. Wat kunnen we als het gaat om AI hiertegen doen?
Verder lezen bij de bron- Voorwaarden burgers en zorgverleners bij delen gegevens - 14 mei 2024
- Tot 10 miljoen boete voor onaangepaste cyberbeveiliging - 14 mei 2024
- Hoe AI de SOC expert te hulp schiet - 13 mei 2024
Lees ons boek
Gemeenten. Bewustzijn. Privacy.
Nieuwsbrief
Deze versturen we 3-4x per jaar.
Recente blogs
Meer recente berichten
Voorwaarden burgers en zorgverleners bij delen gegevens | Verder lezen | |
Tot 10 miljoen boete voor onaangepaste cyberbeveiliging | Verder lezen | |
Hoe AI de SOC expert te hulp schiet | Verder lezen | |
Kinderporno opsporen met detectiesoftware op mobiel: experts tegen EU wetsvoorstel | Verder lezen | |
Zoom scherpt privacybeleid voor Europese gebruikers verder aan als resultaat van samenwerking met SURF | Verder lezen | |
Applicatiebeveiliging in Nederland schiet flink tekort | Verder lezen | |
Nederlandse cyberexperts waarschuwen voor aanval gijzelsoftware | Verder lezen | |
Betaaldienst Klarna moet toch hogere boete betalen voor overtreden AVG | Verder lezen | |
Avast krijgt Tsjechische AVG boete van 14 miljoen voor doorverkopen van data | Verder lezen | |
Dit zijn geleerde lessen uit XZ kwetsbaarheid | Verder lezen |