OpenAI, een van de voorlopers op het gebied van artificiële intelligentie, had van het begin af aan een team opgericht binnen het bedrijf dat erop moest toezien dat AI zich netjes ging gedragen - of liever: dat de pogingen om een superintelligentie te ontwikkelen niet zouden leiden tot het einde van het mensdom. Dit weekend echter werd bekend dat de twee personen die dit team moesten leiden, ontslag genomen hebben. (1)
Maar dat wil niet zeggen dat er helemaal geen controle meer zal bestaan over de verdere ontwikkelingen van AI. Integendeel. Steeds meer initiatieven worden opgericht om ervoor te zorgen dat AI op een ethische manier ontwikkeld wordt. Zo heeft de Europese Raad deze week de EU AI Act goedgekeurd - een wet die al in maart dit jaar goedgekeurd werd door het Europese Parlement. Deze wet zal regelgeving uitwerken die in de volgende dagen gepubliceerd wordt en 20 dagen nadien van kracht wordt. De nieuwe regels zullen in fase van toepassing worden, en sommige daarvan pas over twee jaar, of zelfs langer.
De EU AI Act verbiedt een handvol onaanvaardbare risicogevallen, zoals cognitieve gedragsmanipulatie of sociale scores. Het bepaalt ook welke toepassingen risicovol zijn, zoals biometrie en gezichtsherkenning, of AI die gebruikt wordt in domeinen als onderwijs en werkgelegenheid. App-ontwikkelaars zullen hun systemen moeten registreren en moeten voldoen aan de verplichtingen op het gebied van risico- en kwaliteitsbeheer om toegang te krijgen tot de EU-markt.(2)
En tegelijkertijd had in Seoul (Zuid-Korea) een conferentie plaats waaraan meer dan een dozijn koplopers in AI deelnamen. Ook dit is een initiatief om risico's bij de ontwikkeling van AI aan banden te leggen, en het is een voortzetting van een consensus die verleden jaar in Bletchley Park in Groot-Brittannië gevonden werd over de veiligheid van AI.
Tot de aanwezigen behoorden ChatGPT-maker OpenAI, Google DeepMind en Anthropic. Zij verbinden zich ertoe om met elkaar te delen hoe zij de risicoes van hun technologie onderzoeken, en het framework ervan publiceren. Concreet komt het erop neer dat zij zullen vertellen welke risico's zij als "ondraaglijk" achten en wat zij zullen doen om ervoor te zorgen dat die drempels niet overschreden worden. (3)
https://www.theguardian.com/technology/article/2024/may/21/t ...
https://techcrunch.com/2024/05/21/eu-council-gives-final-nod ...
https://www.france24.com/en/live-news/20240521-16-top-ai-fir ...
|