Artificiële intelligentie heeft ervoor gezorgd dat heel wat wetgeving herzien / aangepast moet worden. Een van de belangrijkste aspecten daarvan zijn de auteursrechten. Want om deze AI-toepassingen te trainen werden Large Language Modellen (LLM's) gebruikt, vaak zonder dat de schrijvers van die teksten / makers van afbeeldingen ervan op de hoogte waren, laat staan dat zij daarvoor hun toestemming gegeven hadden.
Nu is er een organisatie opgericht, Fairly Trained, dat een label wil uitreiken aan bedrijven die kunnen bewijzen dat zij wel degelijk om toestemming gevraagd hebben, om training data te gebruiken waarop auteursrechten berusten. In dezelfde lijn liggen de berichten van afspraken die de makers van AI-toepassingen tegenwoordig maken met nieuwsmedie, om hun content tegen betaling te mogen maken (1). Meer bij The Verge.
Een tweede bericht over AI gaat over oneigenlijk gebruik ervan om vals nieuws te verspreiden. OpenAI bijvoorbeeld is bezorgd dat zijn tools (ChatGPT, Dell-e, e.a.) misbruikt zullen worden bij de Amerikaanse verkiezingen. Daarom heeft het zijn beleid aangepast, en expliciet verboden om deze tools te gebruiken om zich voor te doen als kandidaten of lokale overheden. De tools mogen ook niet gebruikt worden bij campagnes of lobbying, en evenmin om het naar de stembus gaan te ontmoedigen, of het stemproces verkeerd voor te stellen. Je hebt het gehoord, heren en dames politici! Stop die campagne met een opnieuw tot leven gewekte Dehaene maar snel terug weg...
Tussen haakjes: onlangs paste OpenAI zijn beleid ook nog aan, maar toen om niet langer het gebruik van zijn tools expliciet te verbieden voor militaire en oorlogsdoeleinden....
https://www.theverge.com/2024/1/17/24041518/generative-ai-co ...
https://www.engadget.com/openai-lays-out-its-misinformation- ...
https://www.theverge.com/2024/1/15/24039333/openai-chatgpt-d ...
|