Je hebt al kunnen lezen dat de EU werkt aan regulering van artificiële intelligentie zoals ChatGPT. De EU AI Act, zoals die moet gaan heten, zou o.a. de AI indelen in hoog en laag risico, en ChatGPT zou tot dat hoge risico gaan behoren. En dan zou het aan een aantel regels voor transparantie en veiligheid moeten voldoen.
Dat houdt niet alleen technische uitdagingen in, maar ook mogelijk op zakelijk vlak. Want volgens het huidig ontwerp zouden makers van een "foundation model" zoals ChatGPT details moeten vrijgeven over het ontwerp van hun systeem. Denk aan hoeveel computerkracht er nodig is, hoe lang het duurt om een AI te trainen, maar ook een samenvatting van welke auteursrechtelijk beschermde data gebruikt werden voor die training.
Gegevens die erg waardevol zijn voor de concurrenten, en die OpenAI liever voor zich houdt. Sam Altman, CEO van OpenAI, heeft dan ook gezegd dat er technische grenzen zijn aan wat mogelijk is. "We zullen trachten om de regels van de EU AI Act te eerbiedigen, maar als dat niet kan, dan zullen we stoppen hier te werken". En dat zou spijtig zijn, niet?
https://www.theverge.com/2023/5/25/23737116/openai-ai-regula ...
|