Opnieuw trekken verschillende wetenschappers en bedrijven aan de alarmbel. Zij vragen met aandrang dat wereldwijd prioriteit gegeven zou worden aan het "veilig" maken van AI, zodat het geen technologie kan worden die tot totale vernietiging van de mensheid zou leiden. Om dat alarmerend bericht in context te zetten, vergelijken de ondertekenaars van de oproep AI met pandemieën en een atoomoorlog.
Het bericht wordt, zo nuanceert The Verge, op gemengde gevoelens onthaald. Enerzijds wordt erop gewezen dat er veel meer critici die een doembeeld ophangen, gebaseerd op een hypothetisch scenario waarin de AI systemen snel hun mogelijkheden uitbouwen, en niet langer veilig werken. Zij voorspellen dat, zodra AI systemen een bepaald geavanceerd niveau bereiken, het onmogelijk wordt om hun acties nog te controleren.
Anderen menen dan weer dat AI systemen nog altijd niet relatief gewone, dagdagelijkse dingen kunnen doen, zoals bijvoorbeeld een auto besturen. En dat ondanks al het geld dat er in al die jaren in research gepompt werd. Als AI zelfs die uitdaging niet aankan, wat is dan de kans dat deze technologie alle andere menselijke taken kan vervullen in de nabije toekomst?
En dan zijn er nog anderen die erop wijzen dat het eigenaardige niet zozeer de boodschap is, als wel de boodschappers. Sam Altman en OpenAI zijn de koplopers momenteel, hun roep om AI te reguleren kan ingegeven zijn door het idee dat zij die regelgeving kunnen beïnvloeden in hun voordeel... Meer bij The Verge en Engadget.
https://www.engadget.com/ai-presents-risk-of-extinction-on-p ...
https://www.theverge.com/2023/5/30/23742005/ai-risk-warning- ...
|