We blijven nog even in de juridische sfeer. Want bij Ars Technica vonden wij een interessant artikel over AI chatbots, en vrije meningsuiting. Het artikel is gebaseerd op het feit dat Microsoft onlangs op Twitter een Artificial Intelligence chatbot, dus een chatbot die zelf bijleert, geplaatst had. En dat die binnen 24 uur door slimmerikken omgevormd werd tot een bot die allerlei racistische en erg kwetsende taal uitslog. Microsoft haalde de bot snel van het net.
Maar je kan je afvragen: wat als iemand zich echt beledigd had gevoeld door de racistische taal van de bot? Wie had dan verantwoordelijk gesteld kunnen worden - de maker van de bot? In Nederland, zo lees je bij Ars Technica, werd alvast een programmeur die een Twitterbot ineengestoken had, met dit probleem geconfronteerd, doen zijn bot autonoom tweette "Ik wil echt mensen doden".
Er zijn meerdere bots momenteel, en reken maar dat zij op een of andere dag mensen zullen beledigen. Zo is er een AI-aangedreven DOnald Trump emulator @DeepDrumpf die de tweets van de echte Donald bestudeert, en nieuwe tweets maakt die de man gezegd zou kunnen hebben. Een andere AI-bot analyseert tv-shows en probeert nieuwe shows te creëren gebaseerd op scènes in bestaande shows, en 'verbeterde' dialogen te levern (@tvcommentbot).
In de VS wordt alvast onderzocht of de vrijheid van meningsuiting van toepassing is voor Twitterbots die de makers ervan niet echt onder controle hebben. Of mag de rechter eisen dat een robot stilgezet wordt?
Iets om over na te denken.
http://arstechnica.com/tech-policy/2016/04/when-the-next-twi ...
|