Deze week, in het uitbollen van het jaar, hebben we al enkele onderwerpen aangeraakt die eerder filosofisch, maatschappelijk zijn. Met een blik op het verleden, en een vraag voor de toekomst: hoe moet het verder?
En ja, ook de wapenwedloop, oorlogvoering heeft een tech kantje waarbij je zou moeten stilstaan. Elke vijd jaar komt namelijk de United Nations Conventon on Certain Conventional Weapons bijeen. Daar wordt dan gesproken over het eventueel verbieden van bepaalde wapensystemen. In het verleden ging het over landmijnen, booby traps, En verleden week ging de vergadering over het verbieden van autonome wapensystemen. Dat zijn dus robots met dodelijke wapens, die targets selecteren en dan doden zonder verdere interventie van de mens. Denk aan een drone die geprogrammeerd wordt om een bepaald target te doden, die naar het doelwit vliegt, en die opdracht uitvoert. Er werd geen vergelijk gevonden, dus de gesprekken gaan verder.
In een artikel bij The Conversation belicht James Dawes, een professor aan het Macalaster College en onderzoeker die zich focust op de inzet van AI als wapen, vier manieren waarop deze systemen een gevaar kunnen opleveren.
Zij kunnen het doelwit verkeerd identificeren, en de verkeerde persoon neerschieten. Dat kan uiteraard ook de mens, en machines zullen eerder minder vergissingen maken dan mensen. Maar het gevaar ligt volgens de professor in de schaal, het doelwit, en de snelheid, die allemaal hoger liggen dan bij wat een mens vermag. En zelfs het kleinste foutpercentage zou leiden tot een hoger dodenaantal en meer schade.
De professor waarschuwt ook voor zowel low)end verspreiding (proliferatie) van AI wapensystemen als high-end. Bij low-end is het gevaar dat die goedkoper worden en effectiever. Bij high-end is het gevaar dat landen met dit kan leiden tot een race naar steeds meer geavanceerde dodelijke wapens, En op zijn beurt zou dat dan weer leiden naar een heel cynische manier van oorlogvoeren, met een kosten-batenalnalayse - een oorlog waarbij het gevaar voor de eigen soldaten verlaagd wordt, en de collateral damage, het doden van burgers, beperkt wordt. Een land dat zo'n geavanceerde wapens kan inzetten, heeft dan een voordeel op een land dat dit niet heeft.
En dan is er nog de vraag: wat als er iets fout loopt? Wat als een algoritme per ongeluk een burger doodt, geen soldaat? Hoe zit het met de Conventie van Geneve?
Dit alles maar om aan te tonen dat het wel degelijk nodig is dat er hierover nagedacht wordt. En dat die UN bijeenkomst wel eens wat meer aandacht zou mogen krijgen in de pers...
https://theconversation.com/un-fails-to-agree-on-killer-robo ...
|