Het is allemaal mooie en wel dat computers steeds slimmer worden, maar wanneer worden zij té slim voor de mens? Zijn er gevaren aan de artificiële intelligentie die wij computers leren te ontwikkelen?
Sommigen zeggen dat artificiële intelligentie het laatste is dat de mens zal uitvinden. Daarna zal alles uitgevonden worden door de AI computers. Anderen waarschuwen voor AI, omdat het de mens zou kunnen overschaduwen. Allerlei science fiction doembeelden duiken op, met referenties naar de computer Hall in de film 2001: a space Odyssey uit 1968, en naar de robot-wetten van Asimov.
Is dat gewoon bangmakerij, of zit er toch iets in - dat we maar best heel voorzichtig zijn met AI en grenzen inbouwen? Een artikel bij Tecnologyreview zal je alvast aan het denken zetten. In het artikel wordt namelijk een zelfrijdende auto vermeld, die geen enkele instructie volgde die door een ingenieur of programmeur ingevoerd was. Neen, deze auto was volledig gebaseerd op een algoritme dat zichzelf geleerd had hoe een auto te besturen, door te zien hoe een mens dat deed.
Mooi, maar ook beangstigend. Want het is volkomen onduidelijk hoe de auto zijn beslissingen neemt. INformatie van de sensoren van het voertuig gaan wel in een groot netwerk van artificiële neuronen, die dan de data verwerken en de commando's uitsturen die noodzakelijk zijn om stuurwiel, remmen en andere systemen te bedienen. Acties die ongeveer gelijkluidend zijn als bij de mens. Hoe de auto dat beslist, is echter onduidelijk. En het is dus ook onduidelijk wat de auto zou doen wanneer hij in een onverwachte situatie terecht komt, zoals in een botsing met een boom.
Het artikel noemt dit toch wel een probleem bij artificial intelligence. Deep learning is heel krachtig, kan complexe problemen oplossen, en wordt gebruikt voor taken zoals het capteren van beelden, spraakherkenning, vertalingen. Er wordt verwacht dat het ook kan helpen om dodelijke ziekten te diagnosticeren, en helpen bij de behandeling ervan, en ontelbare dingen die hele industrieën kunnen helpen.
Maar, zo stelt het artikel, dit kan en mag enkel gebeuren indien we manieren vinden om technieken zoals deep learning beter verstaanbaar te maken voor de mensen die hen bedenken. Zij moeten begrijpen waarom een bepaalde beslissing genomen wordt, en de systemen moeten ook een zekere rekenschap afleggen aan hun gebruikers, wanneer het fout gaat.
Een intrigerende gedachte. Lees meer bij TechnologyReview.
https://www.technologyreview.com/s/604087/the-dark-secret-at ...
|