We hebben al Artificial Intelligence, en Machine Learning. Beide termen dekken het concept waarbij machines (of liever: de software die erop draait) bijleren en zo slimmer worden.
Nu is er nog een nieuwe term: Embodied Intelligence. Daarbij gaat het erom robotten via AR en VR te leren om dingen te doen zoals de mens het doet. Want een robot kan misschien krachtiger zijn, maar de mens is handiger... met zijn handen. Bijvoorbeeld een voorwerp oprapen van de grond is iets waar de robot nog altijd niet erg handig is. Het probleem ligt bij het feit dat de robot zowel moet beslissen, zo lees je in een interessant artiekl bij IEEE.org, WAT hij moet nemen, en HOE hij het moet vastpakken. Een robot die op een vaste plaats staat, bijvoorbeeld bij auto-assemblage, kan daarvoor geprogrammeerd worden. Maar in een vrije omgeving is hij van geen nu meer: hij is enkel geprogrammeerd voor één bepaalde taak, en weet niet wat te doen.
Enkele wetenschappers hebben rond dit concept een startup opgericht die zij Embodied Intelligence noemen. Hun doel: de mens laten voordoen hoe taken uitgevoerd worden, zodat de robot het kan nadoen. Het leuke aan dit verhaal is dat één van die wetenschappers Pieter Abbeel is, een Belg die al enkele jaren professor is aan de eerbiedwaardige Berkeley universiteit, en die tot voor kort adviseur was bij het bedrijf van Elon Musk.
Meer bij IEEE en The Verge.
https://spectrum.ieee.org/automaton/robotics/artificial-inte ...
https://www.theverge.com/2017/11/10/16627570/robot-ai-graspi ...
https://people.eecs.berkeley.edu/~pabbeel/
|