Over 'deepfakes' heb je al gehoord: dat zijn valse filmpjes, die gemaakt worden met behulp van artificiële intelligentie en machine learning. Op basis van enkele foto's (of bestaande video's) wordt een gezicht van een persoon zo aangepast, dat de bewegingen van de mond bijvoorbeeld passen bij de audio die getoond wordt. Of een gelaatsuitdrukking wordt aangepast bijvoorbeeld.
Waarnemers vrezen dan ook dat dergelijke video's in de nabije toekomst wel eens voor heel wat nepnieuws en verwarring kunnen zorgen.
En het zou nog wel eens erger kunnen worden. Want tot nu toe had je voor het maken van zo'n fake video toch minstens enkele beelden nodig - foto's of een bestaande video. Onderzoekers bij Samsung hebben nu echter aangekondigd dat zij een technologie ontwikkeld hebben waarvoor amper één foto zou volstaan. Als voorbeeld wordt in een filmpje bij Gizmodo een lachende en bewegende MonaLisa getoond, enkel en alleen op basis van het bestaande schilderij.
De technologie heet 'Living portraits'. En hij is indrukwekkend goed. En dat is dan weer slecht voor de betrouwbaarheid van het nieuws...
Meer bij Gizmodo.
https://gizmodo.com/samsung-now-has-7a-way-to-make-ultrareal ...
|