Hét grote gevaar van AI is dat de teksten, de afbeeldingen die ermee gecreëerd worden, als echt beschouwd worden. Want deze generatieve AI tools worden steeds beter, zodat de content die zij creëren haast niet meer te onderscheiden zijn van door mensen gemaakte teksten en foto's.
OpenAI heeft nu een tool gelanceerd, die zou kunnen ontdekken of een afbeelding die gemaakt of gewijzigd werd met de text-to-image generator DALL-E 3 van OpenAI, nadien gewijzigd werd, en dat met 98% accuraatheid. Dat percentage daalt wel, wanneer er een screenshot gemaakt werd van de DALL-E3 afbeelding, of wanneer die uitgesneden werd.
OpenAI zegt dat het die tool intern al enkele maanden uitgetest heeft, en dat er geen gebruik gemaakt wordt van watermerken. Belangrijk hierbij is dat het enkel gaat om afbeeldingen die met DALL-E3 gemaakt werden. Want afbeeldingen van concurrerende AI beeldgeneratoren brengen de tool in verwarring. En ook de schakering (hue) veranderen vermindert de accuraatheid. En de tool gaat zelfs in de fout bij afbeeldingen die niet door AI maar door mensen gemaakt werden: in 0,5% van de gevallen klasseerde de tool die als afbeeldingen, gemaakt door DALL-E 3. Er is dus nog werk aan de winkel!
https://www.wsj.com/tech/ai/openai-says-it-can-now-detect-im ...
|