Steeds meer doen sociale netwerken, van YouTube en Facebook tot Twitter, beroep op mensen om ongewenste content weg te filteren. Gewoon omdat de AI-systemen zelf niet altijd de juiste beslissingen nemen.
Daarbij heeft elk sociaal netwerk zijn eigen regels. Zo kondigde Instagram aan dat het in de VS zijn fact-checking experiment gaat uitbreiden door met 45 externe organisaties samen te werken. Daarbij is het de bedoeling dat content die niet waar is, verborgen wordt in de Explore en de hashtags pagina's, zodat het veel minder gemakkelijk opgepikt kan worden. Bovendien komt er een waarschuwing wanneer je een link naar dergelijke content wil aanklikken. Een afbeelding met fake content zal ook elders op Instagram en bij moederbedrijf Facebook diezelfde waarschuwing vertonen.
Instagram maakt wel een uitzondering voor politici: hun beweringen zullen niet gefact-checked worden, noch hun advertenties. (1)
Fact-checking is één aspect van content-moderatie, een ander aspect is het verwijderen van 'ongewenste' content. Dat gaat van porno tot het aanzetten tot haat, van racistische opmerkingen tot pedofilie, van sadistisch geweld tot de propaganda van IS. En dat blijkt voor de menselijke moderatoren een taak te zijn die enorm belastend is. Stel je voor, voortdurend geconfronteerd worden met dergelijke gruwelijke, schokkende beelden...
The Verge redacteur Casey Newton maakte een reportage over dergelijke moderatoren. Eerder schreef hij al over hoe Facebook met hen omgaat, in het nieuwe artikel gaat het over hoe Google en YouTube met de moderatoren werken - maar ook hoe het zit met mensen die als onderaannemer voor die bedrijven werken. Een deel van het werk wordt immers niet door het eigen personeel van Google gedaan, maar wordt uitbesteed.
En het blijkt dat die moderatoren enorme geestelijke problemen krijgen door dit werk. Angstaanvallen, depressies, nachtmerries, PTSD, ... Die mensen moeten maar liefst 5 uur per dag content bekijken, en dat is enorm belastend. Daarbij is het toch onrechtvaardig dat het eigen personeel van Google medische bijstand krijgt en verlof krijgt om te recupereren van de geestelijke problemen die zij ervaren, dit helemaal niet het geval is voor de onderaannemers - die worden volledig aan hun lot overgelaten.
Lees de onthutsende reportage bij The Verge (2).
De beide verhalen roepen vragen op bij de doeltreffendheid van content-moderatie. Misschien is het idee dat Jack Dorsey verleden week uiteenzetten nog niet zo slecht? Werken met kleinere gedecentraliseerde eenheden die als aparte sociale netwerken werken en waarbij jij veel meer controle hebt over wat je te zien krijgt?
Feit is in elk geval dat het naar onze mening onmenselijk om van mensen te vragen dat zij naar onmenselijke beelden moeten kijken - zelfs al worden ze ervoor betaald.
https://techcrunch.com/2019/12/16/instagram-fact-checking/
https://www.theverge.com/2019/12/16/21021005/google-youtube- ...
|