Een nieuwsbericht dat, met de korte week verleden week, nog niet behandeld werd, is het feit dat The Guardian de hand kon leggen op de regels die Facebook toepast om te beslissen of bepaalde content al dan niet toelaatbaar is. En dat verdient wel aandacht, omdat het heel controversieel is.
Zoals je weet, kreeg Facebook heel wat verwijten te slikken, omdat het een belangrijke factor geweest zou zijn bij de verspreiding van nepnieuws dat uiteindelijk tot de verkiezing van president Trump geleid had. Facebook heeft daarop beloofd dat het die valse nieuwsberichten zou aanpakken, harder zou optreden tegen trolling, en bovendien sneller zou ingrijpen bij video's waarbij live mensen in gevaar gebracht werden.
Blijkbaar volstond de Artificial Intelligence die Facebook gebruikte om postings te filteren niet. Wat, als je het ons vraagt, eigenlijk logisch is: die intelligentie leert uit de berichten die gepost worden. Als er veel racistische berichten gepost worden, dan zal het AI dit als "normaal" gaan beschouwen, en niet reageren wanneer een gebruiker een bepaalde racistische posting als onbetamelijk bestempelt.
Neen, Facebook heeft een legertje mensen aangesteld - waarbij het niet duidelijk is of deze mensen rechtsreeks personeelsleden worden van Facebook, of in (onderbetaalde) onderaanneming moeten werken via outsourcing. Nu moeten die mensen wel weten wat toegelaten is, en wat niet. En dus heeft Facebook een soort 10 geboden opgesteld, een lijst met wat geoorloofd is en wat niet.
De Britse krant The Guardian kon de hand leggen op die lijst. En het resultaat is niet fraai. Zo moesten de beoordelaars niet optreden wanneer dikke kinderen gepest worden - dat mag blijkbaar. En het ontkennen van de Holocaust, daartegen moet enkel opgetreden worden in 6 van de 13 landen waar negationisme strafbaar is - enkel en alleen omwille van het feit dat die 6 landen ook daadwerkelijk optreden en straffen uitdelen.
Racisme wordt getoleerd. Schimpen op de LGTB gemeenschap mag ook, en immigranten verkrachters en dieven noemen ook.
Hoe je dat zo exact weten kan? Het boek met regels bevat exacte voorbeelden van wat kan en niet. "Islam is een religie van haat. Sluit de grenzen voor immigrerende moslims tot we weten wat er aan de hand is", mag dus. "Alle terroristen zijn moslims" mag je zeggen op Facebook, maar niet "Alle moslims zijn terroristen".
Nu moet daarbij vermeld worden dat de voorbeelden gebaseerd zijn op de oordelen die beoordelaars in het verleden gemaakt hebben. En je kan de mensen die dergelijk oordeel deden, niet met de vinger wijzen, want zij krijgen amper 10 seconden om op de rode of groene knop te drukken bij hun beoordeling. Geen tijd voor echte nuance dus.
Het heeft er wel toe geleid dat racisme kan gedijen. En dat, aldus Engadget, een klimaat gecreëerd werd waardoor de ontevredenheid onder de Amerikaanse burgers versterkt werd, wat tot de verkiezing van Trum geleid heeft. Engadget noemt Trump de eerste Facebook-president.
En het knoopt er de conclusie aan vast: Facebook is niet meteen de veiligste omgeving voor de LGBT gemeenschap, kwetsbare tieners en slachtoffers van huiselijk geweld. Maar in plaats van zich te focussen op het creëren van een reeks veilige communities binnen Facebook, lijken de regels eerder een voortzetting van de bestaande xenofobie en racisme.
Meer achtergrond bij Wired en Engadget.
https://www.engadget.com/2017/05/26/the-facebook-president-a ...
https://www.theguardian.com/news/series/facebook-files
|