Drie berichten over Facebook. Om te beginnen: volgens Buzzfeed is het geweld dat via Facebook Live getoond wordt, erger dan eerst gedacht. Er zijn recent enkele incidenten in de pers gekomen van moorden en zelfdodingen die live uitgezonden werden. Facebook probeert uit alle macht dat tegen te gaan, want het wil informatief én gebruiksvriendelijk zijn.
Maar dat blijkt niet zo simpel. Volgens een nieuwsanalyse van BuzzFeed, zou het probleem met die live uitzendingen groter zijn dan gedacht. Sinds de live feed van start ging in december 2015 werden er 45 gevallen van geweld via de feed uitgezonden, van schietincidenten tot verkrachting, moord, zelfdoding en zelfs kindermisbruik.
En dat is echt niet goed. Niet alleen voor Facebook, dat zo de sfeer van "gezellig samen" niet meer kan waarmaken, maar ook voor de IRL maatschappij. Het uitzenden van gewelddadige misdrijven via Facebook Live zou misdadigers wel eens kunnen aansporen om het medium te gebruiken om faam te verwerven. Hierover meer bij Buzzfeed (1).
Facebook doet echt zijn best om dit risico in te dammen. En het besteedt ook heel wat PR om te tonen dat het sociale netwerk echt inspanningen doet om geweld, haatspraak en andere ongewenste content op Facebook te weren. Het heeft daarom een lijst gepublicerd met zeven moeilijke vragen waarmee het worstelt, en waarvoor het de medewerking vraag van het publiek om te weten te komen wat zij vinden dat toegelaten moet zijn op het Facebook, en wat niet. Of over wat er gebeuren moet met de account van een gebruiker, wanneer de overleden is. Gebruikers kunnen antwoord geven via https://newsroom.fb.com/news/2017/06/hard-questions/ (2)
Maar nog terwijl Facebook zo ijverig aan zijn blazoen aan het poetsen was, kwam eer een nieuw bericht dat een streep trok door al die goede voornemens. Het bleek namelijk dat Facebook door een foutje in de beveiligingsinstellingen per vergissing de identiteit van mensen die bepaalde groepen moesten modereren, bekend maakten aan vermoedelijke terroristen!
Het gaat om meer dan 1.000 medewerkers in 22 departementen bij Facebook, die met behulp van de moderatie software van het bedrijf ongewenste content van het platform moesten verwijderen. Dus seksueel materiaal, haatspraak, maar ook terroristische propaganda. Een bug zorgde er echter voor dat de persoonlijke profielen van die moderators getoond werden in een melding bij de bewuste Facebook groepen, wanneer hun beheerder verwijderd werd wegens inbreuk op de gebruiksvoorwaarden.
40 van deze medewerkers hielden terroristische groepen in het oog. Facebook heeft na het vaststellen van de bug enkele van hen gecontacteerd, omdat zij mogelijk doelwit zouden kunnen worden van de terroristen. Eén van hen is ondertussen ondergedoken. Dat verhaal lees je bij The Guardian. (3)
De moraal van het verhaal: Facebook doet zijn best, maar het moet optornen tegen een ware lawine aan ongewenste berichten. Artificial Intelligence zal de uitkomst moeten brengen, want menselijke editors kan het blijkbaar niet/onvoldoende beschermen. Maar willen we dat wel, dat AI ons sociale leven gaat managen?
https://www.buzzfeed.com/alexkantrowitz/heres-how-bad-facebo ...
https://techcrunch.com/2017/06/15/facebook-censorship-terror ...
https://www.theguardian.com/technology/2017/jun/16/facebook- ...
|