Leuk is het niet om ongevraagd een naaktfoto te ontvangen op je sociale netwerken. Meta heeft daarom aangekondigd dat het een nieuwe beveiligingsfunctie gaat uitrollen, waarbij naaktafbeeldingen in berichten automatisch vaag gemaakt worden, geblurrd dus. Daarbij is eigenlijk de voornaamste reden minderjarigen op het platform te beschermen tegen misbruik en oplichting via seksuele uitbuiting. Denk ook aan jongeren die gechangeerd worden na een sexting bijvoorbeeld.
De functie maakt gebruik van machine learning die plaatselijk op je eigen toestel werkt -er wordt dus niets naar de cloud gestuurd- en die analyseert of een afbeelding die via de DM van Instagram verstuurd wordt, een naaktbeeld bevat. Meta zelf heeft dus geen toegang tot die afbeelding, tenzij een gebruiker die ze ontvangen heeft en die dan gerapporteerd heeft.
De blurr-functie werkt zowel bij degene die de afbeelding ontvangt, maar ook bij wie een naaktafbeelding wil versturen: ontdekt de functie een naakt, dan wordt die niet alleen vaag gemaakt, maar wordt de gebruiker ontmoedigd om die alsnog te versturen. De functie wordt automatisch geactiveerd voor wie jonger is dan 18, en ook volwassen gebruikers worden via een melding aangemoedigd om de functie in te schakelen. De testen zullen enkele weken lopen, en in de volgende maanden wordt een wereldwijde uitrol geepland.(1)
Opvallend: deze aankondiging werd eigenlijk overal positief onthaald, en dat terwijl een gelijkaardige aankondiging door Apple in het najaar van 2022 op heel veel kritiek mocht rekenen. Er is echter een heel groot verschil. Bij Instagram gaat het over het scannen van afbeeldingen op je eigen toestel, door software op je eigen toestel, voor alle naaktfoto's in het algemeen, en enkel afbeeldingen die via IG DM's verstuurd worden. Bij Apple ging het om het scannen van foto's in je iCloud account, op zoek naar CSAM-material (afbeeldingen van kindermisbruik).
https://www.theverge.com/2024/4/11/24127145/instagram-meta-b ...
https://www.wired.com/story/apple-photo-scanning-csam-commun ...
|