Facebook risponde alle preoccupazioni sul sistema anti revenge porn

Facebook risponde alle preoccupazioni sul sistema anti revenge porn

Facebook ha spiegato oggi in modo più dettagliato il suo nuovo test per la lotta contro il revenge porn in seguito alla preoccupazione di alcuni utenti su come funzioni esattamente il sistema e sul rischio di abusi.

Il sistema, attualmente in fase di sperimentazione in Australia in collaborazione con il Commissioner eSafety del Paese, consente agli utenti di caricare le proprie foto di nudo direttamente su Facebook Messenger, in modo che l’azienda possa creare una sorta di impronta digitale per il file ed evitare che venga caricato da malintenzionati in futuro.

Poiché il test pilota è stato riportato per primo dall’Australian Broadcasting Corporation, senza alcun input da parte di Facebook stesso, molti utenti hanno trovato un po’ inquietante il concetto di caricare le proprie foto nude direttamente sul social network. Mentre il report iniziale indicava chiaramente che in realtà non era controproducente e dava a Facebook i mezzi per tenere traccia dei file attraverso la sua rete, molte persone sono comunque rimaste perplesse dal sistema.

Ora, il colosso di Menlo Park, ha deciso di chiarire i dettagli del funzionamento del sistema tramite un post di Antigone Davis, responsabile della sicurezza globale dell’azienda. In primo luogo, un utente deve decidere di caricare l’immagine o il video che teme possa essere utilizzato da una terza parte malintenzionata, come un ex partner vendicativo o un molestatore online. Questo comporta un rischio necessario, ma “è un rischio che stiamo cercando di bilanciare con il grave danno reale che si verifica ogni giorno quando le persone (per lo più donne) non riescono a fermare l’invio di NCII”, ha spiegato il responsabile della sicurezza di Facebook Alex Stamos su Twitter. Stamos sta utilizzando la forma abbreviata NCII, acronimo inglese di “diffusione di immagine intima non consensuale”, l’attività base del fenomeno del revenge porn.

Da lì – e una volta che l’utente ha compilato un modulo online attraverso il sito web del Commissario eSafety australiano – un membro del team di Facebook per le operazioni della comunità riesamina l’immagine e la “cancella” creando una rappresentazione numerica dell’ immagine che secondo Facebook non può essere letta dagli esseri umani. L’azienda considerava di confondere le immagini prima che finissero nelle mani dei revisori umani, ma ha deciso di non farlo, perché ciò potrebbe causare accidentalmente l’occultamento di immagini legittime. Quindi, per chiarire, qualcuno su Facebook sta effettivamente guardando le foto di nudo, ma l’azienda sottolinea che si tratta di “rappresentanti appositamente formati”.

Secondo Stamos “ci sono algoritmi che possono essere usati per creare un’ impronta digitale di una foto/video resistente a semplici trasformazioni come il ridimensionamento”, quindi Facebook sta affermando che non dovrebbe essere facile cambiare un aspetto fondamentale del file fotografico per aggirare il sistema di rilevamento dell’azienda.

“Una volta cancellata la foto, informiamo la persona che ha presentato la segnalazione tramite e-mail protetta inviata all’ufficio del commissario eSafety e chiediamo loro di cancellare la foto dal thread Messenger del dispositivo. Una volta eliminata l’immagine dal thread, cancelleremo l’ immagine dai nostri server”, scrive Davis. Facebook quindi sostiene di salvare il file solo per un breve periodo di tempo.

“Per evitare segnalazioni contraddittorie, in questo momento è necessario che gli esseri umani rivedano le immagini in un ambiente controllato e sicuro. Non chiediamo alle persone casuali di inviare le loro foto nude. Si tratta di un test per offrire alle vittime la possibilità di riprendere il controllo. Il test ci aiuterà a capire come proteggere al meglio le persone sui nostri prodotti e altrove”, ha spiegato Stamos su Twitter.