Questo articolo è stato pubblicato da questo sito
L’Oversight Board, la commissione di sorveglianza esterna che valuta le decisioni sulla cancellazione o la rimozione di contenuti dalle piattaforme dei social network, ha annunciato che già da novembre potrà decidere se applicare schermate di avviso, contrassegnando i contenuti di foto e video come “disturbanti” o “sensibili” su Instagram e Facebook.
I membri indipendenti dell’Oversight Board provengono da tutto il mondo e, con un mandato triennale, hanno il compito di prendere decisioni definitive e vincolanti su quali contenuti possono essere consentiti o rimossi da Facebook e Instagram, ispirandosi alle leggi in materia di tutela della libertà di espressione e dei diritti umani. I primi 20 membri del consiglio di sorveglianza sono stati annunciati nel 2020 . Il consiglio è attualmente composto da 23 accademici, avvocati ed esperti in altri campi da tutto il mondo.
Nel suo rapporto trimestrale sulla trasparenza, il consiglio di sicurezza indipendente (ma finanziato indirettamente da un fondo fiduciario Meta) ha affermato di aver ricevuto 347.000 richieste di moderazione dei contenuti da parte di utenti di Facebook e Instagram in tutto il mondo durante il periodo compreso tra il primo aprile e il 30 giugno 2022. “Da quando abbiamo iniziato ad accettare appelli due anni fa, abbiamo ricevuto quasi due milioni di appelli da utenti di tutto il mondo – afferma il rapporto del consiglio di amministrazione -. Questo dimostra la continua richiesta da parte degli utenti sulla moderazione dei contenuti di Meta a un organismo indipendente“. Sul proprio sito web, inoltre, l’Oversight Board ha ribadito: “L’impegno a prendere decisioni indipendenti che sono vincolanti sui contenuti di Facebook, emettendo pareri consultivi sulle politiche di Meta“.
Sette priorità strategiche
In un comunicato parallelo, l’Oversight Board ha annunciato sette nuove priorità strategiche in cui intende adoperarsi per rimodellare l’approccio di Meta alla moderazione di determinati tipi di contenuti. Questi punti sono stati scelti sulla base di un’analisi dei casi presentati al consiglio dal 2020, anno in cui l’osservatorio ha iniziato a ricevere e raccogliere le richieste di moderazione, e delle questioni che devono affrontare gli utenti a livello globale.
I punti sono stati così suddivisi: elezioni e spazio civico; situazioni di crisi e di conflitto; sesso; incitamento all’odio contro i gruppi emarginati; utilizzo da parte del governo delle piattaforme di Meta; trattamento equo degli utenti; applicazione automatizzata delle politiche e cura dei contenuti.