Comprendere le dinamiche online ed analizzarne le ricadute sull’offline. L’intervista con Francesca Scapolo, di Oversight Board, l’organismo indipendente creato da Meta nel 2020 per proteggere la libertà di espressione prendendo decisioni autonome in merito ai contenuti su Facebook e Instagram, ed emettendo raccomandazioni su come migliorare le regole delle piattaforme.
In un dialogo ricco e dettagliato con l’Head of Research and Advocacy Silvia Semenzin, Francesca Scapolo ha prestato alla comunità di CRO la sua esperienza nel Board analizzando le grandi sfide etiche e tecnologiche che oggi giorno pongono le piattaforme.
Che cos’è l’Oversight Board, quando nasce?
Il Board ha iniziato ad operare nel 2020. L’idea nasce all’incirca nel 2018, quando si comprende finalmente che una piattaforma così grande non può prendere decisioni unilaterali riguardo a contenuti online che influenzano profondamente gli utenti, proprio mentre inizia a prendere piede il concetto di spazio civico all’interno di queste piattaforme. Il Board viene creato per dare la possibilità a utenti Facebook e Instagram di appellarsi a un ente esterno quando non d’accordo con le decisioni prese dalla compagnia in merito ai propri contenuti.
Uno dei primi casi trattati dal Board è stato il caso Trump. Nel maggio del 2021, Oversight Board ha deciso di mantenere la sospensione dell’ex presidente degli Stati Uniti Donald Trump da Facebook e Instagram, ma ha chiesto a Meta di riesaminare il caso entro sei mesi. La decisione è stata presa in risposta alla sospensione di Trump da parte di Meta a seguito delle violenze al Campidoglio degli Stati Uniti del 6 gennaio 2021. Secondo il Board, la decisione di Meta di sospenderlo era giustificata, ma la sospensione indefinita era ingiustificata, in quanto non era supportata dalle politiche della piattaforma.
Oltre alle nostre decisioni che sono vincolanti, il Board può anche fare specifiche raccomandazioni a Meta. Si tratta di tutta una serie di suggerimenti su come migliorare le regole delle sue piattaforme che non sono vincolanti, ma che ad oggi, per il 60% dei casi, Meta ha sempre seguito.
Attualmente il Board è composto da 23 membri provenienti da tutto il mondo: attivisti per i diritti digitali, avvocati per i diritti umani, c’è anche un ex primo ministro della Danimarca e un premio Nobel per la pace. Include opinioni ed idee diverse, ci tiene a rappresentare posizioni differenti. Siamo un ente indipendente, Meta non ha alcun tipo di influenza su di noi, non ci sono ex impiegati di Meta tra i membri del Board, ad esempio.
Un precedente per ispirare altre piattaforme a fare la stessa cosa o serve una spinta dalle istituzioni?
Piattaforme come Spotify e Koo hanno già istituito entità simili, anche se siamo stati i pionieri in questa impresa. L’interesse per tali iniziative è indubbiamente presente ed è sempre più evidente. C’è un dibattito in corso intorno all’idea che le società di social media non dovrebbero prendere autonomamente le decisioni definitive sulla moderazione dei contenuti. Gli utenti di Facebook e Instagram desideravano da tempo un mezzo indipendente per contestare le decisioni di moderazione dei contenuti prese da Meta.
Data l’enorme potere esercitato da queste piattaforme, che hanno un impatto significativo sulla vita delle persone, l’esistenza di un’entità indipendente come Oversight Board rappresenta un significativo passo avanti per tutelare i diritti degli utenti e i diritti umani. Tutte le nostre decisioni mostrano come gli standard internazionali dei diritti umani siano una fonte importante di autorità per Oversight Board.
Quali sono gli ambiti su cui avete lavorato, i risultati più importanti che avete raggiunto?
Abbiamo da poco pubblicato il nostro Rapporto Annuale 2022, che evidenzia i nostri risultati più importanti e l’impatto che il Board ha avuto su Meta nell’ultimo anno. Lasciatemi darvi alcuni esempi concreti: Meta ora informa gli utenti quando il loro accesso ai contenuti è stato limitato a seguito di una richiesta governativa sulla base di leggi locali, una pratica che prima non esisteva. Inoltre, Meta informa ora gli utenti se la rimozione dei loro contenuti è stata effettuata da una revisione umana o automatica, intelligenza artificiale per intenderci.
Il Board sottolinea costantemente l’importanza del principio di giustizia, soprattutto nei casi in cui Facebook e Instagram rimuovono contenuti senza spiegare quale regole siano state violate. Inoltre, spesso gli utenti non ricevono un trattamento equo e non vengono dati adeguati rimedi per gli errori commessi da Meta, come poter contestare una decisione per esempio. Uno dei nostri risultati più significativi in questo campo riguarda il caso del “post di Al Jazeera codiviso”.
In questo caso, un utente ha condiviso un post dalla pagina di Al Jazeera che discuteva del conflitto israelo-palestinese nel maggio 2021. Quando ha ripostato il contenuto con un commento stupefatto, Meta ha eliminato il post nonostante riportasse una notizia di un’agenzia di stampa autorevole.
Il Board ha sollevato questa questione a Meta, esortando a coinvolgere un’entità indipendente per esaminare se la moderazione dei contenuti in relazione al conflitto in Israele e Palestina nel maggio 2021 fosse soggetta a bias. Questo rapporto è stato successivamente pubblicato nel settembre 2022, rivelando come la moderazione dei contenuti da parte di Meta, durante il conflitto Israele-Palestinese del maggio 2021, abbia avuto un impatto negativo sui diritti umani dei palestinesi. In particolare, sono stati identificati problemi riguardanti la loro libertà di espressione e la capacità di condividere informazioni ed esperienze. Il rapporto indipendente ha evidenziato una parzialità dovuta alla scarsa competenza linguistica e di orientamento tra i moderatori dei contenuti di Meta.
Molto spesso, le regole implementate in queste piattaforme sono vicine ad un luogo del mondo specifico dove risiede il concetto stesso di privilegio, penso agli Stati Uniti, alla Silicon Valley, Global North. Interessante capire come e dove evolverà questa conversazione.
Sebbene la maggior parte delle richieste di appello che riceviamo provengono dall’America e Europa, i 2/3 dei casi selezionati dal Board provengono da Global Majority. Prestiamo particolare attenzione a queste regioni.
Ad esempio, abbiamo affrontato temi come le elezioni in Brasile e Cambogia o gli eventi in corso nella zona del Tigray in Etiopia, dove in un report recente Amnesty International e Human Rights Watch hanno parlato di pulizia etnica in atto. In quel caso specifico, il Board ha detto chiaramente a Meta che l’azienda ha la responsabilità di garantire i diritti umani attraverso l’implementazione di un sistema trasparente per la moderazione di contenuti in zone di conflitti, per ridurre il rischio che le sue piattaforme vengano utilizzate per incitare alla violenza o a violazioni del diritto internazionale.
Rispetto a queste raccomandazioni che fornite, quali sono le urgenze più impellenti che ti senti di portare all’attenzione pubblica?
L’anno scorso, abbiamo delineato sette priorità strategiche che aumenteranno il nostro impatto nelle aree in cui possiamo fare la differenza più significativa nel modo in cui le persone vivono Facebook e Instagram:
- Elezioni e spazio civico: analizzeremo le responsabilità di Meta nelle elezioni, proteste e altri momenti chiave per la partecipazione civica;
- Situazioni di crisi e conflitto: esploreremo la preparazione di Meta per i potenziali danni che i suoi prodotti possono causare durante conflitti armati, disordini civili e altre emergenze;
- Genere: il Board esplorerà gli ostacoli divenuti di genere che le donne e le persone LGBTQI+ affrontano nell’esercizio dei loro diritti di libertà di espressione, inclusa la violenza di genere, e gli effetti delle distinzioni basate sul genere nelle regole delle piattaforme;
- Discorsi di odio contro i gruppi marginalizzati: esploreremo come Meta dovrebbe proteggere i membri dei gruppi marginalizzati garantendo che il rispetto delle regole non colpisca erroneamente coloro che lottano contro l’intolleranza;
- Uso delle piattaforme di Meta da parte dei governi: il Board esaminerà come Meta dovrebbe rispondere alle richieste delle forze dell’ordine nazionali. Nello specifico, siamo interessati a esplorare come gli attori statali utilizzino le piattaforme di Meta e le implicazioni per la moderazione dei contenuti;
- Trattare gli utenti in modo equo: esploreremo come Meta possa fare di più per trattare i suoi utenti in maniera più giusta fornendo più informazioni in caso di rimozione di contenuti o meno, garantendo che le persone possano sempre presentare appello contro le decisioni dell’azienda e diventare più trasparenti in aree come il loro strike system e cross-check program;
- Attuazione automatizzata delle regole e la cura dei contenuti: il Board esplorerà come dovrebbe essere progettato l’enforcement delle regole automatizzato, l’accuratezza dei sistemi automatizzati e l’importanza di una maggiore trasparenza in quest’area.
Per tutte le priorità strategiche, continueremo a lavorare con vari stakeholder per comprendere le politiche e le pratiche di attuazione che Meta deve migliorare urgentemente e quale tipo di casi potrebbe offrire l’opportunità di affrontare questi problemi.
Come le piattaforme potrebbero influenzare il dibattito europeo in materia di automazione, come con il Digital Services Act?
Nell’anno a venire, le aziende tech dovranno attenersi a nuove regolamentazioni che le porteranno ad alterare le loro strategie. In passato, le discussioni riguardanti la regolamentazione dei social media suggerivano che fosse responsabilità o del governo o del settore. Tuttavia, c’è ora una tendenza verso la “co-regolamentazione”, in cui vari aspetti di un meccanismo regolamentare autonomo sono supportati da azioni legali.
Il Digital Services Act propone processi che si allineano strettamente alle strategie che abbiamo già iniziato a implementare. Ci affascina vedere come questa nuova regolamentazione dia maggiore accesso ai dati delle piattaforme a ricercatori e siamo entusiasti di assistere a questa spinta verso la trasparenza. Anche se molte entità parteciperanno a questo ambiente regolamentare in costante evoluzione, riteniamo che i nostri metodi trasparenti, incentrati sui diritti degli utenti e indipendenti, possano risultare determinanti per affrontare le sfide che ci si presenteranno.
Relativamente ai bias degli algoritmi, come pensi si svilupperà il dibattito da adesso fino ai prossimi anni?
Penso che il Digital Services Act europeo sia un’opportunità entusiasmante per comprendere meglio come funzionano gli algoritmi delle piattaforme online. Questo potrebbe aiutare a chiarire perché alcuni contenuti vengono prioritizzati rispetto ad altri nei nostri feed e quanto influiscono sugli utenti. Man mano che l’importanza di questo argomento si accresce nella nostra società, l’acquisizione di ulteriori informazioni sul funzionamento degli algoritmi sociali prenderà inevitabilmente un ruolo importante nella definizione del futuro del panorama digitale.
Inoltre, uno dei problemi urgenti che le piattaforme di social media devono affrontare è l’AI generativa, sempre più sofisticata e capace di creare narrazioni complesse che rendono difficile la moderazione dei contenuti. Dobbiamo riflettere attentamente su come affrontare questo problema per garantire che le piattaforme online restino spazi sicuri e costruttivi per il dibattito pubblico.
In generale, il Digital Services Act rappresenta un passo importante nel confrontarsi con le sfide del mondo digitale, offrendo maggiore trasparenza e responsabilità e consentendo a singoli e organizzazioni di prendere decisioni più informate sulla loro interazione con lo spazio digitale.
Focalizzandosi sull’area delle violazione di diritti online, secondo te le piattaforme possono autoregolarsi o ci sarà bisogno di pratiche ad ampio raggio?
La mia ferma convinzione è nell’adozione di un approccio multistakeholder, dico sempre che Oversight Board non è la soluzione ma una delle soluzioni. E’ cruciale considerare sistemi regolatori indipendenti, interventi governativi, coinvolgimento di associazioni, nonché gli interessi degli utenti.
Il Board è composto da individui con diverse prospettive provenienti da varie regioni del mondo, che contribuiscono con prospettive di grande valore per arricchire i nostri dibattiti. Questo ci ricorda che le soluzioni che individuiamo potrebbero essere adatte solo a una parte della popolazione mondiale e potrebbero creare difficoltà per gli altri. Di conseguenza, è di fondamentale importanza avere una pluralità di prospettive e trovare un equilibrio adeguato attraverso l’avvio di discussioni significative.
Sulle Policy relativamente alle nudità come si sta procedendo?
A gennaio di quest’anno, il Board ha pubblicato la nostra decisione sul “identità di genere e nudo”, in cui abbiamo riscontrato come le politiche di Meta sulla nudità creano maggiori ostacoli all’espressione per le donne, le persone trans e non binarie su Facebook e Instagram. Abbiamo raccomandato a Meta di allineare le sue pratiche agli standard dei diritti umani. Meta ha risposto alle nostre raccomandazioni un mese fa, e queste interazioni sono pubblicamente disponibili nei nostri Quarterly Transparency Report e sul sito di Meta.
Meta ha anche fornito un aggiornamento sulle nostre raccomandazioni per la decisione sui “sintomi del tumore al seno e nudo”. Abbiamo suggerito di migliorare la rilevazione dei testi sovraimposti e dei contenuti relativi al cancro al seno su Instagram per evitare il blocco erroneo dei post. Il team di implementazione di Meta ha apportato modifiche alle tecniche di identificazione del contenuto relativo al cancro al seno su Instagram, e queste modifiche sono state in vigore dal luglio 2021. Di conseguenza, 2.500 contenuti sono stati inviati per la revisione umana invece di essere rimossi direttamente da IA. Questo successo evidenzia l’impegno di Meta verso una governance indipendente e la collaborazione con il Board.