Anche in tempo di genocidio, la Big Tech mette a tacere i palestinesi

Daniele Bianchi

Anche in tempo di genocidio, la Big Tech mette a tacere i palestinesi

La cocente violenza contro la popolazione di Gaza non ha precedenti. E lo stesso vale per le sue ripercussioni online. I palestinesi che documentano e si esprimono contro la guerra genocida di Israele contro Gaza hanno dovuto affrontare una censura e una repressione incessanti, accompagnate da un’esplosione di disinformazione sponsorizzata dallo stato, discorsi di odio e inviti alla violenza sui social media.

In seguito all’attacco di Hamas contro Israele il 7 ottobre, Big Tech ha deciso di eliminare i contenuti sulla guerra che, secondo loro, violavano le loro regole. TikTok ha rimosso più di 925.000 video dal Medio Oriente tra il 7 e il 31 ottobre. Al 14 novembre, X, precedentemente noto come Twitter, era intervenuto su oltre 350.000 post. Meta, dal canto suo, ha rimosso o segnalato come inquietanti più di 795.000 post nei primi tre giorni dell’attacco.

Questa frenesia di eliminazione, gestita da algoritmi mal addestrati e ulteriormente alimentata dalle pressioni dell’UE e di Israele, ha portato alla censura sproporzionata delle voci critiche palestinesi, inclusi creatori di contenuti, giornalisti e attivisti che riferiscono dal terreno di Gaza.

Pur essendo accusato di promuovere contenuti filo-palestinesi, TikTok in realtà ha censurato arbitrariamente e ripetutamente contenuti sulla Palestina. Ad esempio, il 9 ottobre, il media statunitense Mondoweiss riportato che il suo account TikTok era stato definitivamente bannato. È stato ripristinato per essere nuovamente sospeso pochi giorni dopo. L’azienda non ha fornito alcuna spiegazione.

X è stato anche accusato di reprimere le voci filo-palestinesi. Ad esempio, il racconto della sezione americana del gruppo Palestine Action non è riuscito a guadagnare nuovi seguaci; la questione è stata risolta solo dopo che la pressione dell’opinione pubblica è aumentata.

Meta, tra tutte le aziende, fa la parte del leone in questa campagna di repressione digitale. Ha rimosso arbitrariamente contenuti relativi alla Palestina, interrotto lo streaming live, limitato i commenti e sospeso gli account.

Tra coloro che sono stati presi di mira c’è il fotoreporter palestinese Motaz Azaiza, che aveva guadagnato oltre 15 milioni di follower su Instagram per aver documentato le atrocità israeliane a Gaza; il suo account è stato successivamente ripristinato. Anche la pagina Facebook di Quds News Network, una delle più grandi reti di notizie palestinesi con oltre 10 milioni di follower, è stata definitivamente bandita.

Su Instagram, le persone che pubblicano post sulla Palestina hanno sperimentato lo shadowbanning, una forma furtiva di censura in cui un individuo viene reso invisibile sulla piattaforma senza essere avvisato. Meta ha anche ridotto la soglia di certezza richiesta ai filtri automatizzati per nascondere i commenti ostili dall’80% al 25% per i contenuti provenienti dalla Palestina. Abbiamo documentato casi in cui Instagram ha nascosto commenti contenenti l’emoji della bandiera palestinese perché “potenzialmente offensivi”.

La moderazione dei contenuti di Meta non è mai stata indulgente nei confronti del discorso palestinese, soprattutto in tempi di crisi. Le regole della compagnia, sviluppate all’indomani della “guerra al terrore” guidata dagli Stati Uniti, hanno sfavorito e messo a tacere in modo sproporzionato il discorso politico in lingua araba. Ad esempio, la stragrande maggioranza degli individui e delle organizzazioni sulla lista nera segreta dei “terroristi” provengono dal Medio Oriente e dall’Asia meridionale – un riflesso della posizione di politica estera degli Stati Uniti.

La politica aziendale sulle organizzazioni e gli individui pericolosi (DOI), che vieta l’elogio, il sostegno e la rappresentanza di questi individui e gruppi, è il catalizzatore dietro la pesante censura e la discriminazione contro i palestinesi da parte dell’azienda.

Nel 2021, questa politica è stata responsabile di mettere a tacere gli individui filo-palestinesi quando sono scesi in piazza e sui social media per protestare contro il tentativo di Israele di espellere con la forza le famiglie palestinesi dalle loro case nel quartiere occupato di Sheikh Jarrah, a Gerusalemme Est.

Nel contesto della guerra israeliana in corso a Gaza, Meta ha affermato che applicano le loro politiche equamente in tutto il mondo e ha confutato le affermazioni secondo cui stavano “sopprimendo deliberatamente la voce”. Le prove, tuttavia, suggeriscono il contrario.

A due settimane dall’inizio della guerra della Russia contro l’Ucraina, Meta ha modificato le sue regole per consentire agli ucraini di esprimersi liberamente. Ha consentito, ad esempio, inviti alla violenza contro gli invasori russi. Ha anche cancellato dalla lista il gruppo neonazista, il Battaglione Azov, designato secondo la sua politica DOI, per consentirne le lodi.

In difesa di queste eccezioni, il presidente degli affari globali dell’azienda, Nick Clegg, ha scritto: “Se applicassimo le nostre politiche sui contenuti standard senza alcun aggiustamento, ora rimuoveremmo i contenuti degli ucraini comuni che esprimono la loro resistenza e furia contro le forze militari d’invasione, che giustamente essere considerato inaccettabile”.

Sono stati apportati dei cambiamenti al modo in cui i palestinesi comuni “esprimono la loro resistenza e la loro furia contro le forze militari d’invasione”? Piuttosto il contrario. In un post sul blog aggiornato l’ultima volta il 5 dicembre, Meta ha dichiarato di aver disabilitato gli hashtag, limitato lo streaming live e rimosso sette volte più contenuti rispetto ai due mesi precedenti ottobre per aver violato la sua politica DOI.

Anche sul fronte umanitario i doppi standard sono in piena evidenza. Meta ha fatto di tutto per coordinare gli aiuti umanitari per gli ucraini, inclusa l’attivazione di una funzionalità che li aiuta a rimanere informati, a localizzare i loro familiari e i loro cari e ad accedere, tra gli altri, ai servizi di emergenza, al supporto per la salute mentale, all’assistenza abitativa e agli aiuti ai rifugiati.

Nessun sostegno del genere è stato concesso ai palestinesi di Gaza che si trovano ad affrontare blackout nelle comunicazioni e una catastrofe umanitaria di portata indicibile.

Questa discriminazione trascende il modo in cui Meta dedica le proprie risorse e applica le proprie politiche. I contenuti in lingua araba sono fortemente moderati, mentre i contenuti in ebraico rimangono sottomoderati. Fino a settembre 2023, Meta non disponeva di classificatori per rilevare e rimuovere automaticamente i discorsi di odio in ebraico, anche se le sue piattaforme venivano utilizzate dagli israeliani per incitare esplicitamente alla violenza e organizzare pogrom contro i palestinesi. Una recente nota interna ha rivelato che non erano in grado di utilizzare il nuovo classificatore ebraico sui commenti di Instagram a causa di dati di addestramento insufficienti.

Ciò è profondamente preoccupante alla luce del fatto che Meta fa molto affidamento su strumenti automatizzati di moderazione dei contenuti. Circa il 98% delle decisioni di moderazione dei contenuti di Instagram sono automatizzate e quasi il 94% sono automatizzate su Facebook. Questi strumenti si sono più volte rivelati poco adatti all’arabo e ai suoi vari dialetti.

Secondo una nota interna trapelata nei documenti di Facebook del 2021, gli strumenti automatizzati di Meta per rilevare i contenuti terroristici hanno eliminato erroneamente i contenuti arabi non violenti il ​​77% delle volte.

Ciò spiega in parte l’enorme impatto che stiamo vedendo sulla capacità delle persone di esercitare i propri diritti e documentare gli abusi dei diritti umani e i crimini di guerra. Spiega anche alcuni ingiustificabili difetti del sistema, tra cui l’etichettatura della Moschea di Al-Aqsa, la terza moschea più sacra dell’Islam, come organizzazione terroristica nel 2021; traducendo le biografie degli utenti di Instagram con una bandiera palestinese in “Sia lode a Dio, i terroristi palestinesi stanno combattendo per la loro libertà”; e cancellando filmati di cadaveri dell’attentato all’ospedale al-Ahli per aver violato la sua politica sulla nudità degli adulti e sull’attività sessuale, nientemeno.

Nel frattempo, Meta consente agli account statali verificati che appartengono al governo israeliano – compresi politici, esercito israeliano e suoi portavoce – di diffondere propaganda di guerra e disinformazione che giustifica crimini di guerra e crimini contro l’umanità, compresi attacchi a ospedali e ambulanze, confessioni filmate di palestinesi detenuti e ordini quasi quotidiani di “evacuazione” per i civili palestinesi.

Invece di proteggere i palestinesi di Gaza mentre si trovano ad affrontare ciò che 36 esperti di diritti umani delle Nazioni Unite e altri studiosi di genocidio hanno avvertito come un genocidio, Meta ha approvato annunci a pagamento che chiedevano esplicitamente un “olocausto per i palestinesi” e l’eliminazione di “donne e bambini di Gaza”. e gli anziani”.

Tali inquietanti appelli alla violenza si sono fatti strada anche su altre piattaforme. In effetti, X sembra essere in testa ad altre piattaforme per quanto riguarda la quantità di incitamento all’odio e di incitamento alla violenza contro i palestinesi. Secondo l’organizzazione palestinese per i diritti digitali 7amleh, dal 7 ottobre ci sono stati più di due milioni di post di questo tipo sulla piattaforma.

Telegram ospita anche una serie di canali israeliani che invocano apertamente il genocidio e celebrano la punizione collettiva del popolo palestinese. In un gruppo, denominato “Cacciatori di nazisti 2023”, i moderatori pubblicano foto di personaggi pubblici palestinesi con segni di mirino sui volti e i loro indirizzi di casa e chiedono la loro eliminazione.

Finora, le società di social media non sembrano comprendere la gravità della situazione in questione. Meta, in particolare, sembra aver imparato molto poco dal suo ruolo nel genocidio dei Rohingya in Myanmar nel 2017.

Il silenzio dei palestinesi, pur promuovendo la disinformazione e la violenza contro di loro, potrebbe essere stato il modus operandi delle piattaforme di social media in assenza di qualsiasi responsabilità significativa. Ma questo round è diverso. Meta rischia di essere nuovamente implicato nel genocidio e deve correggere la rotta prima che sia troppo tardi. La responsabilità di proteggere gli utenti e sostenere la libertà di espressione si applica anche ad altre piattaforme di social media.

Le opinioni espresse in questo articolo appartengono all’autore e non riflettono necessariamente la posizione editoriale di Oltre La Linea.

Daniele Bianchi

Daniele Bianchi, nativo di Roma, è il creatore del noto sito di informazione Oltre la Linea. Appassionato di giornalismo e di eventi mondiali, nel 2010 Daniele ha dato vita a questo progetto direttamente da una piccola stanza del suo appartamento con lo scopo di creare uno spazio dedicato alla libera espressione di idee e riflessioni. La sua mission era semplice e diretta: cercare di capire e far comprendere agli altri ciò che sta effettivamente succedendo nel mondo. Oltre alla sua attività di giornalista e scrittore, Daniele investe costantemente nell'arricchimento della sua squadra, coinvolgendo professionisti con le stesse passioni e interessi.