Nel 2025, la più grande azienda di social media al mondo, Meta, ha preso un nuovo tono provocatorio sulla questione se e in che misura accetta la responsabilità del danno del mondo reale che le sue piattaforme consentono.
Questo è stato ampiamente inteso come una mossa per il favore del Curry con l’amministrazione del presidente Donald Trump, e il Meta CEO e fondatore Mark Zuckerberg ha tutti detto, ma in un video del 7 gennaio che annuncia la fine del controllo dei fatti di terze parti.
“Lavoreremo con il presidente Trump per respingere i governi di tutto il mondo, inseguendo le compagnie americane e spingendo a censurare di più”, ha detto Zuckerberg, dando alle decisioni al suo prodotto un sapore geopolitico distinto.
Per giustificare le decisioni dell’azienda di eliminare il controllo dei fatti e ridimensionare la moderazione dei contenuti sulle sue piattaforme, Zuckerberg e Meta hanno fatto appello alla protezione costituzionale degli Stati Uniti del diritto alla libertà di espressione. Fortunatamente, per quelli di noi che vivono nei paesi, la meta ha promesso di “respingere”, abbiamo anche le costituzioni.
In Kenya, ad esempio, in cui rappresento un gruppo di ex moderatori di contenuti metallici in una causa legale contro la società, la costituzione post-indipendenza differisce da quelli negli Stati Uniti e nell’Europa occidentale con la sua esplicita priorità di diritti umani e libertà fondamentali. Le costituzioni di molte nazioni con storie coloniali condividono questo in comune, una risposta a come questi diritti sono stati violati quando i loro popoli sono stati pressati per la prima volta nell’economia globale.
Ora stiamo cominciando a vedere come queste costituzioni possono essere messe in onda nel settore tecnologico globale. In una decisione storica dello scorso settembre, la Corte d’appello keniota ha stabilito che i moderatori di contenuti potrebbero portare il caso delle violazioni dei diritti umani contro la Meta nei tribunali del lavoro del paese.
Pochi in Occidente avranno capito l’importanza di questa sentenza. Meta, da parte sua, sicuramente, motivo per cui ha combattuto contro i denti e le unghie in tribunale e continua a utilizzare tutti gli strumenti diplomatici a sua disposizione per resistere alle richieste dei moderatori di contenuto di risarcimento. Meta ha dimostrato l’interesse nel fare appello a questa decisione alla Corte suprema.
Meta e altre principali società statunitensi mantengono un’architettura aziendale contorta per evitare l’esposizione alle tasse e alla regolamentazione nelle decine di paesi in cui fanno affari. Di solito affermano di non operare in paesi in cui contano milioni di utenti e impiegano centinaia per perfezionare i loro prodotti. Fino ad ora, queste affermazioni sono state raramente contestate in tribunale.
Il caso dei contenuti che i moderatori hanno presentato in tribunale è che sono stati assunti da una società di outsourcing di processi aziendali (BPO) chiamata SAMA e messi al lavoro esclusivamente come moderatori di contenuti su Facebook, Instagram, WhatsApp e Messenger durante il periodo dal 2019 al 2023, quando gran parte della moderazione per i contenuti africani su queste piattaforme è stata eseguita a Nairobi. Meta disconga questi lavoratori e insiste sul fatto che sono stati impiegati esclusivamente da Sama, un problema attualmente in discussione davanti ai tribunali in Kenya.
Questi lavoratori sanno che l’apparente inversione di Meta sulla moderazione dei contenuti è tutt’altro. Come presentato nelle loro rimostranze in tribunale, la società non ha mai preso sul serio la questione. Non abbastanza seriamente da fermare i conflitti civili ed etnici, la violenza politica e gli attacchi della folla contro le comunità emarginate che prosperano sulle sue piattaforme. Non seriamente abbastanza da pagare salari equo alle persone incaricate di assicurarsi che non lo faccia. Il danno viaggia in entrambi i modi: il contenuto tossico infiamme gli orrori del mondo reale e quegli orrori generano più contenuti tossici che saturano le piattaforme.
I moderatori di contenuti sono foraggi di cannone digitale per meta in una guerra contro contenuti dannosi che la società non è mai stata realmente impegnata a combattere. Il caso presentato dai moderatori di contenuti di Nairobi spiega come hanno accettato i lavori che pensavano avrebbero coinvolto il call center e il lavoro di traduzione. Invece, sono finiti nell’hub di moderazione dei contenuti di Meta a Nairobi, dove hanno trascorso le loro giornate sottoposte a un torrente infinito di violenza e abuso in streaming.
Molti di loro sono stati costretti a vedere le atrocità commesse nei loro paesi di origine al fine di proteggere gli utenti di Meta dai danni di vedere queste immagini e filmati. Hanno assorbito quel trauma, quindi gli altri nelle loro comunità non hanno dovuto, e molti hanno trovato che questa era una nobile chiamata.
Ma questo lavoro ha messo a dura prova la loro salute mentale. Più di 140 ex moderatori di contenuti sono stati diagnosticati con PTSD, depressione o ansia derivanti dal loro tempo sul lavoro. Un caso separato affronta il modo in cui sono stati contrastati gli sforzi per un sindacalizzazione per sostenere una migliore assistenza sanitaria mentale. Ciò che seguì furono i licenziamenti in massa e il trasferimento della moderazione dei contenuti di Facebook altrove.
Ciò ha lasciato centinaia di persone colpite dal trauma e una scia di violazioni dei diritti umani. Meta sostiene che non ha mai impiegato i moderatori dei contenuti di Facebook e non si è rivolto a loro. Questo contenzioso è in corso e i moderatori ora si basano sui tribunali per svelare le complessità delle loro dinamiche di lavoro.
Mentre combatteva il caso in tribunale, nel marzo 2024, la società inviò una delegazione guidata dall’allora presidente degli affari globali, Nick Clegg-un ex vice primo ministro britannico-per incontrare il presidente keniota William Ruto e i legislatori per discutere, tra gli altri argomenti, la visione della società della società con il governo nel portare il “rivoluzione della AI generazione” al continuo. Durante un evento Townhall a dicembre, Ruto ha assicurato a Sama, ex partner di moderazione dei contenuti di Meta: “Ora abbiamo cambiato la legge, quindi nessuno può mai portarti di nuovo in tribunale su qualsiasi questione”, riferendosi a un disegno di legge approvato nel parlamento del Kenya che protegge le grandi aziende tecnologiche da casi futuri come il nostro.
Tutto questo respingimento è avvenuto ben prima che Trump fosse rieletto e questi sforzi sembrano essere tentativi di eludere la responsabilità per le pratiche di lavoro dell’azienda e gli effetti dei suoi prodotti. Ma è successo qualcosa di straordinario, che apre una porta agli altri in tutto il mondo che lavorano per conto dell’industria tecnologica, ma che l’industria stessa si disconneva: la Corte ha stabilito che il nostro caso può procedere al processo.
Il fatto che il caso sia avanzato nonostante le vigorose sfide legali e politiche è una testimonianza della natura rivoluzionaria delle costituzioni post-coloniali, che danno la priorità ai diritti umani soprattutto.
Mentre il nostro caso in Kenya continua, spero che possa offrire ispirazione per i lavoratori tecnologici in altre nazioni post-coloniali che anche loro possono perseguire la responsabilità nei paesi in cui sono stati danneggiati. Il diritto alla libertà di espressione è un diritto umano importante, ma continueremo a ricordare alla grande tecnologia che ugualmente importanti sono il diritto alla dignità e alla libertà dallo sfruttamento.
Le opinioni espresse in questo articolo sono la stessa dell’autore e non riflettono necessariamente la posizione editoriale di Oltre La Linea.