Facebook deve fare di più per censurare chi fomenta odio. Anche le multinazionali ora glielo impongono.

Le accuse sono pesanti: dalla monetizzazione dell’hate speech alla discriminazione insita nei suoi algoritmi, dall’influenza sul voto al silenziamento delle voci nere. Anche Facebook – il social network più diffuso al mondo, con 2,6 miliardi di utenti – sta suscitando polemiche per le sue posizioni nei confronti del tema del razzismo e delle discriminazioni. A protestare non sono solo gli utenti, ma attori le cui scelte sono decisive per la sopravvivenza stessa della piattaforma: le multinazionali che lo sostengono con 69,7 miliardi di dollari in pubblicità, il 99% dei suoi introiti. O, almeno, che l’hanno sostenuto finora: a luglio, infatti, oltre 100 aziende – per un totale di più di 300 inserzionisti – aderiscono al boicottaggio indetto dalla campagna #StopHateForProfit che chiede loro di sospendere le ads su Facebook per un mese, in modo da spingere l’azienda a rivedere le sue politiche sui contenuti discriminatori nei confronti delle minoranze e sull’incitamento dell’odio, verso cui per ora non ha preso posizioni abbastanza nette.

La campagna ha acquisito popolarità nelle ultime due settimane: tra le aziende che vi aderiscono ci sono nomi del calibro di Unilever Usa, aziende del food&beverage come Coca-Cola, Starbucks e Diageo, dell’abbigliamento come Adidas, Patagonia, The North Face e Levi’s e dell’automotive come Honda. Per Facebook è un bel colpo: economico, ma anche di immagine, specialmente ora che la sensibilità su odio razziale, discriminazioni e disinformazione è sempre più diffusa. La settimana scorsa, Mark Zuckerberg ha annunciato dei cambiamenti nella politica verso l’hate speech, bloccando le inserzioni che suggeriscono che minoranze e rifugiati siano una minaccia alla sicurezza e alla salute; ma non ha convinto gli attivisti. Rashad Robinson, dell’organizzazione Color of Change, ha commentato: “Se quella è la risposta che dà alle multinazionali che stanno ritirando investimenti di milioni di dollari, non possiamo fidarci della sua leadership”. La campagna potrebbe allargarsi ad altre piattaforme – come dimostra l’esempio di Coca-Cola e altri, che sospenderanno le pubblicità su tutti i social – e coinvolgere sempre più inserzionisti, con l’effetto, magari, di spingere Facebook a un vero cambiamento. Per il momento, però, il ritiro degli investimenti – motivato probabilmente anche dalla necessità di risparmio imposta dall’epidemia di Covid – non incide più dell’1% sulle entrate del social, che è sostenuto soprattutto da piccole e medie imprese. Dall’altro lato c’è anche il rischio che altre aziende si facciano avanti, approfittando del calo dei prezzi degli spazi pubblicitari.

Rashad Robinson del movimento “Colors of Change”

Problemi come l’incitamento all’odio e la disinformazione non sono nuovi ai social. Nel 2019, su segnalazione dell’organizzazione Avaaz, Facebook ha chiuso 23 pagine italiane che diffondevano fake news su temi quali l’immigrazione e i vaccini; tra loro alcune, pur non ufficialmente politiche, producevano contenuti di estrema destra, altre erano pagine non ufficiali vicine a Movimento 5 Stelle e Lega. Troppo spesso, però, il blocco di questo tipo di contenuti è tardivo, come nel caso dell’anno scorso quando Brenton Tarrant, prima di commettere la strage di Christchurch – in cui morirono 51 persone – diffuse su Twitter messaggi islamofobi, propaganda razzista e incitamento al terrorismo, postando foto delle proprie armi e stralci del suo delirante manifesto, per poi essere bannato dal social solo dopo l’accusa ufficiale di strage. Proprio dopo quell’episodio, Facebook annunciò il blocco dei gruppi di suprematisti bianchi che facevano proseliti sulle sue piattaforme. Tuttavia, gli sforzi non sono stati sufficienti né il blocco efficace, dato che molti di quei gruppi, oltre un mese dopo l’annuncio, erano ancora attivi in alcuni servizi Facebook. E, a fine 2019, il Guardian riportava che su Facebook Watch era ancora visibile un canale video alt-right già bloccato da Youtube: Red Ice TV, di Lana Lokteff, segnalato per aver dato spazio a un simpatizzante di Anders Breivik, l’autore della strage norvegese di Utøya. Un altro caso riguarda i contenuti che negano l’olocausto, che Facebook non blocca, scegliendo invece di limitarne la diffusione e di non farli comparire tra i suggerimenti dell’algoritmo agli utenti. E se nel primo trimestre del 2020 Facebook ha rimosso 9,6 milioni di contenuti catalogabili come hate speech, queste azioni non sono state sufficienti a combattere le piaghe dell’odio e della discriminazione online, rendendo la piattaforma uno strumento a disposizione di chi vuole creare divisioni sociali e influenzare le elezioni: ad esempio mantenendo tra le sue fonti, sul nuovo Facebook News, siti come Breitbart News, voce faziosa del movimento alt-right.

Anders Breivik

Facebook era già al centro delle polemiche per le modalità discriminatorie di diffusione della pubblicità. I problemi iniziarono nel 2016, quando l’organizzazione giornalistica ProPublica fece notare che gli inserzionisti potevano indirizzare annunci anche sulla base di categorie definite dagli utenti stessi (compresi lavori come “odiatore degli ebrei”) e che i suoi giornalisti erano riusciti ad acquistare spazi per annunci palesemente discriminatori, facendoli passare indenni dal vaglio degli amministratori. Gli attivisti sostenevano che gli strumenti di selezione dell’audience della pubblicità offerti da Facebook consentivano di escludere fette di pubblico in base ai dati demografici, per rendere visibili gli annunci di appartamenti solo ad alcuni tipi di utenti, escludendo ad esempio persone di colore o famiglie con bambini. Questa pratica, peraltro, oltre che palesemente immorale, è anche illegale secondo il Fair Housing Act, la legge federale che protegge affittuari e acquirenti dalle discriminazioni. E così, dopo anni di pressioni da parte di organizzazioni come National Fair Housing Alliance, American Civil Liberties Union e ProPublica, a marzo 2019 l’azienda ha accettato di modificare la sua piattaforma per la pubblicità, creando un nuovo portale per annunci che limita le opzioni di targeting da parte degli inserzionisti: gli annunci non possono più essere indirizzati per età, sesso o codice postale.

Ma ora arriva #StopHateForProfit, in un momento in cui Zuckerberg stesso prende posizioni ambigue, esprimendosi contro il fact checking apposto da Twitter ad alcuni post di Donald Trump. In un tweet del 26 maggio Trump sosteneva che le votazioni tramite posta portassero a una diffusa frode elettorale; e in un altro, del 29 maggio, riferito alle sommosse iniziate dopo la morte di George Floyd, affermava: “Quando iniziano i saccheggi, si inizia anche a sparare”. Twitter non ha rimosso né oscurato i tweet, ma ha apposto una nota, avvertendo che il contenuto viola le regole sull’esaltazione della violenza o che contiene informazioni non verificate. Mark Zuckerberg ha commentato la posizione di Twitter, sostenendo che i social non devono essere arbitri di ciò che la gente dice online. Tuttavia, poi, anche perché pressato da uno sciopero contro la mancata presa di posizione dell’azienda verso i crimini d’odio – a cui a inizio giugno hanno aderito tra i 400 e i 600 dipendenti – ha leggermente ritrattato, prendendo atto della necessità di rivedere le proprie politiche in materia.

Il CEO di Twitter Jack Dorsey

Mentre il maggiore gruppo di sostenitori di Trump su Reddit viene chiuso per violazione degli standard sull’hate speech, il presidente – dopo le minacce – ha firmato proprio a fine maggio un ordine esecutivo per ridurre la possibilità per i social network di censurare o segnalare i contenuti pubblicati dagli utenti, ridimensionando la sostanziale immunità di cui gli amministratori delle piattaforme godono. Il provvedimento prevede che il Dipartimento del Commercio e il procuratore generale propongano una modifica della legge alla Federal Communications Commission (Fcc), l’agenzia governativa per le telecomunicazioni, indipendente dal governo, che dovrà decidere se modificare o no le regole attuali. In particolare, Trump chiede alla commissione di valutare se togliere ai social le tutele della cosiddetta sezione 230 del Communications Decency Act nel caso di rimozione o blocco dei contenuti. Il decreto, quindi, potrebbe anche non avere conseguenze, oltre a essere potenzialmente incostituzionale, dato che cerca di eludere il Congresso e la Corte Suprema. Ma la guerra tra Twitter e il presidente degli Stati Uniti è cominciata.

Sembra che Zuckerberg non voglia esporsi anche per non infastidire Trump, avallando così il dilagare della propaganda razzista e l’incitamento all’odio sulle sue piattaforme, che contribuiscono a diffondere una cultura dell’odio generalizzata, senza filtri. Molte aziende, vedendo i propri investimenti impiegati in questo modo, non vogliono più stare al gioco: Facebook – la cui donazione di 10 milioni di dollari all’impegno per la giustizia razziale è tacciata di ipocrisia dall’associazione Color of Change – deve assumersi la responsabilità verso i pregiudizi e le discriminazioni che proliferano sulle sue piattaforme, prendendo atto del ruolo essenziale che i social giocano nella diffusione delle notizie e delle idee. Gli strumenti per farlo li ha e ci pensa #StopHateForProfit a suggerirglieli: dalla revisione dei contenuti fatta da terze parti indipendenti al rimborso per le aziende che trovano i propri annunci accanto a inserzioni che inneggiano all’odio, a un servizio di contatto diretto con operatori umani per gli utenti vittime di discriminazione, odio e molestie. Intanto, il 30 giugno, Facebook ha applicato la politica sulle organizzazioni pericolose al movimento di estrema destra Boogaloo, rimuovendo decine di pagine e account ed eliminando i contenuti che inneggiavano a quel gruppo. Sembra essere un primo passo, ma staremo a vedere in che direzione Facebook si muoverà, messo alle strette da un lato dalla minaccia di investimenti e credibilità, dall’altro da un presidente che vuole censurare i social.

Segui Silvia su The Vision