“Youtube is Erasing History”
Nell’era della comunicazione social, le piattaforme social rischiano di svolgere un involontario ruolo di censura, facendo scomparire migliaia di prove ed evidenze di crimini, violenze e altre violazioni dei diritti umani perpetrate in tutto il mondo. Questo il grido d’allarme che l’attivista e archivista siriano Hadi Al Khatib ha lanciato con un messaggio video sul New York Times.
Al Khatib contribuisce alla gestione di un archivio che documenta violazioni dei diritti umani in Siria, e il video che contiene il suo appello si apre proprio con un episodio di questo genere. Il 12 aprile 2017, un elicottero delle forze governative sgancia una barrel bomb, ordigno estremamente letale, sulla città di Kafr Zita, nel nord del Paese. Un giornalista documenta il bombardamento con un video e lo pubblica su You Tube. Solo poche settimane dopo però, il video non è più accessibile, essendo stato rimosso dalla piattaforma.
Lo stesso destino, spiega l’attivista, è toccato in sorte a circa il 10% degli oltre 1 milione e 500 mila video collezionati online nel corso degli anni dalla sua associazione. 200.000 testimonianze di abusi, torture e violenze scomparsi nel nulla, ai quali si aggiungono centinaia di migliaia di altri contenuti analoghi prodotti e condivisi in altre zone “calde” del mondo, quali ad esempio Yemen, Sudan e Burma. “Una tremenda perdita di memoria e verità”, denuncia Al Khatib, che attribuisce ai meccanismi di rimozione dei contenuti online il peso di questa responsabilità.
Il problema, spiega Dia Kayyali, tra i manager del progetto di documentazione umanitario WITNESS, è che giganti come Facebook e Youtube stanno soccombendo sotto il peso di una massa di contenuti sempre più massiccia e incontrollabile. Solo su Youtube, per rendere l’idea, vengono caricate circa 300 ore di contenuti ogni singolo minuto. Materiali tra i quali rientrano anche contenuti sensibili e illegali, quali episodi di violenza privata, propaganda terroristica o azioni criminali che necessitano di essere rimossi con la massima velocità ed efficacia, anche a causa delle pressioni sempre crescenti che arrivano dalle opinioni pubbliche e dalle istituzioni.
Per fare fronte a tutto ciò, inizialmente i social media hanno fatto affidamento sul contributo volontario degli utenti, che hanno la facoltà di segnalare contenuti inappropriati, e sul lavoro di moderatori incaricati di analizzare i video segnalati e rimuovere quelli illegali. Questo sistema mostrava già dei notevoli difetti, a partire dal carico emotivo cui sono sottoposte persone chiamate a visionare ore e ore di contenuti potenzialmente molto violenti e disturbanti, per proseguire con la crescente difficoltà ad interpretare correttamente materiali che provengono dai più svariati contesti linguistici, culturali e sociali.
Come se non bastasse, a partire da alcuni anni i social media hanno cominciato ad affidarsi con sempre maggiore frequenza e sistematicità alle soluzioni tecnologiche automatizzate per l’analisi dei contenuti. Per quanto efficaci e produttivi si possa essere, nessun umano è in grado di reggere al ritmo sempre più frenetico di condivisione dei contenuti online, e l’unica soluzione plausibile per analizzarne il maggior numero possibile nel minor lasso di tempo è far fare questo lavoro alle macchine. Che ancor più degli operatori però, fanno fatica a interpretare contesti, sfumature e sottigliezze, finendo per segnalare e/o cancellare anche tanti materiali di fondamentale importanza storica, sociale e giuridica, assieme a tutti quelli effettivamente inappropriati.
“Si creata un’arma a doppio taglio - argomenta Kayyali - e sempre più spesso contenuti di cruciale importanza per la difesa dei diritti umani finiscono per rimanere impigliati nella rete. Perché in ultima analisi i computer possono essere efficaci nell’individuare la violenza, ma non sono abbastanza sofisticati, o empatici, per capire se quella violenza è il contenuto di un video di propaganda dell’ISIS, o la documentazione di una violazione dei diritti umani”.
Un problema enorme, perché il rischio che si corre è di cancellare pezzi di cronaca e storia di fondamentale importanza, lasciando che crimini e altri episodi di violazione dei diritti umani restino non documentati e impuniti. Problema che le piattaforme social, almeno in parte, stanno cercando di arginare. Facebook ad esempio, ha di recente annunciato la creazione di un comitato di supervisione indipendente di esperti che dovranno operare a supporto dei moderatori dei contenuti interni all’azienda.
Soluzione che l’attivista siriano Al Khatib giudica un significativo passo in avanti, ma assolutamente non sufficiente nel momento in cui i colossi social sono diventati loro malgrado attori di fondamentale importanza sul terreno dei diritti umani. Per questo Al Khatib invoca altre misure, dall’assunzione di molti moderatori provenienti dai Paesi più turbolenti, che siano in grado di interpretare con la massima cognizione di causa i contenuti prodotti e condivisi nelle proprie aree di riferimento, alla definizione di un sistema che permetta a ricercatori e attivisti indipendenti come lo stesso Al Khatib di rivedere, ed eventualmente sconfessare le decisioni errate di rimozione dei contenuti prese dai moderatori.