Video rimossi e informazioni cancellate: l’insostenibile leggerezza archivistica dei social media

Sempre più spesso le piattaforme come YouTube cancellano erroneamente materiali realizzati per finalità di informazione e documentazione giornalistica. Un problema molto serio nel momento in cui gran parte della memoria collettiva viene creata e tramandata in rete

La crescita esponenziale dei social media ha reso sempre più urgente il lavoro di monitoraggio e filtro necessario per rimuovere i contenuti a carattere violento e offensivo. Tutte le piattaforme fanno sempre più affidamento sia sul contributo degli utenti, sia sulla definizione di algoritmi per cancellare i materiali più problematici. In particolare, gli stessi gestori delle piattaforme ammettono che il ricorso alla tecnologia è considerato sempre più strategico: solo i sistemi automatici possono permettere di tenere il passo con una produzione di contenuti in drammatica espansione.

Allo stesso tempo però, affidarsi sempre di più agli algoritmi può portare alla perdita di informazioni e contenuti di fondamentale importanza. La scorsa estate ad esempio, gli attivisti di Airwars - organizzazione che prova a tenere traccia dei danni collaterali subiti dai civili a causa dai bombardamenti alle milizie dello Stato islamico - hanno denunciato la rimozione di almeno 10 video prodotti per scopi informativi. A seguito delle proteste lanciate via Twitter, i video rimossi sono stati successivamente pubblicati online. Per alcuni però, YouTube ha imposto il divieto di accesso ai minorenni.

Tutto nasce dalla volontà dei gestori della piattaforma di non dare spazio ai video di propaganda pubblicati e diffusi dalle varie forze terroristiche coinvolte negli scontri. Ma resta che molto spesso, nell’ambito di queste operazioni finiscono per essere coinvolti anche contenuti prodotti da soggetti impegnati sul terreno dell’informazione indipendente, peraltro in zone scarsamente coperte dai media ufficiali. “Non sappiamo quanto materiale sia andato perso - ha dichiarato un portavoce di Airwars alla CNN - ma sappiamo che questi video potevano rivestire un ruolo fondamentale per eventuali iniziative di indagine, giustizia e risarcimento. Il loro valore era altissimo sia per la comunità internazionale, sia per gli stessi cittadini siriani”. Parole che potrebbero sembrare retoriche, ma che invece acquistano un senso molto concreto se si pensa ad esempio che proprio nella scorsa estate, la Corte penale internazionale de L’Aja ha condannato un comandante libico accusato di esecuzioni sommarie potendo contare, tra le altre cose, sull’esistenza di alcune testimonianze video pubblicate online.

“Non credo che i gestori di YouTube agiscano in malafede”, ha dichiarato alla CNN il fondatore del sito di giornalismo investigativo Bellingcat, al quale Youtube aveva cancellato tempo fa l’account personale, e i relativi video, per poi ripristinarlo dopo un successivo riesame. “Penso piuttosto che i loro sistemi di segnalazione dei contenuti offensivi e violenti sia imperfetto - ha aggiunto - e che a causa di ciò vengano rimossi anche materiali prodotti per scopi di trasparenza e informazione libera”.

Gli stessi gestori di YouTube non negano il problema: “con l’enorme quantità di contenuti pubblicati sul nostro sito, a volte ci capita di fare la scelta sbagliata - ha dichiarato un portavoce della piattaforma - ciò detto, appena ci viene segnalato che un video e un canale sono stati rimossi per errore, ci mettiamo velocemente all’opera per farlo riapparire online”. A fronte di questa parziale ammissione di colpa, resta che, come documentato dal New York Times, migliaia di video prodotti in Siria dai media indipendenti paiono essere stati rimossi senza alcuna motivazione plausibile.

Se insomma si pensa ai social media come nuovi “archivi spontanei” dell’era digitale, occorre riconoscere che questi strumenti hanno dei limiti evidenti, e che la perdita di memoria che ne consegue può avere ripercussioni enormi. Per ovviare a ciò, molto probabilmente l’unica soluzione percorribile è fare in modo che gli algoritmi siano il più possibile aperti e trasparenti. Così la pensa ad esempio il vicepresidente di Benetech, ong che produce  software a supporto delle cause umanitarie: “che siano gli umani o le macchine a rimuovere i contenuti per errore, la responsabilità è sempre dei primi, perché in ultima analisi sono loro a scrivere i codici. Solo in presenza di algoritmi totalmente trasparenti, è possibile intervenire per individuare e correggere gli errori”. Potrebbe sembrare una questione irrisoria, o comunque per pochi esperti e addetti ai lavori, ma a ben vedere non è così. “Se queste piattaforme sbagliano - è la sua conclusione - le conseguenze non ricadono su qualche decina di persone; spesso possono avere pesanti ripercussioni su interi continenti”.

Azioni sul documento

ultima modifica 2017-10-11T20:14:00+02:00
Questa pagina ti è stata utile?

Valuta il sito

Non hai trovato quello che cerchi ?

Piè di pagina