Foto: Niccolò Caranti / OBCT (CC BY)

Pubblichiamo il resoconto dettagliato degli interventi dei relatori al policy workshop "Le elezioni ai tempi dei social media. Elezioni europee, disinformazione, micro-targeting: che fare?", che si è svolto lo scorso 14 maggio a Roma, nell'ambito del progetto ESVEI promosso da OBC Transeuropa / CCI

24/05/2019 -  Chiara SigheleRossella Vignola

Recentemente in un suo intervento al TED di Vancouver, Carole Cadwalladr, la giornalista che ha fatto scoppiare il caso di Cambridge Analytica, ha acceso i riflettori sul ruolo delle piattaforme social nella campagna per la Brexit, illuminando i temi della propaganda politica personalizzata e della disinformazione online. A pochi giorni dal voto per eleggere il nuovo Parlamento europeo, segnato da timori di interferenze e influenze anche esterne attraverso i social media, questo è stato l’obiettivo del policy workshop “Le elezioni ai tempi dei social media”, a cui hanno partecipato una quarantina di addetti ai lavori. Interrogarsi sul potenziale di impatto dei “giganti di internet” sulle nostre democrazie è infatti un passaggio indispensabile per poter individuare misure concrete a tutela dell’integrità del discorso pubblico e dei nostri processi democratici.

Bias cognitivi e camere dell’eco

Walter Quattrocchi e Fabiana Zollo

Fabiana Zollo e Walter Quattrociocchi
Università Ca’ Foscari Venezia
Foto CC-BY Niccolò Caranti / OBCT

Illustrando i risultati di diversi studi su come gli utenti consumano le informazioni online, Walter Quattrociocchi e Fabiana Zollo dell’Università Ca’ Foscari di Venezia hanno spiegato che la diffusione della disinformazione online dipende da problemi cognitivi e psicologici, prima che tecnologici. Sono il cosiddetto “bias di conferma” - l’attitudine del nostro cervello a dare più credito agli argomenti che sono coerenti con il nostro sistema di credenze, e a trascurare o rifiutare le informazioni che lo contrastano - e la tendenza dell’essere umano ad essere influenzato dalle opinioni del gruppo circostante (“conformismo”) a favorire la nascita di “camere dell’eco”, bolle informative chiuse costruite intorno a narrative condivise da un certo gruppo di persone che con le loro opinioni simili rinforzano vicendevolmente le proprie convinzioni. Come uscire da queste strutture chiuse di utenti e notizie non comunicanti tra loro?

Abbassare la polarizzazione per disinnescare la disinformazione

Osservando il comportamento di un grande numero di utenti intorno a una certa tematica polarizzante è possibile identificare in anticipo quelli che possono essere i potenziali bersagli di campagne di disinformazione entro le 24 ore successive. È importante dunque agire preventivamente, prima che si inneschi la distribuzione di disinformazione intorno a tematiche suscettibili di polarizzazione delle opinioni. “La domanda a cui stiamo cercando di rispondere ora”, ha aggiunto Fabiana Zollo, “è come comunicare le tematiche oggetto di polarizzazione in modo più attento, con una cura particolare volta a creare framework narrativi accoglienti e abbassare la polarizzazione.”

Complessità del sistema informativo e viralità

Nicola Bruno, giornalista di Dataninja

Nicola Bruno, giornalista di Dataninja
Foto CC-BY Niccolò Caranti / OBCT

Nicola Bruno, giornalista di Dataninja e fact checker, ha ragionato sui meccanismi di propagazione della disinformazione mettendo al centro il tema delle fonti. Le reti di disinformazione online sono spesso una galassia composta da una molteplicità di fonti, contenuti e attori animati da motivazioni diverse: riconoscere con quali fonti si ha a che fare diventa complesso. Occorre superare la visione del fact-checking come verifica del singolo contenuto.

L’importanza delle fonti anche per una nuova alfabetizzazione mediatica

“Rimuovere contenuti, chiudere pagine forse è poco utile e rischia di essere dannoso. Occorre piuttosto spostare l’attenzione sull’intera filiera informativa: chi sono gli attori coinvolti, quale pubblico viene preso di mira, come operano gli intermediari (ovvero anche i social e i loro algoritmi) - per agire sui meccanismi, capendo quali sono gli incentivi di chi c’è dietro. Sono di natura economica o politica? Quanto sono ricorsivi? Quanto cambiano pelle?”, ha puntualizzato Bruno, sottolineando l’importanza di lavorare sulle fonti nel lavoro di educational fact-checking e alfabetizzazione mediatica.

Trasparenza e intelligibilità per recuperare il controllo come utenti

Giorgio Comai ricercatore OBCT

Giorgio Comai, ricercatore OBCT
Foto CC-BY Niccolò Caranti / OBCT

Giorgio Comai, ricercatore di OBC Transeuropa, ha illustrato i risultati preliminari di un lavoro su cui OBCT e Dataninja stanno collaborando portando alcuni esempi concreti di reti informative online. Vi sono reti di siti e pagine Facebook non collegate tra loro in modo visibile che promuovono i rispettivi contenuti, rendendo sempre più difficile per gli utenti capire perché sono esposti a determinate informazioni. Al contrario “è importante per tutti noi essere in grado non solo di comprendere perché ci troviamo di fronte a una certa fonte di informazione invece di un’altra, ma anche essere effettivamente in grado di determinare i contenuti che ci vengono proposti dalle piattaforme digitali” ha sottolineato Comai, insistendo sull’importanza di ottenere più trasparenza dei meccanismi che distribuiscono le informazioni sul web. Secondo il ricercatore, infatti, lo scarso controllo che l’utente ha su questi aspetti contribuisce al clima di sfiducia e confusione in cui attualmente ci troviamo.

“Regolamentare Internet non vuol dire eliminare da Internet tutti i mali della società”

Fabio Chiusi

Fabio Chiusi, Centro Nexa e Valigia Blu
Foto CC-BY Niccolò Caranti / OBCT

Secondo Fabio Chiusi, ricercatore presso il Nexa Center for Internet & Society e firma di Valigia Blu, dovrebbe destare grande preoccupazione l’approccio di policy che rischia di prevalere, secondo cui “regolamentare Internet corrisponderebbe ad eliminare da Internet tutti i mali della società, l’odio, le bugie, la propaganda, e tutta una serie di altri problemi”. Per esempio il White Paper proposto in Gran Bretagna dalla premier Theresa May prevede che le piattaforme debbano essere ritenute responsabili dei contenuti che ospitano e adotta la logica del filtro preventivo operato dalla piattaforma stessa attraverso l’intelligenza artificiale e gli algoritmi. I rischi insiti in questi tipi di approccio sono enormi: mettono in pericolo la libertà di espressione, favoriscono la censura ed espongono le nostre società a pericolose derive autoritarie. “Serve regolamentare le piattaforme, cioè i contenitori - ad esempio in relazione alla pubblicità politica online - ma evitare leggi sui contenuti, su ciò che è vero e ciò che è falso”.

Più ricerca, più competenza giornalistica, più confronti tra portatori d’interesse

Perché le scelte politiche siano indirizzate correttamente, il dibattito sulla disinformazione dovrebbe smettere di essere ideologico e ritornare nell’alveo che gli compete: quello della ricerca scientifica. “Servono sia più finanziamenti per la ricerca, sia un giornalismo maggiormente capace di trattare queste tematiche con competenza e chiarezza” ha ribadito Chiusi, secondo cui la creazione di luoghi informali dove discutere di questi temi con più stakeholder (ricercatori, giornalisti, aziende tecnologiche, etc.) aiuterebbe a trovare un consenso intorno a proposte di policy meno tossiche.

Garante Privacy: “è il momento di fare quadrato”

Riccardo Acciai

Riccardo Acciai, dirigente presso Garante della Privacy
Foto CC-BY Niccolò Caranti / OBCT

La comunicazione politica online è ancora un vero e proprio “Far West” senza regole, ha confermato Riccardo Acciai, dirigente presso il Garante della Privacy, ricostruendo l’istruttoria aperta nei confronti di Facebook in relazione al caso Cambridge Analytica in Italia. “Ci siamo distratti per una decina d’anni e abbiamo consentito a queste piattaforme di espandersi a dismisura e di acquisire fatturati enormi”. Ora che riconosciamo il problema è difficile fare tutto, ma qualcosa si può fare: innanzitutto chiedere che Facebook (e gli altri giganti tecnologici) rispettino il principio di limitazione delle finalità: le sanzioni che si possono comminare per un trattamento illegittimo dei dati arrivano al 4% del fatturato. Inoltre, “sull’opacità dei finanziamenti dobbiamo fare quadrato, sia sfruttando i meccanismi di cooperazione transnazionale introdotti dalle normative UE, sia rafforzando la collaborazione tra le Autorità nazionali di garanzia (Antitrust, Garante, Agcom)”.

Propaganda elettorale online: l’autoregolamentazione non basta, serve una legge

Daniele De Berardin

Daniele De Bernardin di Openpolis
Foto CC-BY Niccolò Caranti / OBCT

A fronte delle molte problematiche toccate nel dibattito -dalla disinformazione alla violazione della privacy, per Daniele De Bernardin di Openpolis è cruciale puntare su un problema circoscritto - quello della propaganda politica sui social in periodo elettorale - e premere perché sia colmata quella che ha definito una “lacuna normativa gravissima, con implicazioni importanti per la qualità della nostra democrazia”. Infatti, mentre esistono regole stringenti per le campagne elettorali tradizionali, oggi che Internet è la principale fonte di informazione vi è la totale assenza di regolamentazione delle campagne politiche online, che funzionano in modo pervasivo e nella più totale opacità. I tentativi portati avanti dalla società civile per ovviare al problema della (assenza di) trasparenza delle piattaforme non bastano più. Secondo De Bernardin e altri esperti intervenuti, anche il tentativo della Commissione europea di colmare l’inazione degli stati puntando sull’autoregolamentazione delle piattaforme attraverso il Code of practice on disinformation ha troppe falle: “il monitoraggio non funziona, deve mostrare che si fanno passi avanti anche se in realtà sono ben poca cosa”.

Obblighi di trasparenza: verso un archivio indipendente di pubblicità politiche online

L’aspettativa che aziende private si attivino per proteggere l’interesse pubblico è probabilmente irrealistica in partenza. Occorre che il Parlamento italiano si attivi stabilendo per legge obblighi di trasparenza in materia di contenuti sponsorizzati online: un archivio pubblico attraverso cui tutti i cittadini possano monitorare le pubblicità politiche, inclusi i diversi elementi di profilazione usati dagli inserzionisti (partiti e candidati innanzitutto). Tuttavia il tema non è ancora entrato in Parlamento e le forze politiche sembrano non interessarsi affatto alla questione.

Cambridge Analytica: la punta dell’iceberg

Antonella Napolitano

Antonella Napolitano, Privacy International
Foto CC-BY Niccolò Caranti / OBCT

Nell’ultimo intervento della sessione Antonella Napolitano, advocacy officer presso Privacy International, ha collocato il tema della privacy in un contesto più ampio, interpretando il diritto alla privacy in collegamento con tutti i diritti che esso abilita (dignità, libertà di scelta e di espressione, eccetera) ed ha offerto una panoramica di casi a livello globale in cui la violazione dei dati personali sensibili apre scenari molto preoccupanti (manipolazione, sfruttamento commerciale, formazione dell’opinione pubblica, etc.). Poiché l’autoregolamentazione ha dimostrato di poter arrivare solo fino ad un certo punto, Napolitano ha esortato i vari attori ad agire per un cambio di pratiche (società civile, autorità garanti, partiti politici), ognuno nella propria sfera di competenza, “perché non c’è più tanto tempo”.

Multidisciplinarietà e contenzioso strategico

Tommaso Scannicchio di CILD

Tommaso Scannicchio di CILD
Foto CC-BY Niccolò Caranti / OBCT

Il dibattito, ha concluso Tommaso Scannicchio di CILD, ha fatto emergere una chiara esigenza regolatoria riguardo la trasparenza delle pubblicità online, che presuppone tuttavia una volontà politica per ora difficile da intravedere. Che fare dunque? Occorre sfruttare al massimo gli strumenti normativi esistenti e incoraggiare l’interlocuzione tra profili disciplinari diversi - data analyst, giuristi, informatici, psicologi cognitivi, forse anche esperti di tattica militare per affrontare un’eventuale dimensione di “infowar”. Sarebbe inoltre auspicabile che il Garante e la società civile italiana si alleino, come già sta avvenendo in Austria, Germania, Belgio, Polonia, Ungheria tra gli altri, sia attraverso campagne di comunicazione sia attraverso gli strumenti del contenzioso strategico: “l’approccio sanzionatorio è quello che abbiamo. Veniamo da anni di deregolamentazione, di spazio interamente concesso al mercato, liberato da regole: forse è giunto il momento di invertire la rotta” - ha chiosato Scannicchio.

 

 

Questa pubblicazione è stata prodotta nell'ambito del progetto ESVEI, co-finanziato da Open Society Institute in cooperazione con OSIFE/Open Society Foundations. La responsabilità dei contenuti di questa pubblicazione è esclusivamente di Osservatorio Balcani e Caucaso Transeuropa. 


Hai pensato a un abbonamento a OBC Transeuropa? Sosterrai il nostro lavoro e riceverai articoli in anteprima e più contenuti. Abbonati a OBCT!