È ormai da diversi anni che l’attenzione degli utenti del web è quotidianamente catturata dai molteplici contenuti presenti sulle piattaforme digitali. La stragrande maggioranza delle persone passa addirittura anche diverse ore nell’arco della giornata a scrollare passivamente le bacheche dei principali social media. Non è un caso, però, che soprattutto le grandi piattaforme suggeriscano ai propri utenti la visualizzazione dei contenuti che più rispecchiano i loro interessi. Questo perché i social network categorizzano alcune informazioni come più rilevanti per un determinato bacino di utenti. Infatti, è noto che gli interessi individuali sono limitati e per evidenziare ciò, il fondatore di Facebook, Mark Zuckerberg, si è espresso nei seguenti termini: “La morte di uno scoiattolo davanti a casa può essere più pertinente per i tuoi interessi immediati rispetto a quella di una persona in Africa”. Molte piattaforme digitali hanno quindi sposato la logica secondo cui la personalizzazione delle informazioni è necessaria per offrire alle persone una migliore esperienza di navigazione online.
Nozione, significato e origine del concetto di filter bubble
La personalizzazione dei contenuti sul web, tuttavia, ha creato un singolare fenomeno, noto come filter bubble o, in italiano, bolla di filtraggio. Di filter bubble si è parlato per la prima volta poco più di un decennio fa, quando lo scrittore e attivista americano Eli Pariser ha coniato tale termine all’interno del suo celebre libro intitolato “The Filter Bubble. What the Internet Is Hiding From You”, pubblicato nel 2011. Lo scrittore, nel libro, ha espresso le proprie preoccupazioni per il dilagare del fenomeno della personalizzazione dei contenuti online, cominciato con Google e Facebook intorno al 2009, il quale porta alla creazione di un personale ecosistema di informazioni.
Ma cosa si intende, esattamente, per filter bubble? L’enciclopedia Treccani definisce tale fenomeno come “l’ambiente virtuale che ciascun utente costruisce in Internet tramite le sue selezioni preferenziali, caratterizzato da scarsa permeabilità alla novità e alto livello di autoreferenzialità”. Un’altra definizione, più completa, è fornita da Technopedia, che mette in evidenza una delle maggiori conseguenze negative derivanti dalla creazione delle bolle di filtraggio: “Una filter bubble è l’isolamento intellettuale che può verificarsi quando i siti web fanno uso di algoritmi presupponendo le informazioni che un utente vorrebbe vedere, per poi dare quelle informazioni all’utente secondo le supposizioni fatte. I siti web attuano tali supposizioni sulla base delle informazioni relative all’utente, come precedenti click su un sito, cronologia di navigazione, cronologia di ricerca e posizione. Per questa ragione, i siti web sono più propensi a presentare solo le informazioni basate sull’attività passata dell’utente. Una filter bubble, quindi, può far sì che gli utenti abbiano molti meno contatti con punti di vista diversi dal proprio, creando così un isolamento intellettuale”.
Il fenomeno della filter bubble è più diffuso di quanto si creda. Infatti, ci si trova in una bolla di filtraggio tutte le volte che si è circondati da notizie, opinioni, articoli con cui si concorda, senza venire in contatto con prospettive opposte. Pariser, nel suo libro, descrive come Internet tenda a dare agli individui esattamente ciò che vogliono e afferma: “Il monitor del tuo computer è una sorta di specchio unidirezionale, che riflette i tuoi stessi interessi, mentre gli algoritmi osservano i tuoi click”. Tutto ciò è sicuramente conveniente per aziende, brand, piattaforme digitali, che osservano i comportamenti online degli utenti, immagazzinando una mole inimmaginabile di dati personali e creando, all’occorrenza, annunci pubblicitari mirati, volti a indirizzare le scelte di consumatori e utenti.
I rischi della filter bubble
Tuttavia, una delle conseguenze più allarmanti della filter bubble è l’isolamento ideologico che essa comporta. Infatti, se un individuo si approccia ogni giorno ai soliti contenuti sul web, è pacifico che non si interesserà facilmente a informazioni diverse o anche contrastanti con il proprio punto di vista. Il rischio principale della filter bubble è la circostanza che essa ingabbia l’utente nella propria bolla di conoscenze, ideologie, informazioni, annichilendo la coscienza, la percezione della realtà, il pensiero critico ed escludendo importanti occasioni per mettersi in discussione e sostenere un dialogo. Ad esempio, se un soggetto appartenente a un partito estremista e con idee antisemite si vede comparire ogni giorno sul web principalmente i soliti contenuti razzisti, questi avrà più probabilità di rimanere ancorato alle proprie convinzioni e imprigionato nella sua bolla di fake news e odio, proprio perché la personalizzazione automatizzata dei contenuti secondo i suoi gusti e preferenze rende molto più complicato l’accesso a informazioni diverse.
Nel suo libro, Eli Pariser appura con preoccupazione come la filter bubble, da strumento utile alle imprese per conoscere le preferenze delle persone e per creare un profilo individuale di ciascuno di essi, sia diventato in realtà un anatema al dialogo e alla conoscenza, con effetti catastrofici sulla società intera e non soltanto sul singolo individuo. Infatti, la diffusione delle fake news e della disinformazione online, alimentata proprio dal fenomeno della filter bubble, è uno dei problemi principali della società odierna, dal momento che essa può generare gravissime conseguenze soprattutto in situazioni di emergenza come pandemie o guerre che necessitano, al contrario, di coesione sociale, collaborazione e dialogo.
Filter bubble come patologia della profilazione
La bolla di filtraggio non è altro che una conseguenza (o per alcuni la deriva) del più ampio fenomeno della profilazione, ossia quel meccanismo di creazione di profili personali degli utenti, attraverso la raccolta automatizzata dei loro dati, allo scopo di suddividere l’utenza in gruppi di comportamento. L’art. 4, par. 4 del Regolamento (UE) 2016/679 (GDPR) definisce la profilazione come “qualsiasi forma di trattamento automatizzato di dati personali consistente nell’utilizzo di tali dati per valutare determinati aspetti relativi a una persona fisica, in particolare per analizzare o prevedere aspetti riguardanti il rendimento professionale, la situazione economica, la salute, le preferenze personali, gli interessi, l’affidabilità, il comportamento, l’ubicazione o gli spostamenti di detta persona fisica”. Tuttavia, è fondamentale ricordare l’art. 21 GDPR, il quale statuisce che: “l’interessato ha il diritto di opporsi in qualsiasi momento, per motivi connessi alla sua situazione particolare, al trattamento dei dati personali che lo riguardano […] compresa la profilazione […]”. Inoltre, l’art. 22 GDPR sancisce un generale divieto a sottoporre un individuo a processi decisionali automatizzati, compresa la profilazione. Tuttavia, il paragrafo 2 della medesima norma stabilisce alcune deroghe a tale divieto, tra cui la possibilità di sottoporre un individuo a meccanismi di profilazione sulla base del suo consenso esplicito.
Dunque, non è un caso che profilazione e filter bubble siano accostate. Difatti, la filter bubble non è altro che un meccanismo di profilazione, arricchito dalla componente dell’isolamento intellettuale e per questo da molti considerata come la fattispecie patologica della profilazione.
Il Digital Services Act come possibile freno al fenomeno della “bolla di filtraggio”
Come già appurato, sono innumerevoli i rischi sociali che scaturiscono dal meccanismo della bolla di filtraggio. Dunque, è necessario intraprendere delle azioni correttive volte a contrastare tale fenomeno. Le strategie messe in atto per far fronte a queste problematiche sono molte e in via di definizione. Ad esempio, attualmente, l’Unione europea sta discutendo su come rendere più sicuro per gli utenti lo spazio online, tramite l’imposizione alle big tech (e non solo) di maggiori responsabilità sulla pubblicazione di contenuti online che possono essere nocivi o addirittura illegali.
Infatti, nel dicembre 2020, la Commissione europea ha lanciato una proposta di Regolamento sul mercato unico dei servizi digitali (Digital Services Act o DSA), la quale sancisce il principio secondo cui ciò che è illegale offline deve esserlo anche online e garantendo agli utenti del web maggiore informazione e trasparenza sui meccanismi di profilazione. Ad esempio, il DSA statuisce il divieto di effettuare la pubblicità mirata sfruttando le categorie particolari di dati. Inoltre, il 20 gennaio 2022, il Parlamento europeo è intervenuto con l’adozione di alcuni emendamenti alla proposta di Regolamento della Commissione europea sul DSA, aggiungendo che: “le piattaforme digitali non dovrebbero anche usare i dati personali dei minori per finalità di marketing e profilazione. […] Le piattaforme molto grandi dovrebbero lasciar decidere gli utenti sul se essi vogliono essere soggetti a sistemi di raccomandazione basati sulla profilazione, garantendo sempre la presenza di un’opzione che non si basi sulla profilazione”. Dunque, la normativa (ancora in fase di definizione) sui servizi digitali fa comprendere come il legislatore europeo voglia porre un freno allo strapotere delle big tech sulla creazione e diffusione dei contenuti online.
Oggi più che mai, in una situazione di emergenza sanitaria e di grave instabilità geopolitica, è necessario creare un ambiente digitale più trasparente e sicuro, dove tutti gli utenti possano informarsi in maniera adeguata. Internet, infatti, dovrebbe essere un ambiente accogliente, stimolante e inclusivo e non, al contrario, un covo di fake news e hate speech. Per questo è fondamentale combattere con tutti i mezzi possibili il fenomeno della filter bubble, proprio perché per il mantenimento dei valori democratici stessi servono degli individui informati, disposti al dialogo e pronti a mettersi in discussione e non, al contrario, degli automi con la coscienza pericolosamente annebbiata dai contenuti dannosi che gli algoritmi propinano loro.