Rabbit holes are for rabbits

Effettua la tua ricerca

More results...

Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
Filter by Categories
#finsubito


All’inizio di Alice nel paese delle meraviglie, la protagonista, annoiata, vede un coniglio bianco «con occhi di rubino» che le passa accanto. Non solo: il coniglio parla tra sé e sé lamentandosi di essere in ritardo, ed estrae un orologio dal suo panciotto per controllare l’ora. Alice, incuriosita, lo segue lanciandosi nella buca della conigliera e così iniziano le sue surreali avventure. La «tana del bianconiglio» è divenuta la metafora di un processo in cui, partendo da credenze ordinarie, si diventa via via sempre più coinvolti in credenze meno ordinarie, persi in situazioni che si allontanano sempre di più dalla realtà.

Immaginate di essere su YouTube e di voler cercare, per curiosità, un video di un comizio di Donald Trump; o di essere un giovane adolescente (maschio) in cerca di consigli di vita. Questi sono classici punti di partenza, riportati dai media, di «rabbit holes» generati dagli algoritmi dei social media. I video che YouTube vi proporrà diventeranno, lentamente ma costantemente, più estremi. Passerete da Trump all’estrema destra e poi a «Potere bianco» e alla negazione dell’Olocausto. I consigli di vita per giovani maschi vi porteranno a video che suggeriscono che la civiltà occidentale è minacciata dagli immigrati musulmani e dai «marxisti culturali», che le differenze innate di Qi spiegano totalmente le disparità razziali e che il femminismo è un’ideologia pericolosa. Alcuni di voi finiranno per crederci.

L’idea di “radicalizzazione algoritmica” ha avuto un successo considerevole: il meccanismo è intuitivamente plausibile e ci permette di dare senso a circostanze spiacevoli

L’idea di «radicalizzazione algoritmica» ha avuto un successo considerevole: il meccanismo è intuitivamente plausibile e ci permette di dare senso a circostanze spiacevoli. Basterebbe che i social media non proponessero questi contenuti così facilmente ed eviteremmo la diffusione di queste credenze. Purtroppo, quando si è provato a valutare questa ipotesi i risultati non sono stati incoraggianti. Varie ricerche mostrano che l’algoritmo di YouTube, almeno negli ultimi anni, non sembra proporre video dai contenuti politici più estremi di quelli che gli utenti guardano. La maggior parte dei suggerimenti punta ai canali dei media tradizionali, che sono quelli che hanno già più audience. Come nel caso delle news, la stragrande maggioranza delle interazioni con siti di informazione online riguarda media tradizionali e l’algoritmo di YouTube semplicemente rinforza questa tendenza.

I canali estremisti hanno, nella maggior parte dei casi, un successo limitato. Quando sentiamo nei media di un canale o di un video «alternativo» che ha avuto molto successo è appunto perché si tratta di un caso raro. Un aspetto interessante è, inoltre, che le visualizzazioni dei video dei canali estremisti o «alternativi» provengono generalmente da utenti che sono già iscritti a quei canali o a canali simili, al contrario di quello che avviene per i canali dei media tradizionali che riescono meglio a catturare nuovi utenti. Non sorprendentemente, le raccomandazioni algoritmiche si allineano agli orientamenti politici degli utenti. Se, di vostra iniziativa, guardate video con tendenze politiche di estrema destra (o di estrema sinistra), YouTube continuerà a proporvi video di quel genere ma senza che diventino necessariamente più estremi. Partendo da video con tendenze politiche di estrema destra, per esempio, vi potrà capitare che vi vengano proposti anche video dai contenuti problematici discussi sopra (antisemitismo, razzismo e simili), ma, come detto, è perché da lì siete partiti.

Uno studio recente, ideato da Homa Hosseinmardi e colleghi, e pubblicato nei Proceedings of the National Academy of Sciences degli Stati Uniti, ha tentato di esaminare la questione della radicalizzazione algoritmica e in particolare della causalità sottostante – sono le nostre scelte o sono le raccomandazioni dell’algoritmo? – con una metodologia ingegnosa. I ricercatori hanno creato quelli che chiamano dei «bot controfattuali». Nelle scienze sociali, un’analisi controfattuale esplora cosa sarebbe potuto accadere se certe condizioni fossero state diverse rispetto a quelle effettivamente esistenti. Cosa sarebbe successo se Hitler avesse vinto la Seconda guerra mondiale? Cosa sarebbe successo se i governi avessero adottato politiche energetiche sostenibili vent’anni fa? Più in piccolo, immaginate che qualcuno crei un finto utente YouTube che ha la vostra stessa cronologia di visualizzazioni fino a oggi. Questo è il vostro bot controfattuale. Da domani, il vostro bot seguirà ciecamente le raccomandazioni dell’algoritmo, mentre voi continuerete la vostra attività consueta. In questo modo sarà possibile confrontare cosa sarebbe successo (ecco il controfattuale) se un utente con la storia come la vostra avesse seguito le raccomandazioni algoritmiche (il bot) oppure non necessariamente (voi). Se è l’algoritmo di YouTube a spingere gli utenti verso contenuti estremi ci dovremmo aspettare che il bot visualizzi video più estremi di voi. I risultati mostrano che quello che avviene è esattamente il contrario. Non solo i video proposti ai bot controfattuali non sono più estremi, ma quelli proposti ai bot degli utenti con precedenti visualizzazioni di contenuti più estremi, o faziosi, diventano in breve tempo politicamente moderati. Ancora una volta, quindi, le nostre scelte contano – sembra strano a dirsi, ma molto spesso, quando pensiamo ad algoritmi e social media, tendiamo a dimenticarlo.

Altre ricerche rinforzano, da una prospettiva leggermente differente, la stessa congettura. Contro l’idea che sarebbero soprattutto le caratteristiche dei social media a renderci faziosi e polarizzati, queste ricerche mostrano che gli utenti che danno inizio, o partecipano, a discussioni ostili online sono gli stessi che rimangono coinvolti in discussioni ostili faccia a faccia. Sono spesso individui definiti in questi studi con un’alta propensione allo «status-driven risk taking», ossia motivati dal desiderio di essere percepiti come leader o persone di successo, e con l’attitudine a prendere decisioni rischiose al fine di migliorare la loro posizione sociale o ottenere riconoscimento e prestigio all’interno di un gruppo, anche utilizzando intimidazione nel tentativo di dominare gli altri.

La diffusione delle tecnologie di comunicazione digitali e online ha conosciuto un’accelerazione incredibile

La diffusione delle tecnologie di comunicazione digitali e online ha conosciuto un’accelerazione incredibile. Social media, algoritmi, smartphone possono potenzialmente cambiare il modo in cui le informazioni circolano, chi ne trae vantaggio, quali contenuti vengono favoriti e quali penalizzati: non c’è bisogno che vi convinca di questo. Le conseguenze sull’economia, sulla società e sulla nostra vita quotidiana sono molteplici e si palesano di fronte a noi in un processo che continua giorno dopo giorno. Eppure, o proprio per questo, è importante considerare questi cambiamenti all’interno di una “lunga prospettiva”: una lunga prospettiva storica (quali lezioni possiamo trarre dalle reazioni a comparabili tecnologie nel passato?) che tiene in considerazione come alcune caratteristiche generali della cognizione umana e dell’evoluzione culturale interagiscono con questo processo. La diffusione delle tecnologie di comunicazione digitale è un processo dinamico, dove le tecnologie creano nuove abitudini e, nello stesso tempo, vengono modificate e adattate alle nostre esigenze: capire e accettare questo processo è il modo migliore per affrontare i rischi connessi e sfruttarne le potenzialità.

Individui che ingaggiano in discussione e comportamenti ostili esistono dentro e fuori i social media, come quelli che subiscono l’appeal di «Potere bianco». Per quanto confortante e autoassolutoria possa essere, l’idea che ciò sia dovuto a specifiche caratteristiche degli algoritmi dei social media che frequentiamo non sembra essere molto plausibile. Soprattutto, come per altre ipotesi che vedono nelle tecnologie digitali le cause di problemi sociali, quelli sì, sicuramente reali, il rischio è, ancora una volta, di trovare un comodo capro espiatorio e di non occuparci di altre, più profonde, cause sociali, culturali, ed economiche.

 

[Su questi temi l’autore ha appena pubblicato per il Mulino il volume Tecnopanico. Media digitali tra ragionevoli cautele e paure ingiustificate.]



Source link

***** l’articolo pubblicato è ritenuto affidabile e di qualità*****

Visita il sito e gli articoli pubblicati cliccando sul seguente link

Source link