Perchè è bizzarro che Facebook chieda agli utenti se una notizia è falsa

>Perchè è bizzarro che Facebook chieda agli utenti se una notizia è falsa

Supponiamo che, a causa delle fake news, tre o quattro persone si fossero buttate della finestra. Sarebbe a quel punto apparso del tutto ragionevole che Zuckenberg provasse a rimediare chiedendo l’aiuto degli utenti. Ragazzi, avrebbe detto, qui sul social ogni tanto girano notizie balorde,

e siccome in mezzo a voi che siete in gamba capita pure qualche credulone che si mette nelle grane dobbiamo impedirlo. Bisogna che mi diciate voi quali sono le fonti affidabili e quali i contaballe. Così l’archiviamo questa faccenda delle fake.

Malauguratamente, però, la voce che circola è che le fake news non abbiano fatto presa su un paio di menti più suggestionabili, macchè: pare che siano state determinanti per questioni, tipo, eleggere il Presidente degli Stati Uniti d’America.

Io non sono tanto convinto che sia dipeso dalle fake, visto che oltre il 60% di quelli che hanno votato Trump vive in campagne che hanno una connessione insoddisfacente, e per di più è gente pratica che non ama tanto la modernità, inclusa questa diavoleria che pigi tre tasti sul computer e lo viene a sapere, teoricamente, tutto il mondo. E però è questo ciò che si imputa a Facebook, o almeno danni di questo genere: di spostare maggioranze con le fake news. Involontariamente, certo. Ma intanto sarebbe quello che capita.

 

Messa così, la strategia di Facebook di rivolgersi agli utenti non sembra tanto furba. Sarebbe come se, in pieno nazismo e durante la circolazione dei Protocolli dei Savi di Sion, un tizio avesse detto alla folla che incendiava il negozio di un ebreo tedesco: ehi, si dicono un sacco di cose sugli ebrei. Vi spiace controllare quali sono le fonti attendibili?

 

Secondo un report dell’agenzia Edelman, in effetti, il 66% delle persone sul web non è in grado di distinguere tra una notizia vera e una notizia falsa.

E non è soltanto una questione di maggioranza. Le fake news non girano a casaccio. Non sono come i volantini, che chi che li consegna le infilano nelle cassette della posta a casaccio. Grazie all’algoritmo di Facebook arrivano esattamente a quelli che potrebbero crederci. Sono un rinforzo delle informazioni che già condividono. Se sei uno che crede alla befana ti arrivano tutti i post che ha scritto la befana, o quelli dei suoi amici, o di quelli che giurano di averla incontrata in via Mazzini. Di più: l’algoritmo rispetta le tue abitudini. Se al mattino ti piace fare la rassegna della stampa internazionale non ti sta a disturbare con le stronzate. Insomma, per l’algoritmo di Facebook, fonte affidabile chiama fonte affidabile e balla chiama balla.

 

Zuckenberg, in verità, ha detto che adesso ci lavora sull’algoritmo. Sì, per carità, chiede agli utenti ma poi la  regolatina all’algoritmo terrà conto di un sacco di fattori.

Comunque senza indugio, viene confezionato il protocollo per coinvolgere l’utente per misurare l’attendibilità delle fonti. Sullo schermo, mentre entriamo in un post, comparirà questa mascherina:

Conosci questo sito web?

No

Ma mica si ferma qui. Facebook andrà più in profondità:

Quanta fiducia riponi in questo sito web?

Completamente

Molto

In parte

Poco

Per niente

 

Non sto mica scherzando. Questo è quanto hanno predisposto a Facebook. Centinaia di menti eccelse, gli stessi programmatori grazie ai quali il social sa a che ora ci stiamo lavando i denti, se ne vengono fuori con lo stesso questionario che avrebbe predisposto una classe di quarta elementare.

Se la riorganizzazione dell’algoritmo la fanno in questo modo stiamo freschi. Ma è mai possibile? Davvero: che difficoltà potrebbero mai incontrare a realizzare un algoritmo che, soppesando una serie obiettiva di fattori, espunga le notizie false? Non è stato ben più difficile creare un algoritmo tanto diabolicamente indagatore delle nostre preferenze?

 

Quest’ultima puntata della saga “Zuckenberg contro le fake news” (una produzione recente) suscita almeno quattro riflessioni finali.

La prima è che, forse, veramente di realizzare un algoritmo anti-fake a Facebook non sono capaci, perché non si tratterebbe di modificare quello esistente ma di buttarlo, e con esso di buttare lo scopo di Facebook. Che è uno scopo commerciale coincidente con la consegna a domicilio (digitale) di tutto quel che a noi fa piacere trovare, al fine di estrarne i dati che ci riguardano e venderli alle aziende. Un’attività di somministrazione che però chiama tutti noi in causa anche come produttori. In questa dinamica le fake news non sono un incidente. Sono un normale fattore produttivo. Nessuno consulta seriamente Facebook per sapere veramente cosa accade nel mondo (e se qualcuno ci aveva provato sta smettendo: gli accessi ai grandi organi di informazione via FB quest’anno sono diminuiti del 26%). L’algoritmo, che è buono per fare affari e non per spaccare il capello in quattro a fini informativi o pedagogici, non dovrebbe solo correggersi. Dovrebbe fare harakiri.

La seconda è che, ad onta della trasparenza che contraddistinguerebbe i social media, l’intelligenza che guida il loro agire, mediata dall’algoritmo, è un’intelligenza opaca. Come ha scritto Adam Greenfield in “Tecnologie radicali” (Einaudi), è “un piano di complessità permanentemente inaccessibile alla mente umana”. Un buon esempio è l’algoritmo della start up Branch.co che misura l’affidamento creditizio analizzando anche i contenuti delle mail, la durata delle chiamate e l’abitudine o meno di aggiungere i cognomi ai contatti nella rubrica per decidere se ci sono buone probabilità che un tizio onori i propri debiti. Ci sono, auspicabilmente, altre variabili nella composizione dell’algoritmo di Branch.co, però non le conosciamo (e possiamo temere che includano anche il fattore: ha la pelle nera, ad esempio). Perché è buona (?) prassi tenere nascosti i fattori di un algoritmo: è così per ogni azienda, Google in testa. C’è la tutela della proprietà di un segreto commerciale. C’è il timore che le persone, sapendo come funzionano gli algoritmi, cerchino di manipolare i risultati uniformandosi ai comportamenti richiesti dall’algoritmo. Rimane il fatto, però, che queste forme di intelligenza programmatrice rimangono chiuse, inarrivabili e forse modellizzate in modo socialmente sconveniente. Così non sapremo se è stato concesso credito alle persone giuste, e soprattutto se è stato negato credito a persone ingiustamente discriminate. Che è poi, quasi letteralmente (concedere credito), il nodo in cui si sta aggrovigliando Facebook.

 

La terza, più direttamente a proposito dell’aiuto da parte degli utenti, riporta a un libro di qualche anno fa, di James Surowiecki. Si chiamava “La saggezza della folla” e portava avanti una tesi sorprendente, quella che la folla decide meglio del singolo, insomma che il giudizio popolare alla fine è più assennato di quello del competente. Surowiecki, tuttavia, traeva la sua convinzione dalla diversità delle opinioni e dal loro confronto. Non aveva ancora ben presente quella che sarebbe stata l’evoluzione del web, che anziché promuovere la frequentazione fra soggetti diversi avrebbe, con i social, creato le camere dell’eco, i circoli costituitisi per omofilia, in cui ciascuno conserva e radicalizza la sua opinione precedente, inclusa quella su quali siano i portatori di fake news e quali no (è molto interessante e indicativo dell’epoca che l’affidabilità fattuale di una notizia venga a formarsi non sui fatti ma sulle opinioni che la gente ha su quei fatti, anzi più precisamente sull’opinione che la gente ha di coloro che hanno raccontato i fatti). Che Surowiecki, nel 2004, non avesse granchè intuito dove tirava il web è dimostrato dall’avere egli indicato la ricerca di Google come risultato di un’intelligenza collettiva, che l’algoritmo si sarebbe limitato evidentemente a ordinare. Sappiamo oggi che l’algoritmo di Google non scrutina un esito delle ricerche partorito dall’intelligenza collettiva ma tanti esiti di ricerche quanti sono i device.

 

La quarta riflessione è che i media digitali, dopo l’ubriacatura iniziale, si stanno muovendo su una linea di continuità e imitazione dei media tradizionali. Che cos’è l’annuncio di Zuckenberg (“abbiamo pensato di far decidere a voi utenti”) se non il proclama di un conduttore televisivo? Quelli che dal piccolo schermo dicono (con applauso in sala) cose come: “Perché contate solo voi, il nostro pubblico!” (“ Vi voglio bene!”).

 

(Ci sarebbe una quinta riflessione, cioè non è proprio una riflessione, ma un testo comico di Woody Allen che mi sovviene spesso quando si parla della credulità delle persone, e troppo spesso si sottace la loro diretta responsabilità. Più o meno la battuta di Allen diceva: “E’ incredibile come i troiani si siano fatti fregare in quel modo. Specialmente considerando che da dentro il cavallo si sentiva ridacchiare).

 

(Non mi sono troppo soffermato su un più articolato esame del rapporto tra post-vero, verità e bugia del quale ho già scritto qui)

Di | 26 Gennaio 2018|Web philosophy|

Questo articolo mi ha fatto pensare a...

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.