Facebook, Cambridge Analytica e le anatre

Nella programmazione informatica c’è uno stile che si chiama duck-typing, un concetto che si rifà a questa idea:

se cammina come un’anatra, nuota come un’anatra e starnazza come un’anatra, molto probabilmente è un’anatra.

In programmazione questo significa che tu scrivi il tuo programma per computer senza preoccuparti in anticipo degli errori: se il programma fa quello che ti aspetti che faccia, bene; se tira fuori un errore, tu gestisci quell’errore; e il ciclo ricomincia.

In Facebook (abbreviato in FB quando mi riferirò all’azienda) la cultura aziendale è fondata sul duck-typing: tutti i problemi, anche quelli etici, vengono trattati come bug e risolti man mano che vengono notati. Però finché la barca va (e i soldi entrano in cassa) lasciala andare.

Le conseguenze di questo modo di fare, però, sono… spiacevoli…

Qualche esempio: qualche mese o anno fa dei giornalisti notarono che fra le categorie pubblicitarie c’erano “come bruciare i neri” e “gente che odia gli ebrei”1 . I giornalisti provarono ad acquistare delle pubblicità da far vedere a persone interessate a questi “particolari passatempi”, e ci riuscirono.

FB (credo per bocca del COO Sheryl Sandberg) si scusò, dicendo che non avevano pensato che la gente avrebbe usato il loro network pubblicitario in quel modo.

Quanta fiducia nella gente! La stessa gente che beve candeggina per una scommessa virale lanciata su Whatsapp.

Fatto sta che da una cinquantina d’anni è illegale fare pubblicità targettizzata basata sull’etnia e sul colore della pelle. Ma quelli di FB non ci avevano pensato.

Poi ci sono le “gaffe”: una volta Facebook ti faceva vedere cose tipo “Ecco com’è stato il tuo 2015!” o “Ecco cosa hai fatto un anno fa!”. E puntualmente apparivano foto di nonni morti, genitori morti, figli morti, animali domestici morti corredati di palloncini e coriandoli.

Non ci avevano pensato, dissero: non avevano pensato che gli esseri viventi muoiono.

E poi ovviamente c’è la storia delle elezioni (USA, ma non solo), che sta ancora andando avanti e si è arricchita della deliziosa storia di Cambridge Analytica.

Che stavolta la cosa sia grossa è segnalata dal fatto che è Zuckerberg a essere tirato in ballo e che lui abbia aspettato un po’ prima di emanare un comunicato scritto da mezza legione di avvocati. E a dire sempre la stessa cosa: non ci avevamo pensato, rimedieremo.

Non avevano pensato che forse c’erano organizzazioni con le tasche piene di grana disposte a tutto pur di prendere il controllo della scrivania più potente del mondo, organizzazioni che forse avrebbero usato le fake news e la granulare conoscenza degli utenti fornita da Facebook a proprio vantaggio.

In fondo è mai successo nella storia dell’umanità che qualcuno abbia imbrogliato, picchiato, ucciso e fatto altre cose brutte per ottenere soldi e potere? Come avrebbero potuto anticipare un simile comportamento, quelli di FB?

Il punto è che Facebook nasce in base all’idea che gli esseri umani sono degli idioti a causa dell’ignoranza. Non è una colpa: siamo programmati a essere così dall’evoluzione. Siamo geneticamente programmati a mettere sulla bilancia costi e benefici di qualcosa in maniera superficiale, ma immediata: cosa sarebbe successo se l’essere umano preistorico, vedendo un animale feroce avvicinarsi minacciosamente, si fosse messo a pensare per 15-20 minuti se è meglio arrampicarsi sull’albero a destra o sull’albero a sinistra?

Zuckerberg aveva capito che la gente non sta lì a pensare che i propri dati personali sono una miniera d’oro: la gente vuole giocare a Farmville, vuole stalkerare la ex del liceo nella speranza che scriva sul suo profilo “Il mio matrimonio è stato un disastro”, vuole vedere i video di gente che prende pallonate nei genitali.

Tu gli permetti di farlo sulla tua piattaforma in cambio dei dati personali, e l’umano te li dà, perché nell’immediato i benefici sono maggiori dei costi (cioè zero: Facebook e gli altri social network non ti richiedono sforzi particolari, non ti chiedono di compilare questionari in cui devi dire che “ti piace bruciare i neri”, lo capisce in automatico, seguendoti in silenzio).

I costi diventano importanti nel lungo periodo, specie quando parliamo di aziende per le quali i problemi etici sono un bug da risolvere quando si manifesteranno i problemi. Peccato che quando i problemi si manifesteranno il danno sarà stato fatto.

Arriva un’epidemia di morbillo perché chi dice che i vaccini sono un complotto dei rettiliani sta sullo stesso piano di chi ha passato la vita a sradicare questa malattia; invece di discutere su come arginare gli effetti del cambiamento climatico dobbiamo discutere con una minoranza di persone che ne nega l’esistenza; ci dobbiamo sorbire la str****** che sono gli uomini a uccidere e non le armi, quando l’evidenza ci dice che se ci sono poche armi in giro ci sono anche poche stragi di bambini e studenti.

Grazie a quei dati che abbiamo regalato per poter insultare il vicino di casa su Facebook e che FB ha gestito in maniera “approssimativa”, per essere buoni, gente che vuole soldi e potere sta facendo le meglio porcherie.

A Zuckerberg questo importa? Oddio, no. La gente vuole continuare a vedere le foto delle amiche di tua figlia in bikini a Ibiza, al massimo si sposteranno su altri social network (per esempio Instagram, che sempre di FB è). Per cui in qualche modo la gente continuerà a seminare i propri dati in giro, e lui sarà lì a raccoglierli.

Il problema per FB non è tanto la gente comune, quanto la massa organizzata di gente più o meno comune, perché possono influenzare i politici, i giornali, le aziende. Per questo Zuckerberg gioca d’anticipo, dicendo che è bene che la pubblicità su internet sia regolata: in questo modo lui può sedersi al tavolo dove quelle regole verranno scritte.

Ma cambierà la cultura aziendale su cui si basa FB? Mi permetto di dubitarne: gestire i dati di due miliardi di persone richiede per forza che gran parte del lavoro sia delegato ai robot, che non sono in grado di fare scelte eticamente corrette.

Perché FB funzioni correttamente servirebbero migliaia di esseri umani che valutino uno per uno almeno i dati segnalati come inappropriati dagli utenti, che ci siano gruppi di una decina di revisori che in un tempo consono decidano che il post sui vaccini che causano le tempeste solari dovrebbe sparire e chi l’ha scritto e propagato sia avvisato, avvertito e magari buttato fuori; che la pagina “Come cucinare l’ebreo al forno” è quantomeno… sospetta, e che forse le forze dell’ordine o almeno quelle sanitarie dovrebbero essere avvisate.

E poi questi revisori dovrebbero essere disposti ad essere accusati di faziosità e magari licenziati, perché quella pagina o quell’articolo sono stati diffusi e condivisi da quel politico di estrema destra o da un presidente degli Stati Uniti con il tatto, la pazienza e la soglia di attenzione di un neonato, e non si fa, c’è la libertà di espressione, e se si esprime un tizio che ha potere non può essere censurato.

Per fare tutto questo bailamme FB dovrebbe bruciare un gazillione di dollari, e Zuckerberg dovrebbe comunque rispondere delle sue decisioni agli azionisti.

Quindi in ogni caso ci sarà gente che gli romperà le scatole, ma in questo secondo scenario ci saranno svariati miliardi di dollari in meno a consolarlo. Non c’è dubbio che Zuckerberg sceglierà lo status quo. È umano anche lui.

Zuckerberg sta cercando di tenere la sua azienda in bilico tra due estremi poco conciliabili: rendere il mondo un posto migliore o guadagnare un sacco di soldi. Il modello di business di Facebook non permette mezze misure.

Quindi o Zuckerberg rovescia la sua azienda come un calzino, scontentando comunque qualcuno, oppure non cambierà niente, se non quanto basta per correggere il bug e rattoppare la situazione fino al prossimo scandalo.

E che possiamo fare noi? Smettere di usarlo è fuori discussione per la maggior parte della gente, perché Facebook è ormai internet per la maggior parte della gente.

E comunque non basterebbe, perché Facebook (e non solo Facebook) ti segue e ti profila anche fuori da facebookpuntocom2. Dovresti navigare in incognito e quanto meno usare dei programmi che bloccano i tracker pubblicitari, e scendere a compromessi.

Dovresti svuotare il tuo news feed su Facebook in modo che non mostri nulla, chiedendo a Facebook di non mostrarti gli aggiornamenti dei tuoi 739 amici, uno per uno, e delle 1426 pagine a cui sei iscritto, una per una, e dovresti andare a leggere gli aggiornamenti delle tue pagine preferite, una ad una. Sarà molto più utile rispetto a prima, ma anche più faticoso. Prima era Facebook a scegliere per te cosa avresti letto.

(O meglio, sceglieva cosa avresti letto in base all’organizzazione che avrebbe pagato di più per farsi leggere da te.)

Dovresti usare i feed RSS per leggere le notizie, ma dovresti poi starci dietro. Oppure dovresti fare lo sforzo di aprire ogni giorno la home page dei tuoi siti preferiti per vedere se ci sono novità. Oppure dovresti scriverti un programma che lo fa al posto tuo.

Ma significa andare contro natura, significa fare un’analisi costi-benefici di lungo periodo in cui i costi sono più fatica per me3 e i benefici sono nessuno nel breve periodo, e solo possibili nel lungo periodo.

Non succederà.

La speranza è nella massa organizzata di persone che si sta stancando di Facebook e delle conseguenze del far west e della corsa all’oro, e nella possibilità che qualcuno si stia accorgendo che i social network evolveranno, e non spariranno, e che un cambiamento positivo è possibile solo su fortissima pressione esterna, perché Zuckerberg e colleghi non hanno alcun incentivo a cambiare le cose, e anzi, hanno miliardi di dollari di motivi per mantenere lo status quo.

Insomma, auguri.

Se l’articolo ti è piaciuto, puoi incoraggiarmi a scrivere ancora con una donazione, anche piccolissima. Grazie mille in ogni caso per essere arrivato fin quaggiù! 
Dona con Paypal oppure con Bitcoin (3HwQa8da3UAkidJJsLRfWNTDSncvMHbZt9).


  1. Non ricordo le esatte categorie, ma il senso è quello. []
  2. Anche su questo sito, anche se non ho ancora capito perché. Indagherò. []
  3. Quando avrò lo sbatti (vedi nota precedente []