La deficienza artificiale applicata al copyright

Grazie al blocco di Wikipedia un po’ di persone sono venute a sapere di una riforma europea del diritto d’autore che presenta criticità che rischiano di rompere internet come lo conosciamo oggi e di creare seri problemi alla diffusione della conoscenza e del libero pensiero. Oggi, 5 luglio, il Parlamento Europeo deciderà se procedere alla fase successiva dei lavori, approvando in sostanza il testo scritto da chi ha tutto da guadagnarci da questa fetenzia, oppure se passare il mese di agosto a lavorare e a scrivere emendamenti in particolare per migliorare (o meglio ancora, cancellare del tutto) gli articoli 11 e 13.

Le leggi sul diritto d’autore sono nate per stimolare la produzione di contenuti, ma grazie a riforme come quella in esame sono andate in direzione progressivamente opposta proteggendo guadagni parassitari.

Ulteriori informazioni e indicazioni per provare a bloccare la riforma.

E veniamo alla questione particolare del post.

L’articolo 13 è quello più interessante, nonché quello più ridicolo fra quelli più critici: consiste in un filtraggio a monte dei contenuti caricati dagli utenti. Oggi, se carichi su internet qualcosa di cui non sei l’autore, il tuo contenuto prima viene pubblicato e poi viene eliminato per violazione del diritto d’autore, specie dopo segnalazione dell’autore stesso (più probabilmente dei loro avvocati).

Con l’approvazione della riforma, il filtraggio dovrà avvenire prima della pubblicazione, come già avviene per esempio con YouTube. Le maglie, tuttavia, sono abbastanza larghe, per cui il sistema è tutt’altro che perfetto, ma è relativamente sopportabile, perché il filtraggio è volontario e cerca di bilanciare gli interessi di tutte le parti.

(Tralasciamo il fatto che YouTube fa parte di una delle più grandi corporazioni della storia dell’umanità e che questo sistema di filtraggio può essere sviluppato solo da chi ha quantità enormi di soldi.)

Se il filtraggio diventa obbligatorio le cose cambiano. Significa che devi fare il lavoro per bene, se no sono volatili per diabetici. Significa che devi istruire dei robot a fare questo lavoro, perché è pacifico che un essere umano (un esercito di esseri umani) non può farlo.

Prendiamo una foto caricata su Instagram. Questa foto deve essere confrontata con milioni di altre immagini caricate su Instagram dall’inizio della sua storia e con milioni di immagini di Shutterstock e di Getty Images e di chissà quanti altri repository. Un robot ci impiegherà un’enormità di minuti, figuriamoci un essere umano. La tua importantissima foto potrà essere caricata dopo un sacco di tempo, perché prima dovrà essere confrontata con una pubblicità dei wurstel del 1978.

E stiamo parlando di una sola foto: Instagram ha un miliardo di utenti attivi, per capirci. Chiaro, quindi, che il filtraggio deve essere automatizzato o la tua foto potrà essere vista solo dalla prossima civiltà intelligente che popolerà questo pianeta fra qualche milione di anni.

Qui cominciano i problemi. Basti notare che Facebook ha problemi anche solo a buttare giù pagine del tipo “Hitler ne ha sterminati troppo pochi”: non si può chiedere ad un algoritmo di conoscere la storia del Novecento, in fondo. No? No?

Comunque.

I robot non  vedono le immagini come le vediamo noi. Il nostro cervello si è evoluto per riconoscere oggetti e animali nel giro di un battito di ciglia, perché quel battito di ciglia può essere la differenza fra la vita e un lupo che ti sbrana i testicoli.

(E comunque ci sono esseri umani che vedono una macchia sul muro e ci vedono Padre Pio. Giuro: ci hanno anche messo una teca di vetro a proteggerla e dei fiori per decorarla).

Il robot non ha mai avuto problemi simili, e abbiamo appena cominciato a proporglieli per imparare: è per questo che se mostri a un robot la foto di un Tegolino quello ti potrebbe dire “all’85% è una foto di Taylor Swift vestita da banana”.

E non siamo ancora arrivati alla questione più difficile, quella relativa al contesto.

Come ho scritto qualche mese fa, sto costruendo una deficienza artificiale che mi aiuti a fare certe cose, e una delle cose più complicate che sto affrontando è insegnargli il contesto dei miei comandi.

Ed è normale, perché è un robot: è nato per eseguire comandi, ordini, non per intuirli in base a una logica che non è la sua.

Ora, il diritto d’autore ha delle eccezioni, come il diritto di critica, il diritto di citazione, il diritto di parodia. Il robot non dovrebbe solo capire se c’è un’infrazione di copyright, ma pure se quell’infrazione è lecita. E sul tema ci hanno fatto fortuna avvocati umani, perché è un casino enorme: non c’è una linea precisa che delimita dove finisce il tuo diritto d’autore e il mio diritto di critica, è una linea che viene tracciata in base al contesto.

Per questo motivo, spostare la discussione dal pubblico di un tribunale al privato di un server di una megacorporation è semplicemente mostruoso.

E le cose si fanno ancora più complicate, perché il diritto d’autore non è un monolite: ci sono contenuti rilasciati in maniera permissiva. Gli algoritmi, quindi, non solo devono trovare la (possibile) infrazione di copyright; non solo devono verificare che tale (non) infrazione ricada nei casi tutelati dalla legge; ma devono pure verificare che l’uso di quel contenuto sia compatibile con la licenza con cui quel contenuto è rilasciato: se si tratta di un uso commerciale non permesso, se non è presente un’attribuzione, se si tratta di un’opera derivata vietata.

Questo processo complicato non avverrà alla luce del sole, ma dentro una scatola sigillata, per cui rischiamo di non sapere se qualcuno sta abusando delle regole e sta quindi facendo del male alla collettività. Cioè a te.

(Aggiunta 11:35) In questo modo opaco, peraltro, si evita l’effetto Streisand, che avviene quando il tuo tentativo di sopprimere qualcosa che non ti piace finisce per amplificare quel qualcosa e ti fa fare una megafigura di palta. Se il processo avviene di nascosto, aumm aumm, è più facile farsi valere per chi ha l’avvocato più grosso.

Le deficienze artificiali attuali non sono pronte per una sfida del genere (non siamo pronti neanche noi esseri umani, a dire il vero, e ci muoviamo a tentoni in base a questo cavolo di “contesto”). Internet ha funzionato finora anche grazie al filtraggio a valle, generando sì delle mostruosità, ma anche delle meraviglie inspiegabili anche per chi le ha viste nascere.

Con un filtraggio preventivo, a monte, opaco per definizione, non si proteggeranno solo le royalties di quel poveraccio di Paul McCartney e di chi sta annebbiando la discussione con le solite fallacie logiche amplificate dal fatto di essere un’autorità in campi completamente irrilevanti dalla discussione; non si metterà soltanto un freno alla crescita economica e al progresso (a questo Paese, per non dire all’Europa intera, serve più libertà, non meno, per esprimere il proprio enorme potenziale economico); ma verrà data un’arma in più a chi sta usando la libertà di espressione per diffondere odio e paura e rendere il mondo un posto peggiore.

Foto del Parlamento Europeo in copertina
scattata da William Shakespeare nel 1220.

(Ah, già, la deficienza artificiale dovrebbe anche riuscire a distinguere gli abusi e le informazioni volutamente non corrette che vengono inserite per frodare i filtri stessi).

La foto è di Alfredovic, 2010, Creative Commons BY-SA.

Se l’articolo ti è piaciuto, puoi incoraggiarmi a scrivere ancora con una donazione, anche piccolissima. Grazie mille in ogni caso per essere arrivato fin quaggiù! Dona con Paypal oppure con Bitcoin (3HwQa8da3UAkidJJsLRfWNTDSncvMHbZt9).