Da alcuni anni è in corso un dibattito sulla riforma del diritto d'autore nel­l'U­nio­ne Europea. Oltre al­l'ar­ti­co­lo 11 sull’ancillary copyright o i diritti d’autore ausiliari, viene par­ti­co­lar­men­te criticato l'ex articolo 13 (ora articolo 17) per la proposta di obbligo alle piat­ta­for­me Internet all’utilizzo di co­sid­det­ti upload filter, ovvero filtri au­to­ma­ti­ci di upload. Mentre i so­ste­ni­to­ri ritengono che questa tec­no­lo­gia sia es­sen­zia­le per garantire il rispetto dei diritti d'autore di film, musica e testi, gli op­po­si­to­ri della normativa temono un in­de­bo­li­men­to della cultura della rete e della libertà di espres­sio­ne, con con­se­guen­ze im­pre­ve­di­bi­li.

Lo stato attuale: l’UE opta per gli upload filter

No­no­stan­te tutte le proteste, il 26 marzo 2019 il Par­la­men­to Europeo ha deciso di in­tro­dur­re la riforma del diritto d'autore. Poco prima, gli op­po­si­to­ri della riforma avevano cercato di cambiare l'o­pi­nio­ne del par­la­men­to con proteste pubbliche: il fine settimana pre­ce­den­te si sono svolte ma­ni­fe­sta­zio­ni in tutta Europa, per le quali sono scese in strada centinaia di migliaia di persone. Gli autori italiani di Wikipedia avevano fatto scalpore con la loro protesta: la versione italiana del­l'en­ci­clo­pe­dia online è rimasta oscurata per 24 ore. Al posto dei soliti contenuti appariva una pagina in­for­ma­ti­va con in­di­ca­zio­ni riguardo alla protesta. Alla fine, però, è stato tutto inutile: 384 delegati hanno votato a favore, 274 contro e 36 si sono astenuti.

L'articolo 17, che si chiamava in pre­ce­den­za articolo 13 ed è ancora noto con questo nome, riguarda il fil­trag­gio dei contenuti. La direttiva non prevede espli­ci­ta­men­te filtri per l'upload, tuttavia la for­mu­la­zio­ne non lascia quasi intendere altre pos­si­bi­li­tà. Essa richiede che gli operatori delle piat­ta­for­me con­trol­li­no i contenuti ve­ri­fi­can­do la presenza di vio­la­zio­ni del diritto d'autore già prima di pub­bli­ca­re video, musica o immagini. In caso contrario d'ora in poi anche gli operatori saranno re­spon­sa­bi­li delle in­fra­zio­ni. In teoria sarebbe anche ipo­tiz­za­bi­le con­trol­la­re ciascun con­tri­bu­to a mano, ma i critici lo con­si­de­ra­no utopico, so­prat­tut­to con provider più grandi come YouTube.

Fanno eccezione le en­ci­clo­pe­die online (in par­ti­co­la­re Wikipedia) e altre offerte educative, le piat­ta­for­me per lo sviluppo di software open source, nonché i servizi di­spo­ni­bi­li da meno di tre anni o che generano meno di dieci milioni di euro di fatturato annuo.

Solo il tempo dirà come de­ci­de­ran­no di procedere servizi come Google e Facebook. In­nan­zi­tut­to il Consiglio europeo deve ancora approvare la riforma, al­l'i­ni­zio di aprile. Ma nessuno si aspetta più sorprese, perché in realtà si tratta solo di una formalità. La direttiva dovrà poi essere recepita nel diritto nazionale. Gli Stati membri dell'UE hanno due anni di tempo per integrare la riforma nelle ri­spet­ti­ve le­gi­sla­zio­ni nazionali.

Cosa è successo finora: di­scus­sio­ne sulla riforma UE sul diritto d’autore

A febbraio 2019 i filtri di upload erano in di­scus­sio­ne a livello europeo, in quanto po­ten­zial­men­te avrebbero potuto avere un ruolo nel mercato unico digitale sulla scia della legge sul diritto d'autore. A luglio 2018 il Par­la­men­to europeo ha respinto un progetto di legge in tal senso. Il 12 settembre 2018 è stata sot­to­po­sta a votazione una nuova versione del progetto in cui le di­spo­si­zio­ni si applicano solo ai grandi fornitori mentre sono esclusi quelli piccoli. Secondo la proposta anche le en­ci­clo­pe­die online come Wikipedia do­vreb­be­ro essere esonerate dal­l'ob­bli­go di controllo dei contenuti.

Nel contesto dei filtri di upload è sempre stato par­ti­co­lar­men­te in­te­res­san­te l'ex articolo 13, ora articolo 17, unica sede in cui viene men­zio­na­to il termine. Il Par­la­men­to europeo non prescrive ai gestori di piat­ta­for­me online come garantire la pro­te­zio­ne del diritto d'autore. Tuttavia i critici e gli os­ser­va­to­ri ritengono che non ci sia altra pos­si­bi­li­tà: già secondo la bozza le piat­ta­for­me dovevano con­trol­la­re il contenuto per le vio­la­zio­ni del copyright prima di pub­bli­ca­re l'ar­ti­co­lo cor­ri­spon­den­te. A causa del­l'e­nor­me volume di dati, è un’ope­ra­zio­ne che risulta pra­ti­ca­men­te possibile solo facendo af­fi­da­men­to sugli upload filter au­to­ma­tiz­za­ti.

Con la votazione di febbraio il Par­la­men­to europeo aveva approvato il progetto di legge con 438 voti fa­vo­re­vo­li, 226 contrari e 39 asten­sio­ni. Il giorno della votazione la Com­mis­sio­ne europea aveva pre­sen­ta­to un'altra direttiva in cui gli upload filter svolgono un ruolo decisivo: nel­l'am­bi­to della lotta al ter­ro­ri­smo le piat­ta­for­me Internet devono essere costrette a esaminare tutti i contenuti so­spet­ta­ti di ef­fet­tua­re pro­pa­gan­da ter­ro­ri­sti­ca. Non incluso nel re­go­la­men­to: un'ec­ce­zio­ne per i piccoli gestori di siti web o progetti open source. Secondo questa direttiva l'uso a livello nazionale di filtri di upload sarebbe quindi ne­ces­sa­rio.

Il progetto era stato quindi discusso ul­te­rior­men­te nel co­sid­det­to trilogo, dove i rap­pre­sen­tan­ti del Par­la­men­to europeo avevano negoziato una versione de­fi­ni­ti­va della proposta con i delegati delle Com­mis­sio­ni UE e del Consiglio degli Stati Membri. Grazie a un accordo last minute Francia e Germania avevano in­stau­ra­to una trat­ta­ti­va per escludere le PMI e le startup da alcuni obblighi della direttiva. Il com­pro­mes­so è stato approvato venerdì 8 gennaio 2019 dalla mag­gio­ran­za degli am­ba­scia­to­ri degli Stati membri, no­no­stan­te i voti contrari di alcuni paesi (tra cui l’Italia), il forte an­ta­go­ni­smo di Google e l’op­po­si­zio­ne degli attivisti del web. L’accordo franco-tedesco prevedeva tre punti di esclu­sio­ne dall’obbligo di ap­pli­ca­zio­ne dell’allora articolo 13:

  1. La piat­ta­for­ma esiste da meno di 3 anni
  2. Il suo fatturato annuale non supera i 10 milioni di euro
  3. Il suo sito web non supera i 5 milioni di vi­si­ta­to­ri unici al mese

L’11, il 12 e il 13 febbraio si sono tenute le riunioni del trilogo a cui hanno preso parte i rap­pre­sen­tan­ti del Consiglio dell’Unione Europea, del Par­la­men­to europeo e della Com­mis­sio­ne europea e che hanno portato a un accordo sul testo finale.

Cos’è un filtro di upload?

Un filtro au­to­ma­ti­co di upload è un programma in­for­ma­ti­co au­to­ma­tiz­za­to che scansiona i dati quando vengono caricati su Internet o prima di essere pub­bli­ca­ti su una piat­ta­for­ma e li controlla in base a de­ter­mi­na­ti criteri. Se il programma rileva che un contenuto non è conforme alle regole pre­de­fi­ni­te, il contenuto in questione viene bloccato, al­l'u­ten­te viene impedito di caricarlo oppure il contenuto viene adattato in modo da non co­sti­tui­re più una vio­la­zio­ne delle regole. Tali filtri au­to­ma­ti­ci possono essere in­stal­la­ti su singoli siti web o ap­pli­ca­zio­ni, ma possono anche essere uti­liz­za­ti da host web o dal ri­spet­ti­vo provider di Internet del­l'u­ten­te. Gli scopi di utilizzo dei filtri di upload sono i seguenti:

  • contenere la dif­fu­sio­ne di contenuti estre­mi­sti e criminali;
  • limitare la dif­fu­sio­ne di notizie false, dif­fa­ma­zio­ne e cy­ber­mob­bing;
  • filtrare contenuti por­no­gra­fi­ci e violenti;
  • iden­ti­fi­ca­re materiale protetto dal diritto d’autore;
  • even­tual­men­te censurare in caso di abuso.

L’ultimo punto rap­pre­sen­ta la ragione per cui, all’interno dell’Unione Europea, i filtri di upload sono at­tual­men­te oggetto di di­scus­sio­ne in ri­fe­ri­men­to al copyright.

Come fun­zio­na­no i filtri di upload?

Per poter fun­zio­na­re, un filtro di upload necessita di due com­po­nen­ti. In­nan­zi­tut­to serve un database di dati illeciti, per cui nel caso della direttiva europea si tratta di materiale protetto dal diritto d’autore salvato sotto forma di valori hash.

De­fi­ni­zio­ne

I valori hash sono brevi suc­ces­sio­ni di lettere e simboli, creati tramite una funzione ma­te­ma­ti­ca a partire dal materiale originale. Dallo stesso materiale di partenza si forma il medesimo valore hash, viceversa non è possibile fare l’ope­ra­zio­ne contraria, ossia iden­ti­fi­ca­re il materiale a partire dal valore hash. I valori hash vengono impiegati per la me­mo­riz­za­zio­ne di password.

Un algoritmo confronta i valori hash del materiale protetto da copyright con quelli dei dati caricati. Se trova una so­vrap­po­si­zio­ne, impedisce il ca­ri­ca­men­to del file. Ma i filtri di upload non si attivano solamente per file com­ple­ta­men­te identici o molto simili: possono infatti anche servirsi di metodi di machine learning ("sistemi di ap­pren­di­men­to au­to­ma­ti­co") per ri­co­no­sce­re anche singole com­po­nen­ti di un'im­ma­gi­ne, un film, un brano musicale o un testo. È anche possibile, in una certa misura, l’astra­zio­ne di file sot­to­stan­ti: gli algoritmi sono ad esempio in grado di imparare l’aspetto di un gatto a partire da un database di immagini di gatti e suc­ces­si­va­men­te di ri­co­no­sce­re nuove immagini di gatti no­no­stan­te non fossero me­mo­riz­za­te nel database pre­ce­den­te­men­te.

Dove sono già in uso i filtri di upload?

Anche se l'obbligo di adottare tali filtri au­to­ma­ti­ci in tutto lo spazio Internet europeo potrebbe sembrare un evento degno di nota, non si può affermare che questa tec­no­lo­gia sia pro­pria­men­te una novità: da anni, infatti, le grandi società della rete si servono di filtri di upload per con­trol­la­re le enormi quantità di dati che vengono caricati quo­ti­dia­na­men­te sulle proprie piat­ta­for­me. Vediamo qui di seguito quali sono.

YouTube

Content ID, il filtro di upload della piat­ta­for­ma video YouTube, controlla tutti i video caricati di recente per rilevare eventuali vio­la­zio­ni del copyright. Se ne viene in­di­vi­dua­ta una, i titolari dei diritti hanno tre pos­si­bi­li­tà:

  • Bloccare: il video viene eliminato per cui non è più possibile vederlo.
  • Mo­ne­tiz­za­re: prima del video viene inserita la pub­bli­ci­tà e i profitti vanno al titolare dei diritti.
  • Osservare: l'autore o il titolare dei diritti è tenuto al corrente del numero di vi­sua­liz­za­zio­ni del video e di altre sta­ti­sti­che.

Occorre so­prat­tut­to impedire la di­stri­bu­zio­ne non au­to­riz­za­ta di lun­go­me­trag­gi, serie tv, canzoni e video musicali. Secondo YouTube l'al­go­rit­mo so­sti­tui­sce il lavoro po­ten­zia­le di 180.000 ispettori umani.

Facebook

Il più grande social network al mondo utilizza filtri au­to­ma­ti­ci perlopiù per iden­ti­fi­ca­re messaggi, immagini e video violenti, inadatti ai minori e offensivi, ancor prima della loro pub­bli­ca­zio­ne. Per con­tra­sta­re i contenuti ter­ro­ri­sti­ci o estre­mi­sti­ci, Facebook, Twitter, Microsoft e YouTube uti­liz­za­no una banca dati comune gestita in col­la­bo­ra­zio­ne con l'au­to­ri­tà di polizia europea Europol.

Microsoft OneDrive

Il servizio di file hosting scansiona au­to­ma­ti­ca­men­te i file quando vengono caricati sul cloud. Questa procedura chiamata PhotoDNA serve, fra le altre cose, alla lotta contro la por­no­gra­fia infantile.

Fatto

Dall’inizio del 2012 questa tec­no­lo­gia Microsoft è a di­spo­si­zio­ne della Polizia Postale e delle Co­mu­ni­ca­zio­ni.

Re­sear­ch­Ga­te

Su in­si­sten­za delle case editrici, il social network per le pub­bli­ca­zio­ni scien­ti­fi­che ha dovuto in­tro­dur­re filtri di upload per iden­ti­fi­ca­re pub­bli­ca­zio­ni se­con­da­rie non au­to­riz­za­te e plagi. L'al­go­rit­mo dovrebbe quindi decidere se le pub­bli­ca­zio­ni debbano essere di dominio pubblico, rese di­spo­ni­bi­li solo a de­ter­mi­na­ti gruppi di ricerca o can­cel­la­te. Starebbe allo stesso algoritmo decidere se divulgare le pub­bli­ca­zio­ni, metterle a di­spo­si­zio­ne esclu­si­va­men­te dei gruppi di ricerca oppure eli­mi­nar­le di­ret­ta­men­te.

Quali sono le critiche ai filtri di upload?

Lotta contro la por­no­gra­fia infantile, l’estre­mi­smo e le vio­la­zio­ni del diritto d'autore grazie ai filtri di upload: ciò che sembra una misura più che degna di supporto nasconde in realtà rischi con­si­de­re­vo­li secondo gli op­po­si­to­ri della nuova direttiva UE sul copyright. Di seguito vediamo quali sono i prin­ci­pa­li punti di critica mossi alla proposta di legge.

Su­scet­ti­bi­li­tà a errori e ma­ni­po­la­zio­ne

La pratica dimostra che gli algoritmi sono ben lungi dal fun­zio­na­re senza errori. In primo luogo possono essere ingannati ab­ba­stan­za fa­cil­men­te, ad esempio per tra­smet­te­re materiale protetto da copyright, superando i filtri di upload. Ciò che è ancora più pre­oc­cu­pan­te, tuttavia, è che tali programmi spesso censurano anche i contenuti con­sen­ti­ti. Per esempio un algoritmo non è in grado di ri­co­no­sce­re parodie, remix e omaggi che di solito sono esclusi dal diritto d'autore.

La critica parla quindi anche di una re­stri­zio­ne della libertà artistica e della fine della "cultura del meme": i fenomeni della rete come i meme si basano sul­l'in­se­ri­men­to in un nuovo contesto di immagini, video e canzoni protetti da copyright, sulla loro modifica e sulla loro di­stri­bu­zio­ne su Internet.

Inoltre qualsiasi ma­lin­ten­zio­na­to avrebbe la pos­si­bi­li­tà di ri­ven­di­ca­re materiale protetto da diritto d’autore e inserirlo poi nel database. Una dif­fu­sio­ne dei contenuti, anche se non sono ef­fet­ti­va­men­te protetti dal diritto d'autore, di­ven­te­reb­be quindi im­pos­si­bi­le fino a quando i fatti del caso non saranno stati chiariti.

Pos­si­bi­li­tà di censura

I filtri di upload con­tri­bui­sco­no a creare un'in­fra­strut­tu­ra che può essere uti­liz­za­ta anche per il controllo e la censura statali delle in­for­ma­zio­ni. Se ca­pi­tas­se­ro nelle mani sbagliate, i filtri au­to­ma­ti­ci po­treb­be­ro in­co­rag­gia­re una re­stri­zio­ne della libertà di espres­sio­ne e della libertà di stampa. Ad esempio se le banche dati non si li­mi­tas­se­ro sem­pli­ce­men­te a contenere solo materiale protetto da copyright, ma anche di­chia­ra­zio­ni sgra­de­vo­li e altre forme di critica nei confronti del governo, non ci sarebbe più libertà di parola su Internet. Basta uno sguardo alla parte isolata del web cinese per capire che la rete della Re­pub­bli­ca Popolare è già com­ple­ta­men­te dotata di filtri di upload.

Qual è l’origine del dibattito sui filtri di upload?

La di­scus­sio­ne sul copyright nel­l'U­nio­ne Europea ha dato vi­si­bi­li­tà pubblica, fra i vari temi, ai filtri au­to­ma­ti­ci di upload. In par­ti­co­la­re i titolari dei diritti quali le case editrici, ci­ne­ma­to­gra­fi­che e l'in­du­stria musicale chiedono una maggiore tutela delle proprie opere protette dal diritto d'autore sui canali di di­stri­bu­zio­ne digitale e la pre­ven­zio­ne della di­stri­bu­zio­ne non au­to­riz­za­ta, come già avviene, ad esempio, su YouTube.

Dall’altro lato della barricata ci sono attivisti di Internet, attivisti per i diritti civili, as­so­cia­zio­ni e or­ga­niz­za­zio­ni non go­ver­na­ti­ve, i col­la­bo­ra­to­ri di Wikipedia; ma anche alcuni partiti politici non sono rimasti in­dif­fe­ren­ti. Pur so­ste­nen­do la finalità della normativa, ovvero la pro­te­zio­ne della proprietà in­tel­let­tua­le, sot­to­li­nea­no che i filtri au­to­ma­ti­ci di upload sono com­ple­ta­men­te sbagliati perché vanno ben oltre l'o­biet­ti­vo, non sono tec­ni­ca­men­te maturi e co­sti­tui­sco­no una minaccia per il diritto alla libertà di espres­sio­ne.

Vi preghiamo di osservare la nota legale relativa a questo articolo.

Vai al menu prin­ci­pa­le