La nuova responsabilità degli intermediari in Europa

La nuova responsabilità degli intermediari in Europa

Digital Single Market

La responsabilità degli intermediari della comunicazione nell’ambito della legislazione dell’Unione europea è regolamentata dalla Direttiva europa eCommerce e le relative leggi di recepimento nazionali. In particolare la direttiva europea introduce delle esenzioni per gli Isp, e un generale divieto di monitoraggio delle informazioni online, al fine di promuovere ed alimentare il nascente mercato online.

Con riferimento agli hosting provider, che qui ci interessano, l’esenzione da responsabilità (safe harbour, art. 14 della Direttiva) si basa su una segnalazione (notice), o comunque una consapevolezza dell'illiceità del contenuto (actual or constructive knowledge, consapevolezza attuale o presunta), a seguito delle quali l’intermediario deve agire rapidamente per rimuovere il contenuto illecito (take down).
Il provider di hosting non è responsabile del contenuto illecito ospitato sui propri server ma caricato da un terzo, a meno di non provare un suo coinvolgimento. Non sussiste, infatti, in capo a tale soggetto alcun obbligo giuridico di controllo del materiale caricato online.

Però, nell’ambito delle iniziative per la realizzazione del Digital Single Market (DSM) ad opera della Commissione europea, la responsabilità degli intermediari è oggetto di numerose proposte di riforma. Tali proposte per lo più sono tese al passaggio dall’attuale regime negligence-based (colpa, caratterizzato dall’obbligo di non-monitoraggio) ad uno di strict liability (responsabilità oggettiva) per gli hosting provider (G. Frosio, From horizontal to vertical: an intermediary liability earthquake in Europe). O più esattamente per la piattaforme “that store and provide to the public access to large amounts of works or other subject-matter uploaded by their users”.
La definizione è presa dall’articolo 13 della proposta di riforma della Direttiva Copyright, che si presenta del tutto incerta (quando si è in presenza di grandi quantità di opere?). Significativo è che il riferimento non è più agli intermediari di memorizzazione (hosting), bensì “di memorizzazione e accesso” (provide to the public access).

 

Approccio settoriale

La Commissione europea, restia ad una riforma generale del settore, anche probabilmente per le resistenze da parte delle associazioni per la tutela dei diritti civili, ha deciso per un approccio settoriale, come negli Usa (l'approccio settoriale determina una moltiplicazione delle norme che rende più difficile per il cittadino conoscere effettivamente i suoi diritti). In tale prospettiva ha anche ritardato le riforme in materia di ingiunzioni verso gli intermediari (per le quali occorre fissare i criteri per definire la proporzionalità di un’ingiunzione).

Ad esempio, nella discussione sulla riforma della Direttiva Audiovisual Media Services si è proposto l’introduzione di misure a tutela dei minori e in generale dei cittadini da contenuti di hate speech. La Commissione CULT del Parlamento europeo ha, però, espresso parere negativo all’introduzione di filtri da parte degli Isp.
Inoltre, sempre la Commissione ha stretto accordi con le principali piattaforme del web, che di fatto delegano alle aziende la gestione delle forme di incitamento all’odio online (Codici di condotta).
Ma è principalmente l’articolo 13 della proposta di riforma alla Direttiva Copyright che finisce per imporre alle piattaforme online l’utilizzo di appositi strumenti di filtraggio dei contenuti immessi online, in accordo con i titolari dei diritti.

 

Sentenza Pirate Bay

L’approccio della Commissione europea si può collegare con le recenti sentenze della Corte di giustizia dell’Unione europea, la quale si è incamminata sulla via di un’estensione del concetto di responsabilità degli intermediari.

Ad esempio, con la recente sentenza sul caso Pirate Bay, la Corte di Giustizia europea ha provato a colmare parte del distacco tra l'attuale giurisprudenza e le norme proposte nell’ambito della riforma alla Direttiva Copyright. La Corte, infatti, giunge alla conclusione che la gestione di una piattaforma online può costituire atto di comunicazione al pubblico, in quanto, appunto, facilita la fruibilità di contenuti da parte degli utenti. In tal modo la Corte estende la “comunicazione al pubblico” ricomprendendo in essa anche condotte meramente facilitative dell’accesso alle opere online, che originariamente costituivano responsabilità secondaria demandata alle legislazioni nazionali (non armonizzata). Per cui si considera comunicazione al pubblico, e quindi occorre l’autorizzazione del titolare, non solo se la piattaforma diffonde l’opera direttamente o indirettamente, ma anche se si limita a rendere più semplice l’accesso all’opera, ad esempio tramite un link (i torrent e i magnet, usati da Pirate Bay, sono dei link fondamentalmente).
In tal modo la responsabilità secondaria viene progressivamente inglobata in quella primaria, realizzando un’armonizzazione della materia.

La Corte discute di responsabilità derivante da una “constructive knowledge” (presunzione legale di conoscenza), oltre che da una “actual knowledge” (consapevolezza effettiva), ritenendo che un operatore economico debba agire in base ad uno specifico criterio di “diligenza”. In tal modo perviene (già però con la sentenza GS Media) alla presunzione di consapevolezza per le piattaforme online di condivisione dei contenuti, qualora sussista un fine di profitto (profit-making intention).
Si tratta, ovviamente, di una presunzione che può essere confutata. Ma risulta palese l’allargamento della responsabilità degli intermediari, che finisce per rendere decisamente più complicato operare online, attività oggi più aperta a rischi legali rispetto al passato.

In tale prospettiva si può leggere un avvicinamento con le norme proposte nella Direttiva Copyright in discussione (E. Rosati, The CJEU Pirate Bay judgment and its impact in the liability of online platform), in particolare l’articolo 13 che prevede l’imposizione di obblighi di monitoraggio (preventivo) dei contenuti immessi online, e il considerando 38, il quale suggerisce che le piattaforme che ospitano contenuti illeciti di terzi pubblicamente operano una comunicazione al pubblico. L’unico modo per sottrarsi a responsabilità sarebbe di rispettare le condizioni di cui all’articolo 14 della Direttiva eCommerce, cioè l’intermediario non deve aver un active role nella gestione dei contenuti.

La problematica del ruolo attivo del provider è molto discussa. In alcuni casi (Corte d’Appello di Milano, sentenza RTI vs. Yahoo! del 9 gennaio 2015) si è risolta individuando il discrimine nella manipolazione o trasformazione delle informazioni e dei contenuti trasmessi. Per cui l’indicizzazione e i suggerimenti di ricerca individualizzati sono stati considerati espedienti tecnologici volti al migliore sfruttamento economico della piattaforma, e non un’ingerenza sulla creazione e redazione dei contenuti. Con ciò ritenendosi il provider “passivo”.
Nella sentenza L’Oreal contro Ebay, invece, la Corte europea giunge a considerare ruolo attivo anche quello della piattaforma che ottimizza la presentazione dei contenuti caricati, oppure li promuove. Requisito presente, e evidenziato, anche nel caso Pirate Bay (indicizzazione dei torrent), per giungere alla responsabilità della piattaforma online.

In base all’articolo 13 della proposta di riforma della direttiva Copyright, se un hosting provider non si limita a facilitare il fluire dei contenuti, ma svolge un ruolo attivo, allora realizza una “comunicazione al pubblico” del contenuto immesso dall’utente online. Se il provider opera una comunicazione al pubblico, allora deve stringere accordi di licenza con i titolari dei contenuti.

Appare evidente la discrasia con la precedente interpretazione delle norme. In genere la comunicazione al pubblico è realizzata dall’utente che carica il contenuto. Perché l’intermediario risponda dei contenuti caricati dagli utenti, occorre che il suo coinvolgimento sia essenziale al punto che la comunicazione al pubblico diventi propria. In caso contrario il provider può doverne rispondere per favoreggiamento o condotte facilitative, comunque per responsabilità secondaria, che richiede requisiti specifici e stringenti ed è prevista a livello di legislazione nazionale.
Attualmente se un provider non può usufruire delle esenzioni di cui alla Direttiva eCommerce, questo non porta ad una automatica responsabilità per i contenuti, ma occorre verificare nel concreto. Il safe harbour non è altro che un livello ulteriore di protezione dei provider realizzato a fini di armonizzazione della legislazione nell’Unione.

 

Responsabilità dei provider

La riforma della Direttiva Copyright, invece, stabilisce che il provider “attivo” è automaticamente responsabile (strict responsability) dei contenuti immessi dagli utenti. E quindi dovrà introdurre misure per evitare il caricamento di contenuti illeciti sui suoi server.
Anche la Corte europea, con le sentenze GS Media e Pirate Bay, perviene a conclusioni simili, in particolare quando presume la consapevolezza dell’illiceità del contenuto in presenza di un profitto, così allargando il concetto di comunicazione al pubblico.

Ma l’esistenza di una presunzione di consapevolezza a carico delle piattaforme online che agiscono per profitto (praticamente tutte) finirebbe di fatto con l’imporre un obbligo generale di monitoraggio (per filtrare i contenuti occorre monitorarli tutti), che è incompatibile con le attuali norme dell’Unione (art. 15 direttiva eCommerce).
Che poi è l’argomento principale di critica nei confronti del proposto articolo 13 della riforma della Direttiva Copyright. Tale divieto di monitoraggio non può non avere la precedenza sul criterio introdotto dalla Corte europea.

Al di là di questo possibile “avvicinamento”, però, occorre ricordare che la stessa Corte europea ha sottolineato più volte che per stabilire se si è in presenza di una comunicazione al pubblico (per la quale occorre l’autorizzazione del titolare, in assenza della quale l’atto è illecito), sono richiesti dei requisiti che vanno applicati individualmente, e che sono interdipendenti. In sostanza, occorre una valutazione caso per caso delle circostanze (che comunque, occorre ammetterlo, apre a forti incertezze giuridiche), valutazione che mal si concilia con dei filtri preventivi generalizzati.
Ad esempio, mentre nella sentenza GS Media la Corte UE introduce la presunzione di conoscenza legata al profitto, nella successiva pronuncia la menzione che Pirate Bay opera per profitto è solo un’indicazione tra molti altri elementi che portano a ritenere plausibilmente i gestori a conoscenza delle infrazioni commesse tramite i loro servizi. Ciò suggerirebbe che la “consapevolezza” necessaria debba essere, appunto, calibrata caso per caso.

 

Delega agli algoritmi

Comunque, a rileggere il quadro nel suo complesso e nella sua evoluzione, appare ovvio che ci si stia incamminando verso una riforma dell’intera normativa europea, eliminando sostanzialmente il divieto di monitoraggio dei contenuti immessi online, con previsione di specifici obblighi di controllo proattivo dei contenuti. Nel caso in cui le piattaforme non si adeguino, risponderebbero, infatti, per responsabilità primaria, sulla base di una presunzione legale di consapevolezza dell’illiceità dei contenuti presenti sui loro server. L’obiettivo, ovviamente, è la realizzazione del Digital Single Market (DSM), il cui presupposto fondamentale è una tutela della transazioni economiche legali.

L’obbligo di filtraggio (e monitoraggio) rende del tutto inutile il meccanismo alla base del safe harbour di cui alla Direttiva eCommerce, innescato da segnalazioni o consapevolezza attuale o presunta. Soprattutto, appare non proporzionato in quanto in grado di confliggere con i diritti fondamentali degli individui, come del resto evidenziato dalla stessa Corte europea (sentenza Sabam-Netlog): “could potentially undermine freedom of information, since that system might not distinguish adequately between unlawful content and lawful content, with the result that its introduction could lead to the blocking of lawful communications. Indeed, it is not contested that the reply to the question whether a transmission is lawful also depends on the application of statutory exceptions to copyright which vary from one Member State to another. In addition, in some Member States certain works fall within the public domain or may be posted online free of charge by the authors concerned”. 
L’obbligo di filtraggio dei contenuti online, cioè, comprime la libertà di espressione (ma anche la libertà di impresa delle aziende), in quanto la valutazione degli illeciti (delegata agli algoritmi) non è in grado di considerare correttamente le esenzioni in materia di copyright, portando, così, facilmente alla rimozione di numerose opere utilizzate lecitamente. Oltretutto è palese che con tali imposizioni le piattaforme online saranno incentivate e rimuovere tutti i contenuti dubbi, per evitare proprie responsabilità.

Nonostante il progredire della tecnologia appare evidente che un giudizio di bilanciamento di opposti diritti non è programmabile, le utilizzazioni libere (fair use) non possono essere programmate all’interno degli algoritmi (D. Burk-J. Cohen, Fair Use Infrastructure for Copyright Management Systems), e quindi non può essere delegato alla valutazione di algoritmi.
Il risultato sarà l’imposizione di un livello di gestione dei contenuti online superiore alle leggi, demandato ai privati e gestito da freddi algoritmi, con conseguente compressione dei diritti fondamentali dei cittadini.