Google SuggestL’8 settembre il tribunale di Parigi ha condannato Google per diffamazione in quanto la funzione del noto motore di ricerca, denominata Google Suggest, proponeva dei suggerimenti costituenti fatti specifici in grado di gettare discredito su chi ne è soggetto.
La funzionalità Google Suggest, oggi sostituita da Google Instant, visualizza dei suggerimenti, cioè integra le interrogazioni degli utenti mentre vengono digitati dei caratteri nel campo di ricerca.
Un utente, condannato nel febbraio 2010 per corruzione di minore (3 anni di carcere con sospensione della pena), sentenza poi impugnata e quindi non ancora definitiva, si è lamentato del fatto che al suo nome la funzione Suggest associava termini di ricerca come “satanista”, “stupratore”, “condannato” e simili, per cui riteneva che tali accostamenti fossero lesivi del suo onore, e quindi ha citato in giudizio Google, nel marzo del 2010.
Egli sosteneva che la funzione Suggest in tal modo poneva in essere una diffamazione pubblica indipendentemente dal contenuto degli articoli indicizzati di Google, che poi erano gli articoli a cui rimandava la ricerca.


Google si è difesa sostenendo che il funzionamento di Suggest è completamento automatizzato, e l’algoritmo si basa sulle interrogazioni precedentemente poste in essere da altri utenti del motore di ricerca. Cioè, l’algoritmo, secondo quanto asserito da Google, non farebbe altro che riproporre le interrogazioni effettuate con maggior frequenza, e che contengono i primi caratteri digitati dall’utente. Per cui non sarebbe in realtà Google a dare “suggerimenti”, ma vengono riproposti, su base statistica ed automatica, le ricerche degli altri utenti, in considerazione del fatto che i termini suggeriti comunque sono presenti, accostati al nome della persona, negli articoli indicizzati. L’ordine dei suggerimenti, inoltre, sarebbe determinato dalla frequenza con i quali gli altri utenti li hanno digitati.

Il tribunale francese, invece, non ha accolto la tesi di Google, in quanto, a suo dire, non sarebbe stato dimostrato che i suggerimenti sono la conseguenza di un algoritmo, ma sarebbe stato solo dichiarato dai legali di Google, e che comunque una soluzione software prima di essere attuata è sempre un prodotto della mente umana. Anzi, sulla base di alcune considerazioni il tribunale ha ritenuto che i suggerimenti e le ricerche non sono identici, per cui non apparirebbero il frutto di un calcolo basato sullo stesso algoritmo neutro. Il tribunale fa anche notare che un servizio simile offerto da Yahoo porta a risultati diversi, ed infine evidenzia che alcuni termini di ricerca sono sottratti dall’indice dei suggerimenti (come dichiarato dagli stessi dirigenti di Google), al fine di evitare accostamenti offensivi, la qual cosa implica, secondo i giudici, necessariamente una preselezione dei termini utilizzati dalla funzionalità Suggest.
Secondo il tribunale, quindi, la possibilità di un intervento umano, quanto meno a posteriori, determinerebbe la responsabilità di Google in relazione ai suggerimenti che vengono accostati al nome della persona, per cui Google, ed in particolare il suo CEO in qualità di editore, è responsabile di diffamazione, e quindi va condannata, con ciò ordinando alla società americana di porre in essere gli accorgimenti tecnici atti ad evitare la diffamazione in questione.
Ovviamente Google ha dichiarato che presenterà appello.

Ricordiamo che già in passato Google fu condannata per diffamazione, in sede di appello, proprio a causa della funzionalità Google Suggest, in quanto associava il nome della società di energia Direct Energy al suggerimento “truffa”. In quest’ultimo caso in realtà non si contestava il fatto che i suggerimenti fossero il risultato di una ricerca statistica basata sulle precedenti ricerche degli utenti, ma si concludeva comunque per la sussistenza della diffamazione sulla base della circostanza che l’utente medio non ha alcuna contezza dell’algoritmo su cui si basa la funzionalità in oggetto, per cui è portato a credere che i suggerimenti siano comunque pareri o critiche nei confronti della società in questione.

Invece, nel 2009 nel Regno Unito una accusa analoga, in relazione alle anteprime che Google fornisce insieme ai risultati di ricerca (snippet), cioè la descrizione di un link estratta automaticamente dal testo di una pagina di un forum e che conteneva stralci definiti diffamatori dall’istituto per la formazione Metropolitan International Schools, è stata respinta dal giudice in quanto ha ritenuto che Google non è responsabile per un testo estrapolato in maniera automatica da un sito.
Per il giudice inglese, quindi, Google non può essere considerato un editore del testo, e responsabile è esclusivamente l’autore dell’articolo, cioè non è Google che diffama indicizzando gli articoli scritti da altri, casomai è l’autore dell’articolo a dover rispondere per una eventuale diffamazione.

Secondo il giudice francese, invece, Google deve essere considerato una sorta di editore di ciò che visualizza online, per cui ne è responsabile indipendentemente dal contenuto degli articoli che il motore di ricerca indicizza. Infatti, negli articoli indicizzati i termini offensivi erano comunque associati alla persona che ha citato in giudizio Google, non fosse altro per il fatto che è stata condannata, anche se non in via definitiva, a 3 anni di carcere per corruzione di minorenni.
Il giudice francese sostiene che la prova della neutralità dell’algoritmo di Google Suggest non è stata data, e che apparirebbe comunque possibile un intervento manuale, casomai a posteriore, cosa che avviene ogni qualvolta si sottraggono termini all’indice, ad esempio in materia di pornografia, odio o violenza.
A prescindere dall’ovvia considerazione che se davvero l’indice di Google fosse realizzato (o modificato, dando la priorità ad un suggerimento invece che ad un altro) a mano, occorrerebbero una quantità impensabile di dipendenti, quello che interessa è che le eventuali modifiche avvengono in maniera generalizzata e non sui singoli individui od articoli, e comunque sono modifiche successive all’indicizzazione dell’articolo.
L’attività dell’intermediario della comunicazione, come chiarito più volte, non può mai essere meramente passiva, ma in alcuni casi è anche sostanzialmente attiva, come nel caso del provider che concede più banda ad alcuni servizi e meno ad altri. In tali casi comunque permane lo status di intermediario, in quanto la sua attività è sempre neutrale nei confronti dei contenuti, limitandosi a fornire la piattaforma tecnologica all’utente che poi la usa in libertà, mentre il contributo dell’intermediario è eminentemente tecnico.
Nel caso specifico, quindi, il fatto che vi sia una attività successiva all’indicizzazione, rimuovendo casomai termini offensivi, non inficia in alcun modo lo status di intermediario del motore di ricerca, anzi è rispettoso delle norme della direttiva ecommerce europea che stabilisce i casi in cui l’intermediario si può ritenere responsabile dei contenuti immessi dagli utenti nei suoi server.

Infatti, la direttiva prevede l’obbligo di rimuovere le informazione non appena l’intermediario venga a conoscenza dell’esistenza di informazioni illecite, pur lasciando la possibilità di stabilire forme e modalità negli accordi contrattuali con gli utenti. Per cui un intervento a posteriori al fine di rimuovere possibili violazioni o di evitare che si commettano reati non solo è previsto, ma anche auspicato, intervento successivo che nel contempo non impedisce di attribuirgli lo status di intermediario, e quindi ritenerlo non responsabile di eventuali reati commessi da altri.
Casomai sarebbe un intervento preventivo a porre in discussione lo status di intermediario, visto che in tal caso il provider andrebbe a selezionare i contenuti che passano sui suoi server, e quindi sarebbe palesemente non neutrale verso i contenuti della rete. Poiché lo status di intermediario si basa proprio sulla neutralità della gestione dei contenuti, in tal caso non potrebbe più andare esente da responsabilità in caso di illeciti commessi a mezzo dei suoi servizi.

Il punto fondamentale sta, comunque, nel fatto che Google non scrive articoli ma si limita ad indicizzarli, in maniera neutrale ed automatica, per cui l’accostamento diffamante casomai in realtà si realizza all’interno degli articoli indicizzati da Google, ed è verso l’autore dell’articolo che al limite si dovrebbe agire.
La problematica non è molto dissimile da quella risolta di recente dalla Corte di Giustizia europea che ha dichiarato che Google AdWords non viola alcuna norma nel momento in cui consente agli inserzionisti l’utilizzo di parole chiave corrispondenti a marchi di impresa altrui anche in assenza del consenso dei titolari, in quanto è l’inserzionista, in tale caso, a doverne rispondere, non certo l’intermediario.

Un’ultima annotazione riguarda la circostanza che qualcuno abbia voluto scomodare il diritto all’oblio per il caso in questione. Tenendo presente che in Francia si ritiene che possa essere il giudice, su istanza dell’interessato, ad accorciare la memoria della rete qualora ritenga che non vi sia più, o non vi sia mai stato, un interesse pubblico alla notizia, in realtà non si comprende qualche applicazione esso abbia in tale caso, visto che la notizia della condanna per un reato, tra l’altro molto grave, era freschissima. Il diritto all’oblio, invece, viene in considerazione quando si tratta di notizie molto vecchie che per qualche motivo vengono riproposte al pubblico.
E anche in tal caso, giusto per chiarire, interviene egregiamente la direttiva ecommerce europea, la quale all’art. 13 prevede che l’intermediario debba rimuovere prontamente le informazioni che ha memorizzato, o disabilitarne l'accesso, non appena venga effettivamente a conoscenza del fatto che le informazioni sono state rimosse dal luogo dove si trovavano inizialmente sulla rete o che l'accesso alle informazioni è stato disabilitato oppure che un organo giurisdizionale o un'autorità amministrativa ne ha disposto la rimozione o la disabilitazione dell'accesso. In sostanza se l’articolo originale viene rimosso un motore di ricerca non può più consentire il recupero di quell’articolo neppure come cache transitoria. Ancora una volta il problema non è dell’intermediario, piuttosto è responsabilità di chi ha pubblicato la notizia di renderla irreperibile dopo un ragionevole periodo di tempo.

In definitiva il problema è che si continua a pensare in termini di responsabilità editoriale laddove Google non è un editore in quanto non sceglie affatto cosa pubblicare o cosa no, non seleziona i contenuti, al massimo li pone automaticamente in un ordine che si basa sulle ricerche effettuate dagli utenti, e quindi su dati statistici. L’associazione tra un fatto sgradito, e quindi un termine fonte di discredito, ed una persona è dovuta ad un evidente interesse pubblico ed alla sua attualità, nonché alla presenza di pagine collegate all’argomento in questione, per cui non è Google a causare il “problema”, quanto piuttosto l’attenzione dell’opinione pubblica dedicata a quell’argomento specifico. In tal senso eliminare il suggerimento equivale indirettamente a ledere il diritto di informazione dei cittadini.
Se davvero la notizia è illecita, e in qualche modo lede i diritti di qualcuno, ne è responsabile l’autore della notizia, ed è ovviamente possibile agire per rimuoverla. Nel momento in cui la notizia è stata rimossa il motore di ricerca si deve adeguare, ai sensi della direttiva ecommerce, ma se la notizia è in rete, non si capisce come sia possibile addossare la responsabilità della diffamazione al motore di ricerca e non, invece, all’autore dell’articolo che riporta la notizia (che evidentemente in sé non è diffamante!).