Articolo di Francesca Benatti, Prof. Diritto privato comparato Un. Cattolica Milano
– Il Settimanale, rubrica a cura di Fiorenzo Festi –

2. AUTOREGOLAMENTAZIONE

Nell’analisi delle possibili soluzioni giuridiche al fenomeno, vale la pena sottolineare la molteplicità delle ipotesi di fake news che possono richiedere risposte diverse. È inoltre necessario specificare l’importanza dell’esistenza di prove concrete della falsità della notizia, cosa che nella pratica non è sempre facile.

Un esempio riguarda le cosiddette verità scientifiche: può esserci un’opinione maggioritaria, ma le tesi contrarie, magari provenienti da esperti, non possono essere considerate fake news. È noto che la scienza non è un possesso di conoscenza, ma una procedura continua, seria e metodologica: “etwas noch nicht nicht ganz Gefundenes und nie ganz Aufzufindenes”1 .Popper, infatti, ha osservato che “tutta la nostra conoscenza rimane fallibile, congetturale. Non c’è giustificazione, compresa, ovviamente, la giustificazione finale di una confutazione. Tuttavia, impariamo attraverso le confutazioni, cioè attraverso l’eliminazione degli errori”2 . Questo non significa considerare vere tutte le affermazioni che hanno una pretesa di scientificità, ma piuttosto evidenziare il labile confine che spesso esiste nella narrazione mediatica tra falsità e ipotesi da verificare. La complessità del dibattito sugli OGM, ma anche le recenti discussioni sui possibili trattamenti e terapie anti-covid annunciati, negati, criticati e consentiti sono emblematici.

Infine, la categoria non dovrebbe includere le opinioni che differiscono dall’ideologia dominante, come nel caso dell’attuale dibattito incentrato sul politically correct, che spesso passa dalla tutela dei diritti fondamentali delle minoranze alla censura irrazionale. Significativa è anche l’etichettatura come fake news di informazioni incerte o sfavorevoli da un certo punto di vista. Ne è un esempio l’annuncio di Trump sulla disponibilità del vaccino contro il covirus già nel 2020, bollato come disinformazione e poi rivelatosi corretto. Questo comportamento è particolarmente dannoso perché impedisce un’efficace prevenzione delle fake news e crea l’impressione che la questione abbia una connotazione ideologica.

Va notato che le peculiarità del cyberspazio e dei social media providers hanno portato all’idea che la loro autoregolamentazione, anche attraverso l’adesione a codici di condotta, sia preferibile. La soluzione sembrava efficace perché richiamava la tradizionale e pragmatica antica convinzione che solo gli esperti di una specifica arte o mestiere potessero conoscere tutti i dettagli tecnici, grazie alla cui precisa descrizione gli enunciati normativi potevano diventare effettivamente performativi: solo chi, a livello intellettuale, possedeva pienamente il know-how specifico poteva stabilire e giudicare la condotta di chi avrebbe poi esercitato quell’attività in pratica. Gli standard sviluppati dagli esperti del settore sono o dovrebbero essere più puntuali e adeguati rispetto a quelli che il decisore potrebbe assumere in assenza di tali parametri.

Ciò ha portato a livello europeo all’introduzione di un Codice di condotta3 che Facebook, Google e Twitter, Mozilla, nonché gli inserzionisti e parte dell’industria pubblicitaria hanno sottoscritto nell’ottobre 2018. I firmatari hanno poi presentato le loro tabelle di marcia per l’attuazione del Codice. Successivamente si sono aggiunti anche Micosoft, Instagram e Google+. Nonostante i risultati iniziali apparentemente positivi, la valutazione pubblicata nel 2020 dalla Commissione europea sul primo anno di attività mostra le notevoli difficoltà. Ciò ha portato nel 2022 ad un suo rafforzamento, del quale è troppo presto per predire gli effetti4.

In primo luogo, la delega dell’autoregolamentazione a entità private che hanno un’influenza e interessi economici importanti quasi quanto gli Stati non può non suscitare preoccupazioni5 . Dietro la maschera dell’autoregolamentazione, ci sono poteri privati che, avendo definito i propri interessi, possono scegliere come perseguirli e a quali costi. Nel campo dell’informazione, ciò implica la possibilità di censurare o limitare i contenuti non ritenuti vantaggiosi per i propri obiettivi. In particolare, data l’importanza dell’informazione online oggi, significa dare ai social media il controllo del dibattito politico e della vita democratica: sono loro a definire i confini del discorso pubblico accettabile e a legittimarlo.

Questo profilo è accentuato dalle caratteristiche dei codici di condotta, che utilizzano un linguaggio generico, spesso retorico e aspirazionale, che deve essere sviluppato. Anche il Codice europeo, pur cercando di individuare strategie e criteri, lascia un ampio margine di discrezionalità. Soprattutto, ci sono toni paternalistici con la pretesa di orientare il cittadino/consumatore verso la notizia da legittimare. È un’inversione della prospettiva del “libero mercato delle idee”. Inoltre, gli effetti ambigui di questi codici di autoregolamentazione appaiono evidenti se si tiene conto dell’assenza di criteri non solo oggettivi, ma anche razionalmente giustificabili, con cui sono stati censurati i diversi messaggi sui social network dal contenuto discutibile, a seconda della persona che li ha inviati. In particolare, Twitter ha cancellato l’account di Donald Trump per le ripetute accuse che avrebbero provocato i disordini del 6 gennaio sulla regolarità delle elezioni, mentre ha lasciato l’account dell’Ayatollah Khamenei che invitava a combattere e distruggere i nemici dell’Iran. La stessa distorsione è stata osservata con il meccanismo di fact-checking, applicato in modo casuale e senza parametri chiari. Ad esempio, sono state bloccate le notizie su Hunter Biden ritenute inattendibili e poi rivelatesi vere. Alcune giurisdizioni, come la Polonia, al fine di garantire la libertà di espressione del pensiero, ritengono ora opportuno introdurre un divieto di censura da parte dei social media.

Infine, alcuni esperti del settore chiedono l’introduzione di sanzioni e si aspettano che siano generalmente applicabili. Le fake news possono infatti circolare liberamente in gruppi chiusi come quelli di Telegram secondo le regole attuali. Questa critica sembra discutibile perché nello sforzo di controllare le fake news, ci sarebbe un controllo generale dell’informazione e della libertà di espressione.

Se l’autoregolamentazione non è soddisfacente, gli sforzi legislativi non sono convincenti. Ciò è dovuto alla difficoltà di indagare sui provider Internet. Vale la pena notare che la sezione 230 (c) del Communication Decency Act degli Stati Uniti stabilisce che:

“ Treatment of publisher or speaker

(1) No provider or user of an interactive computer service shall be treated as the publisher or speaker of any information provided by another information content provider.

(2) Civil liability

No provider or user of an interactive computer service shall be heid liabie on account of-

  1. any action voiuntariiy taken in good faith to restrict access to or avaiiability of materiai that the provider or user considers to be obscene, iewd, iascivious, filthy, excessiveiy vioient, harassing, or otherwise objectionabie, whether or not such materiai is constitutionally protected; or any action taken to enabie or make availabie to information content providers or others the technicai means to restrict access to materiai described in paragraph (1).”

La legge, che attribuisce grande importanza all’autoregolamentazione, è giustificata dall’impossibilità per Facebook, Twitter e YouTube di controllare tutto ciò che viene pubblicato. Senza questa tutela, da un lato nessuna nuova azienda potrebbe entrare nel mercato a causa degli alti costi e dei rischi di responsabilità, mentre per i giganti del web si imporrebbero dei cambiamenti, come la necessità di controllare e valutare tutto prima di pubblicarlo. Il risultato sarebbe una nuova architettura e un nuovo modo di funzionare di Internet. La giurisprudenza, nel tentativo di adeguare questa normativa introdotta nel 1996 quando Internet era ancora agli albori, ne ha progressivamente ampliato l’applicazione fino a dare luogo a un’immunità totale per gli ISP6 . Le critiche sono molte e apparentemente opposte. Il giudice Easterbrook ha osservato che ” che “il § 230 (c) che è, ricordiamo, parte del “Communications Decency Act” – porta il titolo “Protection for ‘Good Samaritan’ blocking and screening of offensive material”, una descrizione difficilmente adatta se il suo effetto principale è quello di indurre gli ISP a non fare nulla per la distribuzione di materiali indecenti e offensivi tramite i loro servizi. Perché una legge progettata per eliminare la responsabilità degli ISPs nei confronti dei creatori di materiali offensivi dovrebbe finire per sconfiggere le pretese delle vittime di comportamenti illeciti o criminali?”7 Inoltre, è stato sottolineato che se, come accade oggi, gli ISP hanno un potere discrezionale sui contenuti, non possono più essere considerati neutrali, ma editori, e dovrebbero quindi essere soggetti allo stesso regime di responsabilità.

La questione è complessa e comporta l’opportunità di bilanciare la regolamentazione ex post ed ex ante, soft e hard. Soprattutto, è necessario fare un’attenta distinzione tra i contenuti di natura criminale e quelli che possono essere discutibili o inappropriati. Occorre distinguere tra la sfera morale e quella giuridica. Tuttavia, è chiaro che, allo stato attuale, un’immunità generalizzata come quella creata negli Stati Uniti non sembra più auspicabile.

Lo stesso ordinamento statunitense potrebbe, inoltre, modificare la sua disciplia. Interessante è la prospettiva espressa da Justice Thomas nella opinione concorrente in Joe Biden Jr. v. Knight First Amendment Institute at Columbia University8 che avvicina le piattaforme ai common carriers. Infatti, avverte che «la ricerca su Google – con il 90 percento della quota di mercato – è preziosa rispetto agli altri motori di ricerca, perché un numero maggiore di persone la utilizza, creando dati che l’algoritmo di Google utilizza per perfezionare e migliorare i risultati della ricerca. Questi effetti di rete rafforzano queste aziende». Rileva poi come «nel caso di un’ utility di comunicazione, questa concentrazione conferisce ad alcune piattaforme digitali un enorme controllo sul discorso», in quanto non solo Google «può sopprimere i contenuti deindicizzando o declassando un risultato di ricerca o allontanando gli utenti da determinati contenuti modificando manualmente i risultati del completamento automatico», ma anche «Facebook e Twitter possono restringere notevolmente il flusso di informazioni di una persona con mezzi simili»9. Lo stesso Amazon, «in quanto distributore della netta maggioranza degli e-book e di circa la metà di tutti i libri fisici… può imporre conseguenze catastrofiche agli autori, tra l’altro bloccando un annuncio»10. Propone pertanto l’estensione, per quanto compatibili, delle regole sui common carriers alle piattaforme social. Sarà interessante vedere se la tesi passerà considerato che la Corte Suprema ha accettato di decidere dei casi riguardanti il §23011.

A livello europeo, la direttiva sul commercio elettronico12 distingue tra fornitori di contenuti, che sono equiparati agli editori tradizionali, e fornitori di servizi. Questi ultimi sono considerati responsabili delle informazioni memorizzate su richiesta di un destinatario del servizio, a meno che:

(a) non siano effettivamente a conoscenza del fatto che l’attività o le informazioni sono illegali e, per quanto riguarda le azioni di risarcimento danni, non siano a conoscenza di fatti o circostanze che rendano evidente l’illegalità dell’attività o delle informazioni; oppure (b) una volta venuti a conoscenza, agiscano prontamente per rimuovere o disabilitare l’accesso alle informazioni.

Tuttavia, il requisito della conoscenza effettiva è rigido e non si riscontra spesso nella pratica. Si sta, pertanto, discutendo di possibili modifiche.

Oltre alla legislazione europea, per la definizione dei rimedi è necessario considerare le diverse discipline nazionali. Un modello significativo sembra essere quello tedesco, che nel 2018 ha introdotto la Netzwerkdurchsetzungsgesetz (legge sulle reti), che si basa sul principio della dignità umana. La legge obbliga le aziende con più di 2 milioni di utenti registrati in Germania a istituire una procedura efficace e trasparente per la ricezione e l’esame delle denunce di presunti contenuti illegali. Devono bloccare o rimuovere i contenuti “manifestamente illegali” entro 24 ore dalla ricezione di un reclamo, ma hanno a disposizione fino a una settimana o potenzialmente di più se sono necessarie ulteriori indagini. In casi particolarmente complessi, le aziende possono sottoporre il caso a un organismo finanziato dall’industria ma autorizzato dal governo, che deve prendere decisioni entro sette giorni. Le aziende devono informare gli utenti di tutte le decisioni prese in risposta ai reclami e giustificarle. Sono inoltre previste sanzioni se non istituiscono una procedura di reclamo o se non redigono, ogni quattro mesi, una relazione sulla valutazione dei reclami relativi ai contenuti illeciti apparsi sulla rete da loro gestita e pubblicano tale relazione, entro un mese dalla fine di ogni quadrimestre, sul Bundesanzeiger e sul loro sito web.

La legge è stata ampiamente criticata per la sua presunta incompatibilità con il regime dell’UE, per il suo potenziale impatto sulla libertà di espressione e per una tecnica legislativa limitata, che non definisce chiaramente i casi e lascia ampi margini di incertezza e discrezionalità. Attualmente è in corso una riforma degli aspetti considerati più discutibili.

Anche in Francia13 , la legge n. 2018-1202 del 22 dicembre 2018 stabilisce misure specifiche per i periodi elettorali, con i seguenti requisiti: i) le notizie false devono essere manifeste; ii) devono essere diffuse in modo massiccio e artificioso; iii) devono turbare la pace pubblica o la tranquillità di un’elezione. Al di fuori dei periodi elettorali, la legge prevede anche un obbligo di collaborazione da parte dei provider, che devono attuare misure per contrastare la diffusione di false informazioni che possano turbare l’ordine pubblico, basando tali sistemi sui seguenti parametri: la trasparenza dei loro algoritmi; la promozione di contenuti di aziende e agenzie di stampa e di servizi di comunicazione audiovisiva; la lotta contro gli account che diffondono massicciamente informazioni false; l’informazione agli utenti sull’identità della persona fisica o della ragione sociale, della sede legale e dell’oggetto sociale delle persone giuridiche che pagano loro una remunerazione in cambio della promozione di contenuti informativi relativi a un dibattito di interesse generale; l’informazione agli utenti sulla natura, l’origine e i metodi di diffusione dei contenuti; l’alfabetizzazione mediatica e informativa14 .

Va notato che uno degli aspetti più complessi15 nell’affrontare questo tema a livello legislativo risiede nella transnazionalità di Internet e quindi nella necessità di un coordinamento a livello globale. Inoltre, c’è la difficoltà comune a tutti i tentativi di regolamentare la tecnologia, che ha a che fare non solo con il diverso linguaggio, ma anche con la diversa tempistica. In effetti, la legge è statica mentre la tecnologia avanza rapidamente. Qualsiasi regolamentazione mediante clausole generali o standard, pur garantendo la flessibilità, porterebbe a un’eccessiva discrezionalità e incertezza giudiziaria, inadatta a scenari in cui sono in gioco diritti fondamentali.

__________

1 è la nota affermazione di Humboldt.

2 POPPER, Karl, “Poscritto alla logica della scoperta scientifica”, Milano, Il Saggiatore, p.24.

3 Il codice è disponibile su https://ec.europa.eu/digital-single-market/en/code-practice-disinformation.

4 https://digital-strategy.ec.europa.eu/en/policies/code-practice-disinformation.

5 CROUCH, Colin, “Postdemocrazia”, Roma-Bari, Editori Laterza, 2005.

6 Zeran v. America Online, Inc., 129 F.3d 327 (4th Cir. 1997), cert. denied, 524 U.S. 937 (1998), SAVINO, Emma M. “Fake News: No One Is Liable, and That Is a Problem”, in Buff. L. Rev. , 2017, 65, p. 1101.

7 Doe contro GTE Corp., 347 F.3d 655, 2003.

8 593 U.S. ___ (2021).

9 Ibidem.

10 Ibidem.

11 https://www.washingtonpost.com/technology/2022/10/03/scotus-section-230-supreme-court/.

12 200/31/CE.

13 È interessante notare che il Protection from Online Falsehoods and Manipulation Act (POFMA) di Singapore. L’articolo 7 stabilisce che “(1) Una persona non deve compiere alcun atto all’interno o all’esterno di Singapore per comunicare a Singapore una dichiarazione sapendo o avendo motivo di credere che

(a) è una falsa dichiarazione di fatto; e

(b) la comunicazione della dichiarazione a Singapore può

(i) pregiudicare la sicurezza di Singapore o di una sua parte;

(ii) essere dannosi per la salute pubblica, la sicurezza pubblica, la tranquillità pubblica o le finanze pubbliche;

(iii) essere dannosi per le relazioni amichevoli di Singapore con altri Paesi;

(iv) influenzare l’esito di un’elezione per la carica di Presidente, di un’elezione generale dei membri del Parlamento, di un’elezione suppletiva di un membro del Parlamento o di un referendum;

(v) incitare sentimenti di inimicizia, odio o malanimo tra gruppi diversi di persone; oppure

(vi) diminuire la fiducia del pubblico nell’adempimento di un dovere o di una funzione, o nell’esercizio di un potere da parte del Governo, di un organo dello Stato, di un consiglio statutario, o di una parte del Governo, di un organo dello Stato o di un consiglio statutario”. Su https://sso.agc.gov.sg/Act/POFMA2019#pr7-.

14 Loi n° 2018-1202 du 22 décembre 2018 relative à la lutte contre la manipulation de l’information en https://www.legifrance.gouv.fr/jorf/id/JORFTEXT000037847559/ .

15 Altri Stati stanno preparando progetti di legge contro le fake news.

Esito: -

Classificazione:

Di Benatti Francesca

Prof. Diritto privato comparato Università Cattolica Milano

Lascia un commento

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.