Emma Turetta
Email - emma.turetta@unife.it
Titolo tesi - “Libertà di manifestazione del pensiero nel Web 3.0: la responsabilizzazione degli intermediari digitali per i contenuti diffamatori e incitanti all’odio, verso la creazione di una responsabilità condivisa tra gli attori della rete”
Abstract - La rivoluzione digitale ha determinato uno sconfinato aumento delle possibilità di esprimersi in pubblico, permettendo a chiunque di esprimere le proprie opinioni e di accedere a quelle altrui con dei caratteri di rapidità e diffusività senza precedenti. In tale contesto, in cui si rivendica la valenza costituzionale del diritto di accesso ad Internet e in cui i social network sono divenuti moderne “agorà”, i messaggi offensivi e gli hate speeches si diffondono in rete con accresciute potenzialità lesive.
Con queste premesse, il progetto dottorale si articola lungo due linee direttrici: per un verso, si procederà ad isolare – e risolvere – alcune sfide interpretative di particolare rilevanza pratica poste dalla “versione digitale” dalle citate figure delittuose, con specifica attenzione, con riferimento alle fattispecie di cui agli artt. 604-bis e ter c.p., alle criticità discendenti dalla qualificazione delle stesse quali “reati di opinione”; per altro verso, si vaglierà la configurabilità, nell’ordinamento interno, di forme di responsabilità penale in capo agli Internet service provider (ISP), ossia gli intermediari digitali che offrono gli spazi virtuali per la pubblicazione di c.d. “user-generated contents”, in ragione del ruolo sempre più attivo svolto da tali aziende private nella gestione, organizzazione e gerarchizzazione dei contenuti online, inclusi quelli illeciti.
Tenendo in stretta considerazione le indicazioni provenienti dalla Piccola e dalla Grande Europa, che muovono dall’obiettivo di “rendere illecito online ciò che è illecito offline” per il tramite della creazione di una responsabilità condivisa tra i diversi attori della rete, si tenterà di individuare, sotto il duplice profilo della responsabilità dell’utente e di quella del provider, un punto di equilibrio tra la tutela della libertà di parola e l’esigenza di proteggere quei beni giuridici, individuali e collettivi, suscettibili di essere offesi da illecite forme di manifestazione del pensiero. In particolare, tale disamina non potrà prescindere dal Regolamento europeo 2022/2065 (c.d. Digital Service Act, destinato a produrre effetti a partire da febbraio 2024), che, dando voce all’esigenza di porre in capo alle piattaforme online “meno libertà e più responsabilità”, sembra porre fine alla lunga stagione del liberismo tecnologico, revocando quella “delega in bianco” che aveva posto le basi per rendere le piattaforme digitali dei veri e propri arbitri nel bilanciamento di diritti fondamentali.
Per ciò che interessa al cultore del Diritto Penale, il citato Regolamento, nell’aderire espressamente ad un modello c.d. di “notice and take down” che parametra il dovere di rimozione in capo all’ISP ad un certo standard di diligenza, pare infatti rendere non più procrastinabile un intervento del legislatore nazionale diretto a regolamentare la responsabilità dell’ISP e sembra, peraltro, porre le basi per una imputazione a titolo di colpa, senz’altro più confacente al contesto del Web 3.0, in cui la rimozione dei contenuti è in gran parte automatizzata ed affidata ad algoritmi di intelligenza artificiale. Così, il superamento del precedente quadro normativo, che subordinava il sorgere di un siffatto obbligo di rimozione al requisito della “effettiva conoscenza”, permette di superare molte delle obiezioni finora mosse dalla dottrina penalistica rispetto alla possibilità di ritenere penalmente responsabili le piattaforme, con conseguente reviviscenza di un ormai ventennale dibattito che, inevitabilmente, aveva finito per scontare i limiti di un quadro normativo obsoleto e non in linea con l’evoluzione della realtà digitale.