Federico Rizzolo
Email - federico.rizzolo@unife.it
Titolo tesi - “L’incidenza della disciplina europea in materia di intelligenza artificiale sull’attribuzione della responsabilità penale”
Abstract - Il progetto di ricerca dottorale si innesta nella vorticosa maturazione del rapporto tra diritto penale e intelligenza artificiale: un tema divenuto à la page nella dottrina penalistica italiana e internazionale, poiché gravido di questioni determinanti per la tutela degli interessi coinvolti dalla pervasività dell’IA.
Dinanzi ai rischi potenzialmente catastrofici di tale tecnologia, infatti, un congedo del diritto penale risulterebbe doppiamente insensato al rispetto delle garanzie rivolte ai consociati. In primo luogo, la mancata previsione di sanzioni detentive segnerebbe, nel nuovo ordine, una diminuzione della tutela effettiva ai beni giuridici; ulteriormente, una delega esclusiva delle funzioni di tutela alle altre branche del diritto comporterebbe il rischio di inaugurare una nuova (e assai tempestosa) stagione di “truffa delle etichette”, caratterizzata dall’utilizzo di sanzioni pecuniarie afflittivamente penali, ma formalmente etichettate di altra natura e, dunque, applicabili senza l’osservanza dei presidi previsti per la
comminazione delle pene.
D’altro canto, il quesito circa lo spazio di intervento del diritto penale nell’ambito dei c.d. reati robotici fa emergere impetuosamente le problematiche che incontra l’accertamento della responsabilità penale nei casi in cui l’agente (adattivo o mero strumento) sia un sistema ideato dall’uomo, ma da questi autonomo, non sempre controllabile e non pienamente conoscibile nel suo processo di autoapprendimento e determinazione.
Nello specifico, oltre alle difficoltà che affiorano nell’ambito della tipicità del reato (e, dunque, l’individuazione di un contributo umano causalmente correlato al funzionamento deviante dell’IA, nonché la verifica di un dovere-potere di controllo sul sistema da parte dell’uomo), il grande busillis si rinviene sul terreno della colpevolezza.
Infatti, quando l’IA viene utilizzata come strumento per commettere il reato (ipotesi che conduce al tema del dolo della persona fisica), essa apporta un momento creativo nella realizzazione dell’illecito tale da poter rendere questo estraneo alla sfera di rappresentazione iniziale dell’uomo.
In riferimento ai casi in cui l’agire offensivo dell’IA sia dipeso, invece, da un errore non voluto del modo di produzione o utilizzo (evenienza che porta al tema della colpa), in dottrina prevale la convinzione per cui l’imprevedibilità dei sistemi di machine learning, facendo saltare il criterio di copertura del rischio tipico, geli la possibilità di muovere un rimprovero soggettivo al soggetto programmatore o utilizzatore.
Su questo ginepraio di questioni aristoteliche è peraltro destinato a soffiare il vento della regolamentazione europea in materia di IA, che, com’è noto, contempla specifici obblighi cautelari e di monitoraggio in capo ai soggetti (in primis i fornitori) che intervengono nel ciclo di vita del sistema.
La disciplina europea, che a ben vedere si basa su un apprezzamento del rischio come cardine della responsabilità dell’uomo, farà perciò registrare un processo evolutivo dei contenuti della colpa che è obiettivo del presente progetto analizzare con specifico riguardo alla posizione del “fornitore” di tali sistemi.
Sul piano metodologico, poiché il Regolamento europeo sull’IA (c.d. AI Act) prevede, da un lato, pratiche vietate e, dall’altro, pratiche consentite previo rispetto di determinate regole cautelari, la ricerca prenderà avvio dalla classica e mai superata distinzione tra la responsabilità “per il tipo” e “per il modo” di produzione.
Soffermandosi principalmente sul secondo versante, si indagherà sulle tipologie di rischio a cui si ricollegano le norme contenute nell’AI Act, sulla gestione di tali rischi da parte dei soggetti che intervengono nel ciclo di vita del prodotto, nonché sulla configurabilità o meno di posizioni di garanzia nei confronti dei destinatari degli obblighi di monitoraggio previsti dal Regolamento.
Poiché l’incidenza penalistica della disciplina europea sull’IA è tema comune agli Stati membri, il percorso dottorale verrà svolto in co-tutela con un ateneo francese, al fine di presentare uno studio comparatistico circa le ricadute di suddetta normativa sugli ordinamenti penali nazionali di Italia e Francia.