(Adnkronos) – L’evoluzione dell’intelligenza artificiale va di pari passo con il costante impegno del legislatore nel cercare di istituire norme adeguate. Sono sempre maggiori, infatti, i casi in cui risulta difficile discernere tra scelte attribuibili alla volontà della persona-programmatore o ai sistemi di IA implementati.
Il prossimo 7 maggio Stefano Preziosi, ordinario di Diritto penale presso il Dipartimento di Giurisprudenza dell’università degli Studi di Roma Tor Vergata e coordinatore scientifico del nuovo Centro di ricerca su intelligenza artificiale e diritto (Criad) https://giurisprudenza.uniroma2.it/criad/ dell’Università di Roma Tor Vergata, è tra i protagonisti del convegno intitolato ‘Intelligenza artificiale e responsabilità umana. Uno spazio non libero dal diritto.
Nuova disciplina europea e ordinamento interno’, organizzato da Dipartimento di Giurisprudenza – Criad e Ordine degli Avvocati di Roma, presso la Cassa Forense a Roma in via Ennio Quirino Visconti 8, in cui si mette a fuoco il rapporto tra diritto e intelligenza artificiale. I sistemi di IA sono quelli che per analogia possono definirsi organizzazioni complesse capaci di produrre decisioni autonome, cioè non completamente governate né governabili dall’uomo.
Un aspetto cruciale in ambito di diritto è che più aumenta la capacità di auto apprendimento delle intelligenze artificiali – attraverso gli strumenti di machine learning – maggiori saranno in futuro le cautele necessarie nell’attribuire responsabilità ai programmatori del software originario. “La premessa fondamentale – sostiene Preziosi – è che ormai qualunque regolamentazione della materia deve accettare che non è più possibile difendere l’esclusività del dominio dell’uomo sulla macchina. In quest’ottica, nulla esclude che si possa pensare ai sistemi di IA anche in chiave di centri di imputazione giuridica e di persone giuridiche. Fondamentale diventa per il futuro la definizione di ambiti di rischio permesso nel quadro di precisi limiti normativi.
Diventa perciò necessaria la creazione di uno ‘Statuto dell’IA’ per definire un’area di rischio permesso, considerato che non è (sempre) possibile stabilire a priori la decisione finale che il sistema prenderà, dipendendo quest’ultima da un comportamento fortemente adattativo della macchina”. Il Criad (Centro di ricerca su intelligenza artificiale e diritto) è il Centro di ricerca dipartimentale istituito all’inizio del 2024 su proposta di quattordici professori ordinari del Dipartimento di Giurisprudenza di Roma Tor Vergata.
Attualmente i componenti del consiglio scientifico del Centro sono i docenti Carlo Bonzano, Maria Floriana Cursi, Roberto Fiori, Enrico Gabrielli,Giovanni Guzzetta, Raffaele Lener, Venerando Marano, Francesco Saverio Marini, Donatella Morana, Andrea Panzarola, Stefano Preziosi, Giuseppe Santoni, Adolfo Scalfati, Alberto Zito. Preziosi ne è coordinatore scientifico: “L’ampiezza del Consiglio garantisce una competenza e una rappresentanza praticamente di tutte le branche del diritto che entra necessariamente in gioco con l’IA: in primo luogo perché i sistemi che se ne avvalgono generano inevitabilmente contenzioso; poi perché il contenzioso in questione non può facilmente risolversi sempre sulla base dei principi consolidati”.
“Vi è inoltre – precisa il giurista Preziosi – un problema regolativo: deve il diritto disciplinare i sistemi di IA? La questione è molto delicata perché ha a che fare con la possibilità di disciplinare lo sviluppo scientifico. Molti vedono i tentativi di stabilire regole giuridiche come lacci al progresso, altri invece auspicano l’intervento di un regolatore terzo, che non siano le grandi aziende di gestione dei dati e dei motori di ricerca (big data)”.
“Vi sono poi implicazioni politico-giuridiche: la tenuta dei sistemi democratici al cospetto della possibile costruzione/manipolazione del consenso con l’IA generativa così come il potenziale carattere sostitutivo dell’IA rispetto al decisore politico. I timori e le lodi a questo sistema di intelligenza artificiale penso che lascino il tempo che trovano”.
“E’ più interessante – conclude il giurista – una riflessione filosofica, in cui ci si domandi quale può essere il destino dell’uomo nella nuova dimensione tecnologica: seguire il percorso della storia delle idee alla luce di questo orizzonte fenomenologico, esistenziale, scientifico, in cui la centralità dell’essere umano può entrare in crisi, nell’idea magari che ci sia qualcosa di migliore del pensiero e dell’agire umani, capace di evitarci (secondo questa idea) molti disagi, e perfino molte sciagure come carestie, guerre e altro”.
“Il momento è propizio – commenta Preziosi – da poco è stato approvato dal Parlamento europeo il regolamento sull’IA e nei prossimi mesi dovrebbe essere varato dopo l’ultimo passaggio formale dalla Commissione europea”.
Anche in una recente intervista il professore di Roma Tor Vergata ha approfondito il ragionamento sulle normative in studio a livello europeo riguardo questa tecnologia avanzata, sottolineando che “Il Consiglio dell’Ue dovrà terminare l’iter approvativo nei prossimi mesi, dopodiché il Regolamento europeo sull’intelligenza artificiale sarà diritto dell’Unione” e come tale applicabile, anche se ci vorranno provvedimenti normativi nazionali di attuazione di questo regolamento.
Le nuove regole imporranno dei sistemi di compliance che impegneranno le imprese e gli enti più in generale, ma anche gli operatori del diritto, che saranno chiamati a confrontarsi con tali regole in sede di loro applicazione o di consulenza. Poste le basi di vari aspetti regolativi: gli usi vietati, i controlli, la valutazione prognostica dei rischi, la riserva di umanità nella programmazione algoritmica, il rapporto con la gestione dei dati e le relative garanzie individuali e molto altro ancora.
—lavorowebinfo@adnkronos.com (Web Info)