E-Mail: [email protected]
- L'UE ha adottato l'AI Act il 13 marzo 2024.
- Il DDL consente l'IA nella ricerca, ma con supervisione del magistrato.
- Un avvocato ha citato sentenze inesistenti suggerite dall'IA a Firenze.
L’Intelligenza Artificiale alla Sbarra: Un’Analisi Approfondita
La manifestazione dell’Intelligenza Artificiale (IA) all’interno del panorama legale appare come una questione controversa e stimolante. Da una parte si profilano opportunità per ottimizzare flussi operativi e rendere più celere ed efficiente il funzionamento degli apparati giudiziari; dall’altra non mancano timori circa la possibile disumanizzazione della giustizia, minacce agli ideali di equità e possibili distorsioni dovute a pregiudizi algoritmici.
In questo contesto si colloca anche il Regolamento sull’Intelligenza Artificiale (AI Act) adottato dall’Unione Europea il 13 marzo 2024; esso mira a introdurre parametri normativi per governare le applicazioni IA attraverso diversi ambiti operativi, dando particolare rilievo ai rischi inerenti alle tecnologie automatizzate con riferimento ai diritti fondamentali delle persone coinvolte. A livello nazionale italiano è stato ratificato dal Senato un progetto legislativo riguardante l’IA: questa iniziativa assegna all’Esecutivo compiti cruciali relativi alla coerenza della legislazione italiana rispetto a quella europea vigente. Stando all’articolo 14 del provvedimento normativo presentato (DDL), è consentito utilizzare strumenti basati su IA nella ricerca giurisprudenziale e dottrinale; tuttavia, rimane inteso che ogni sentenza finale debba rimanere sotto la supervisione indiscutibile del magistrato stesso.

Quando l’IA “Allucina”: Il Caso delle Sentenze Inesistenti
Un recente episodio avvenuto presso il Tribunale di Firenze ha sollevato ulteriori interrogativi sull’affidabilità dell’IA nel contesto legale. Un avvocato ha citato in un atto difensivo sentenze inesistenti, suggerite da un sistema di intelligenza artificiale. Questo incidente, definito come “allucinazione” dell’IA, ha portato il tribunale a interrogarsi sui limiti e sui doveri connessi all’utilizzo di tali strumenti in ambito forense.
Il Tribunale di Firenze, pur stigmatizzando l’omessa verifica dell’esistenza delle sentenze, ha ritenuto che non vi fossero gli estremi per condannare l’avvocato per malafede ai sensi dell’articolo 96 del codice di procedura civile. Tuttavia, il caso ha evidenziato la necessità di un approccio cauto e responsabile nell’utilizzo dell’IA, come sottolineato dalla “Carta dei Principi per un uso consapevole di strumenti di intelligenza artificiale in ambito forense” adottata dall’Ordine degli Avvocati di Milano.
La Carta dei Principi sottolinea l’importanza della competenza nell’utilizzo dell’IA, invitando gli avvocati a comprendere le funzionalità e i limiti di tali sistemi e a evitare una dipendenza eccessiva dai risultati automatizzati. Aggiunge inoltre l’importanza fondamentale della scelta umana, esortando i legali a esaminare in modo scrupoloso le conclusioni generate dall’intelligenza artificiale e a garantire che queste siano allineate con gli standard etici e normativi.
Giustizia Algoritmica: Un Futuro Distopico?
 L’invasione dell’intelligenza artificiale  nel settore della giustizia penalizza   profondamente  le questioni inerenti al domani  dell’amministrazione della  legge. La frenesia verso l’efficienza abbinata alla  doppia evoluzione digitale pone seri interrogativi sulla possibilità che  il sistema legale  si riduca a una mera sequenza automatizzata senza anima, dove gli algoritmi decidono al posto degli esseri umani investiti  del compito giudiziale.
  Ciò che emerge  dall’analisi delle pratiche adottate all’estero  – dall’applicazione d’algoritmi attuati negli  Stati Uniti per stimare  il rischio  d’insuccesso nella riabilitazione ai sistemi avanzati  cinesi capaci non solo di valutare elementi probatori ma anche redigere pronunce – genera allerta nell’opinione pubblica. Si profila infatti  il concreto  timore che  questo  modello possa sfociare in forme discriminanti sia socialmente  sia etnicamente;  condizionando  processi  decisionali su basi puramente statistiche ed erigendo barriere all’introspezione necessaria a discernere  i comportamenti individualizzati.
La salvaguardia dell’essenza umana nel diritto penale così come l’importanza rivestita dalla figura del magistrato emergono ora come frontiere cruciali nella lotta contro ogni forma d’oppressione nei confronti delle libertà personali. La sfida odierna consiste nell’individuare un punto d’incontro fra progresso tecnologico ed esigenza primaria dei diritti imprescindibili; assicurando che ogni atto giudiziario mantenga intatta la sua natura originariamente umana, improntata alla equanimità ed imparzialità.
Verso un Umanesimo Digitale: La Responsabilità del Professionista Legale
L’integrazione dell’IA nel mondo legale non è un processo da  demonizzare, ma da  governare con saggezza e responsabilità. L’episodio del Tribunale  di Firenze, con la sua eco di  sentenze  fantasma evocate da un’IA fuorviante, ci ricorda che la  tecnologia è uno strumento, non  un oracolo.  La competenza, la diligenza e la prudenza rimangono i pilastri dell’etica professionale,  soprattutto in un’era in cui l’informazione è sovrabbondante  e la verifica diventa un imperativo categorico.
La nozione legale di “colpa  professionale”  assume una  nuova sfumatura in  questo  contesto. Non si  tratta solo di negligenza o imperizia, ma anche di una  insufficiente comprensione dei limiti e  dei rischi degli strumenti  tecnologici che si   utilizzano. L’avvocato del  futuro  deve  essere  un “umanista digitale”, capace di integrare le potenzialità dell’IA con la sua esperienza, il suo intuito e la  sua capacità di giudizio.
Un  concetto legale avanzato che si applica   in  questo scenario è  quello della “responsabilità algoritmica”.  Coloro che si  occupano della progettazione,  dello sviluppo e dell’implementazione dei sistemi d’intelligenza artificiale  destinati a influenzare decisioni legali portano con sé una pesante responsabilità per le  ricadute derivanti dalle loro invenzioni. Tale situazione pone in evidenza l’importanza  cruciale  della trasparenza, nonché la necessità di disporre  di strumenti adeguati per  condurre audit approfonditi che consentano  l’individuazione  e correzione di eventuali bias o difetti  presenti  negli  algoritmi.
È fondamentale riflettere su questo punto: l’intelligenza artificiale ha il potenziale per diventare un alleato formidabile nella caccia alla verità e nella salvaguardia dei diritti umani; tuttavia ciò è possibile soltanto se il suo impiego avviene sotto i principi fondamentali di una rigorosa etica accompagnata da uno sforzo continuo verso la formazione professionale aggiornata. Dopotutto, il concetto stesso di giustizia è intrinsecamente umano; esso richiede quindi una profonda dose di sensibilità ed empatia assieme a quella incessante aspirazione a mantenere un giusto equilibrio fra razionalità emotiva ed affettività razionale.








