Dettagli del procedimento e della decisione del Tar
Una madre di uno studente di secondo liceo a Milano ha deciso di contestare ufficialmente la decisione di bocciatura del figlio, presentando un ricorso al Tribunale Amministrativo Regionale (Tar). La sua motivazione principale riguardava le condizioni di salute della studentessa, ritenute insufficienti per garantire un adeguato supporto didattico da parte dell’istituto scolastico.
Il Tar ha esaminato attentamente le argomentazioni presentate e, dopo un’analisi approfondita, ha deciso di rigettare il ricorso. Il procedimento è stato inoltre trasmesso all’Ordine degli Avvocati di Milano per eventuali verifiche disciplinari riguardo all’operato dell’avvocato rappresentante.
L’impiego dell’intelligenza artificiale nella redazione del ricorso
Particolare attenzione è stata posta sulla modalità con cui il ricorso è stato redatto. L’avvocato ha infatti utilizzato strumenti di intelligenza artificiale generativa per comporre il documento, una pratica ormai diffusa nel settore legale modernizzato. Tuttavia, nel corso dell’istruttoria, emergenze hanno evidenziato che molte delle citazioni di sentenze e casi giudiziari erano del tutto inventate dal sistema di IA.
Il Tribunale ha rilevato che queste fonti false o fuori contesto hanno complicato enormemente le verifiche e richiesto un notevole dispendio di tempo per attestare la loro inesistenza.
Le dichiarazioni dell’avvocato coinvolto
L’avvocato si è difeso affermando di aver fatto affidamento esclusivamente sui sistemi di IA per la redazione del ricorso e di non aver verificato personalmente le fonti fornite dal software, i quali avevano generato delle "allucinazioni": contenuti inventati che le intelligenze artificiali producono inconsapevolmente, creando dettagli apparentemente credibili ma del tutto falsi.
Le "allucinazioni" e il rischio nel settore legale
Le allucinazioni delle IA rappresentano una criticità riconosciuta nei modelli linguistici di grandi dimensioni (Large Language Models, LLM). Questi sistemi, nel tentativo di soddisfare le richieste dell’utente, tendono a creare riferimenti, sentenze e casi giudiziari inesistenti, spesso con dettagli precisi e numeri di riferimento apparentemente autentici.
Questo comportamento obbliga i professionisti a verificare con estrema cura ogni dato generato dall’AI, ricercando manualmente le fonti nelle banche dati di giurisprudenza, un’attività complessa e dispendiosa in termini di tempo.
Implicazioni etiche, normative e responsabilità
La vicenda ha stimolato il dibattito tra le autorità competenti e le organizzazioni professionali sul corretto utilizzo dell’intelligenza artificiale nel settore legale. In particolare, si discute sull’etica, sulla responsabilità e sulla trasparenza richieste ai professionisti che adottano strumenti automatizzati.
Il comitato di disciplina degli avvocati di Milano sta valutando eventuali sanzioni morali o disciplinari per l’avvocato coinvolto. Stefano Mielli, presidente della Quinta Sezione del Tar, ha commentato che il comportamento del penalista comporta una violazione del dovere di lealtà e probità, elementi fondamentali nel rapporto tra professionista, cliente e sistema giudiziario.
Inoltre, la Legge 132/2025, entrata in vigore nel 2025, regolamenta l’uso delle tecnologie di intelligenza artificiale nelle professioni intellettuali, sottolineando la necessità che il supporto tecnologico non sostituisca mai la verifica umana e che la comunicazione con il cliente sia completa e trasparente riguardo all’uso di sistemi automatizzati.
Considerazioni finali sulla vicenda
Il caso milanese evidenzia le criticità legate all’affidamento a strumenti di IA per la redazione di documenti legali, specialmente quando si tratta di citazioni e riferimenti specifici. La possibilità che la tecnologia generi "allucinazioni" rende indispensabile un’attenta verifica delle fonti e una rigorosa responsabilità da parte del professionista.
In conclusione, questa vicenda sottolinea l’urgenza di regolamentare in modo chiaro e stringente l’utilizzo dell’intelligenza artificiale nel mondo legale e di promuovere una cultura della verifica e dell’etica professionale, per garantire decisioni giudiziarie corrette, basate su dati certi e verificabili.
In primo luogo, la madre ha contestato la decisione di bocciatura attribuendo le sue motivazioni alle condizioni di salute del ragazzo, ritenendo che queste non fossero state adeguatamente considerate dall’istituto scolastico. Questa preoccupazione l’ha portata a voler approfondire e valutare se la decisione fosse corretta o se ci fossero stati elementi da contestare legalmente.
Il Tribunale Amministrativo Regionale ha esaminato attentamente le argomentazioni e, dopo un’analisi dettagliata, ha deciso di rigettare il ricorso della madre, confermando così la bocciatura del giovane studente e respingendo le sue ragioni.
Il ricorso è stato scritto con l’aiuto di strumenti di intelligenza artificiale generativa, adottati dall’avvocato per ottimizzare e velocizzare la redazione del documento. Tuttavia, questa scelta ha portato a problematiche, in quanto molte citazioni di sentenze e casi giudiziari sono risultate inventate dal sistema di IA.
Le "allucinazioni" si riferiscono a contenuti inventati generate dall’IA, come citazioni di sentenze o riferimenti a casi giudiziari inesistenti, che sembrano credibili ma sono del tutto falsi. Questi errori rappresentano una criticità significativa nel settore legale, dove la precisione è fondamentale.
L’uso dell’IA senza adeguate verifiche può portare a errori grossolani, come citazioni inventate o dati inaccurati, rischi di responsabilità professionale e di compromettere la credibilità del professionista. Questi rischi sottolineano l’importanza della verifica umana e della corretta gestione delle fonti.
Per prevenire questo problema, i professionisti devono sempre verificare manualmente le fonti generate dall’IA, consultare banche dati ufficiali e documentarsi accuratamente sui casi citati, assicurandosi della loro verità prima di includerli nei documenti legali.
L’impiego dell’intelligenza artificiale solleva questioni etiche relative alla trasparenza, alla responsabilità e alla verifica dei dati. La normativa, come la recente Legge 132/2025, sottolinea che l’uso della tecnologia deve rispettare principi di trasparenza e ambire a non sostituire completamente il controllo umano nelle attività professionali.
L’avvocato potrebbe assumere un ruolo più consulenziale e di supervisione, concentrandosi sulla verifica di dati, sull’etica professionale e sulla consulenza strategica. L’uso dell’IA può diventare uno strumento a supporto, ma non sostituirà mai il giudizio critico e la responsabilità umana.
L’Ordine degli Avvocati ha avviato accertamenti e verifiche sull’operato dell’avvocato coinvolto, valutando eventuali sanzioni morali o disciplinari. La vicenda ha stimolato il dibattito sulla responsabilità professionale nell’epoca dell’intelligenza artificiale.
Raccomandiamo che i professionisti legali adottino un approccio critico e responsabile nell’utilizzo dell’IA, verificando sempre le fonti, mantenendo alta la trasparenza con i clienti e rispettando le normative vigenti. Solo così si potrà garantire un’efficace integrazione della tecnologia, senza compromettere l’etica e la qualità delle decisioni giudiziarie.