L'impatto delle IA verso i professionisti del diritto
Informazione, fascinazioni e costo della verità
In particolare, viene raramente analizzato il funzionamento effettivo delle IA e la loro compatibilità con i processi cognitivi e operativi del lavoro giuridico.
Per valutare in modo realistico l’impatto delle IA è necessario partire da una ricostruzione del modello di lavoro del professionista del diritto e percorrere l'evoluzione degli strumenti di cui si avvale quotidianamente.
- I mattoni
- Dove sono i mattoni
- L'era delle banche dati
- Il passaggio al cloud
- L'avvento di Google
- Le IA e la crisi del modello tradizionale di ricerca
- La ricerca: un problema strutturale di affidabilità.
- La fascinazione della creazione: quando il progetto scompare.
- Una possibile terza strada: l'integrazione consapevole.
- Per concludere: la verità ha un costo.
I mattoni
L’attività di un professionista del diritto si articola nella redazione di atti: memorie, pareri, bozze di provvedimenti amministrativi. In tutti i casi si tratta di testi argomentativi, finalizzati alla costruzione e alla difesa di una tesi giuridica.
L’argomentazione richiede l’impiego di informazioni giuridiche — norme, giurisprudenza, dottrina — che costituiscono le unità elementari del ragionamento. Queste informazioni possono essere assimilate a “mattoni” attraverso i quali edificare l’impianto logico dell’atto.
Ogni mattone è caratterizzato da un presupposto di verità non graduabile: la norma è vigente o non lo è, la sentenza esiste o non esiste, il contributo dottrinale è stato pubblicato o non lo è. Il lavoro giuridico presuppone dunque un universo informativo privo di ambiguità.
Dove sono i mattoni
Una parte rilevante del tempo del professionista è tradizionalmente dedicata alla ricerca, selezione e verifica dei mattoni necessari. Nell’era del supporto cartaceo, l’accesso alle informazioni dipendeva dalla consistenza delle biblioteche e dalla qualità degli strumenti di indicizzazione. Di una rivista, di un libro, si andava per prima cosa a vedere se fossero dotati di un indice analitico.
Normativa, giurisprudenza e dottrina occupavano spazi fisici considerevoli, e la ricerca era inevitabilmente parziale. Tale parzialità era tuttavia accettata come fisiologica, purché ordinata secondo criteri cronologici e di attendibilità delle fonti. La ricerca non garantiva l’esaustività, ma offriva certezza sull’esistenza e sull’affidabilità delle informazioni reperite.
L’era delle banche dati
L’introduzione delle banche dati digitali, inizialmente come trasposizione informatica del cartaceo su supporti digitali, non modificò il paradigma di ricerca. Il cambiamento si produsse con l’unificazione di normativa, giurisprudenza e dottrina in archivi integrati e con la sostituzione degli indici analitici con la ricerca testuale.
L’ampliamento progressivo delle basi dati rese evidente un limite strutturale: i motori di ricerca, fondati esclusivamente sull’input linguistico dell’utente, non erano progettati per gestire una massa informativa crescente. La selezione dei risultati divenne sempre più opaca, nonostante il ricorso a tecniche di filtraggio via via più sofisticate.
Il passaggio al cloud
Il passaggio al cloud delle banche dati ha ulteriormente ampliato l’offerta informativa senza tuttavia incidere in modo sostanziale sul modello di ricerca. La selezione continua a fondarsi sull'input dell'utente e sulla restituzione dei risultati principalmente attraverso le massime, strumenti tradizionali che suppliscono all’assenza di sistemi avanzati di classificazione semantica attraverso la condensazione di parole chiave rilevanti a cura di un operatore umano, come l'Ufficio del Massimario e del Ruolo della Corte di Cassazione.
La restituzione integrale delle ricorrenze all'interno del testo esteso delle decisioni risulta peraltro impraticabile per ragioni quantitative, di contesto e di tempo. L’uso di operatori booleani non risolve il problema strutturale: la difficoltà non è solo trovare i documenti, ma attribuire loro rilevanza giuridica in modo efficiente.
L’avvento di Google
I limiti dei motori di ricerca giuridici delle case editrici hanno favorito l’uso complementare dei motori di ricerca, Google per primo. Google opera attraverso processi di scansione, indicizzazione e ranking che privilegiano la rilevanza probabilistica dei risultati, senza perseguire l’esaustività, caratteristiche che gli assicurano una quota di mercato globale di pari al 91%.
L’informazione è spesso restituita in un linguaggio più vicino a quello dell’utente, facilitando l’individuazione preliminare dei temi rilevanti. La valutazione dell’affidabilità resta affidata al professionista, che tende a privilegiare il dato giuridico (la fonte) rispetto al commento, salvo che quest’ultimo provenga da contributi dottrinali autorevoli.
In ogni caso, il paradigma della ricerca non muta: il professionista descrive preventivamente le caratteristiche dell’informazione cercata. La query giuridica presuppone la conoscenza anticipata dell’oggetto, analogamente alla richiesta di un bene definito da specifiche tecniche.
Le IA e la crisi del modello tradizionale di ricerca
Il tradizionale dualismo tra banche dati giuridiche e motori di ricerca viene radicalmente messo in discussione dall’avvento dei Large Language Model (LLM), una specifica classe di tecnologie di intelligenza artificiale basate su tecniche di deep learning, addestrate su quantità sterminate di testi per comprendere, generare e interagire con il linguaggio umano. Modelli come GPT o LaMDA non si limitano a recuperare informazioni: producono risposte, testi, sintesi, argomentazioni.
Il cambiamento non risiede tanto nell’ampiezza dei campi di ricerca — per definizione opachi, non completamente conoscibili e privi di gerarchie esplicite — quanto nella interattività dell’agente IA, che costruisce risposte sulla base di calcoli probabilistici. L’IA non cerca: risponde. Ed è proprio questo slittamento che altera profondamente le regole del gioco, soprattutto per il lavoro giuridico.
Le IA impattano, peraltro, profondamente sulla stessa ricerca tradizionale fondata sulle keywords (o parole chiave), ossia i termini e le frasi che le persone digitano nei motori di ricerca. L'approccio è quello “keywordless” guidato dall’intelligenza artificiale. L’evoluzione dei comportamenti di ricerca – sempre più personalizzati, multimodali e contestuali – rende insufficiente l’uso delle keyword come unico strumento per intercettare l’intento degli utenti. Chiunque, utilizzando Google, si sarà accorto che oggi il sistema restituisce prima una stringa generata dall'intelligenza artificiale (AI Overview) e solo successivamente il risultato della ricerca.
La ricerca: un problema strutturale di affidabilità.
A questo punto il nostro percorso si biforca.
Da un lato, rimane la ricerca delle fonti; dall’altro, emerge con forza la creazione di contenuti, che esercita una forte fascinazione sui professionisti, anche per la sua apparente immediatezza per il ricorso al linguaggio naturale.
Sul primo versante, quello della ricerca, occorre essere estremamente chiari: nessuna IA generalista garantisce le fonti. Non è progettata per farlo. Quando una fonte non è disponibile, il modello è istruito a generarla, se ritiene che ciò sia funzionale a soddisfare la richiesta dell’utente. Questo comportamento — noto e documentato — non è un malfunzionamento, ma una caratteristica intrinseca del sistema.
Il lavoro giuridico tradizionale si fondava sull’accumulo progressivo e faticoso di “mattoni”: norme, sentenze, contributi dottrinali magari incompleti, magari non esaustivi, ma reali, verificabili, contestualizzabili. I “mattoni” prodotti dalle IA sono invece formalmente perfetti, coerenti nella forma, convincenti nel linguaggio, ma privi di una garanzia ontologica: non vi è certezza che esistano davvero, né che la sintesi proposta rifletta fedelmente il contenuto complessivo dell’informazione, ammesso che tale informazione esista a monte.
Non è un caso che le soluzioni di IA destinate agli studi legali — nella stragrande maggioranza dei casi basate su ChatGPT o modelli analoghi — stiano progressivamente spostando la comunicazione commerciale sull’operatività “su basi dati giurisprudenziali verificate e affidabili”. Il messaggio è chiaro: la promessa non è l’intelligenza, ma il controllo.
Sotto questo profilo, le banche dati tradizionali partono con un vantaggio evidente: dispongono già di una mole strutturata di legislazione, giurisprudenza e dottrina, selezionata e validata nel tempo. In teoria, le loro IA dovrebbero limitarsi a operare all’interno di questo perimetro informativo. In pratica, però, non è ancora così. I test effettuati mostrano che non vi è alcuna certezza che i modelli utilizzati siano effettivamente addestrati — o confinati — esclusivamente all’interno di tali dataset. Né, soprattutto, è sempre chiaro se e come tali confini vengano rispettati. Il problema non è solo l’accuratezza della risposta, ma la trasparenza del processo. In settori specifici del diritto, come quello amministrativo, il ritardo è particolarmente evidente.
La fascinazione della creazione: quando il progetto scompare.
La seconda strada conduce in un territorio molto diverso, dove la fascinazione tecnologica gioca un ruolo centrale.
Qui non si tratta più di cercare i mattoni, né di assemblarli secondo un progetto predefinito. È l’IA stessa a essere chiamata a progettare e costruire, peraltro attraverso un linguaggio naturale, già di suo confidenziale nell'approccio. Tutto si riduce a una questione di prompt, di interazione, di istruzioni impartite al sistema. Il professionista non cerca, ma chiede.
Non sorprende, allora, che i profili social degli avvocati siano sempre più saturi di offerte di manuali, corsi e pubblicazioni — a volte cartacee — dedicate a prompt “preconfezionati”: una sorta di Legal AI for Dummies, che promette efficienza immediata senza affrontare la complessità sottostante. Il rischio, evidente, è la delegazione inconsapevole della funzione intellettuale: l’IA non come strumento, ma come surrogato del ragionamento giuridico.
Una possibile terza strada: l'integrazione consapevole.
La realtà è che le due strade — ricerca e creazione — non sono alternative, ma dovrebbero procedere insieme.
È questa la direzione verso cui si stanno muovendo alcune soluzioni più mature: da un lato, la generazione di contenuti a partire da “mattoni” la cui appartenenza al mondo reale non è in discussione; dall’altro, la definizione rigorosa dei confini operativi dell’IA, anche attraverso l’upload di contenuti proprietari (atti, pareri, modelli, documentazione interna).
Su quest’ultimo profilo, quello della privacy e del trattamento dei dati, è difficile non notare una diffusa rimozione del problema: le black box restano tali, e nessuno è realmente in grado di affermare con certezza cosa avvenga al loro interno.
Infine, vi è il tema decisivo dell’istruzione dell’IA, cioè della progettazione del risultato: non più solo cosa cercare, ma come costruire un contenuto giuridicamente sensato, coerente e utilizzabile.
Per concludere: la verità ha un costo.
Tutto questo ha un impatto profondo sul lavoro degli studi legali e, soprattutto, un costo: quello che Emilio Ferrara (The Generative AI Paradox: GenAI and the Erosion of Trust, the Corrosion of Information Verification, and the Demise of Truth, 2026), segnalatomi da Giovanni Acerboni, descrive come il privilegio della verifica.
This shift raises the cost of truth: verification becomes a privilege, institutional processes slow, and accountability erodes. It also empowers strategic actors through plausible deniability (i.e, authentic evidence can be dismissed as fake) and through attention flooding that delays correction and amplifies confusion.
Tutto questo richiede tempo, competenze nuove, una formazione diversa dei professionisti del diritto. Solleva interrogativi rilevanti sulla sostenibilità delle catene di produzione dei contenuti nei grandi studi e impone alle case editrici giuridiche di affrontare il tema dell’addestramento delle IA sui propri patrimoni informativi.
In fondo, non è un lavoro del tutto nuovo. Ricorda da vicino l’esperienza dei primi anni di pratica, quando venivamo mandati in biblioteca con poche righe scritte di pugno dal titolare dello studio su un foglio A4. Toccava a noi cercare i mattoni giusti, organizzarli, scartare quelli non utili, rispondere ai quesiti.
Cambiano gli strumenti, non la necessità di comprendere, selezionare, verificare.


Articoli e Approfondimenti di Diritto Amministrativo