L’intelligenza artificiale parla con sicurezza – ma offre davvero consulenza legale o è solo una buona imitazione?

Legal Tech o Legal Trap: le risposte dell’IA sono consulenza legale?

Foto di Henning Lorenzen
Da Henning Lorenzen
Fondatore, Direttore Editoriale & Editore presso NWS.magazine
11 Jul 2025 |NWS.article|Tempo di lettura: 5 minuti
In breve

Sistemi di intelligenza artificiale come ChatGPT stanno diventando sempre più presenti nel lavoro giuridico quotidiano, rendendo progressivamente sfumato il confine tra informazione legale generale e consulenza legale regolamentata. I Large Language Models sono in grado di generare risposte che, per struttura e contenuto, possono avvicinarsi a vere e proprie indicazioni giuridiche individuali, sollevando questioni rilevanti in termini di autorizzazione, responsabilità e conformità normativa. In ordinamenti come quello tedesco ed europeo, dove la consulenza legale costituisce un’attività protetta, questa distinzione assume immediata rilevanza giuridica.

Questo articolo analizza le condizioni in cui l’output generato dall’IA può qualificarsi come prestazione di servizi legali ai sensi del Rechtsdienstleistungsgesetz (RDG), confrontando tali criteri con approcci analoghi adottati in altri ordinamenti, come le regole sull’Unauthorized Practice of Law negli Stati Uniti. L’analisi mostra che il rischio normativo non deriva dalla tecnologia in sé, ma dal contesto di utilizzo: dall’impiego dell’IA come strumento interno sotto supervisione professionale, fino alla sua offerta come servizio autonomo rivolto al pubblico. In particolare, il riferimento a casi concreti, l’interpretazione normativa e l’assenza di controllo umano emergono come fattori decisivi nel superamento delle soglie regolatorie. Ne risulta una conclusione chiara: l’IA può supportare il lavoro legale, ma responsabilità, abilitazione e decisione restano prerogative esclusivamente umane.

I sistemi di intelligenza artificiale come ChatGPT vengono sempre più impiegati in ambito giuridico – dai suggerimenti contrattuali alle rapide spiegazioni normative. Ma ciò solleva una questione fondamentale: le risposte dei Large Language Models (LLM) costituiscono consulenza legale? E, se sì, chi può davvero fornirla?

Consulenza legale: un’attività tutelata

In molte giurisdizioni – soprattutto in Germania e nell’UE – la consulenza legale è regolamentata. La legge tedesca Rechtsdienstleistungsgesetz (RDG) definisce i servizi legali così:

«La prestazione di servizi legali è qualsiasi attività in questioni concrete di terzi che richieda un esame giuridico del caso individuale.»
(§ 2 Abs. 1 RDG – citazione testuale)

In altre parole: quando qualcuno (o qualcosa) consiglia come applicare una norma a un caso concreto, si tratta di consulenza legale – e richiede l’abilitazione come avvocato.

E l’IA?

Gli LLM, come i sistemi basati su GPT, possono generare risposte che sembrano consulenza legale. Ma lo sono davvero secondo la legge? Dipende da vari fattori:

  • Riferimento concreto: la risposta riguarda un caso specifico?
  • Analisi giuridica: contiene un’interpretazione delle norme?
  • Destinatari: la risposta supporta il lavoro legale interno — oppure è fornita pubblicamente a persone in cerca di consulenza legale?
  • Contesto: viene usata in un setting di consulenza o come informazione generale?

Valutazione giuridica in Germania

Secondo molti giuristi, l’output dell’IA può rientrare nella definizione di servizio legale ex § 2 RDG, soprattutto se:

  • fornisce raccomandazioni personalizzate («Lei dovrebbe…»),
  • interpreta norme per un fatto concreto,
  • manca la revisione di un professionista qualificato.

Offrire tali servizi IA a terzi senza autorizzazione può costituire una prestazione legale non autorizzata, soggetta a divieto (§ 3 RDG) e possibili sanzioni.

IA come strumento vs. IA come servizio

La distinzione chiave è:

  • IA come strumento: usata internamente da avvocati. ✅ Lecita.
  • IA come servizio: offerta al pubblico senza verifica legale umana. ❌ Potenzialmente illecita.

Esempio: un avvocato usa GPT per una bozza contrattuale e poi la rivede – ok. Un’app che consiglia i consumatori senza controllo umano – possibile violazione del RDG.

Prospettive internazionali

Negli Stati Uniti la situazione varia per Stato. Le norme sull’«Unauthorized Practice of Law» (UPL) si applicano in modo analogo: un’IA che fornisce consulenza legale può violare le norme UPL se non operata sotto supervisione legale. L’ABA e vari ordini statali hanno pubblicato pareri cautelativi.

Best practice: trasparenza e cautela

Chi usa o offre IA in ambito legale dovrebbe:

  • inserire disclaimer chiari («Queste informazioni non costituiscono consulenza legale»);
  • limitare l’output a informazioni giuridiche generali;
  • fare esaminare le risposte da professionisti qualificati prima che i clienti vi si affidino;
  • definire responsabilità – l’IA non risponde, voi sì.

Conclusione

Sì – gli LLM possono produrre contenuti che giuridicamente equivalgono a consulenza legale. Ma non hanno responsabilità né titolo per farlo. La responsabilità ricade su chi li utilizza – o ne trae profitto.

Posizione più sicura: l’IA può supportare il lavoro legale, ma non sostituire un professionista abilitato per indicazioni vincolanti. In caso di dubbio, trattare l’output dell’IA come informativo, non consulenziale.

Più la linea tra informazione e consulenza si fa sfumata, più diventa chiara la scelta strategica – per studi legali e provider di legal tech allo stesso modo: autoregolarsi – o essere regolati.

Letture e fonti consigliate

Fonte dell'immagine: Alexander Supertramp – Shutterstock

Nota: Questo post si basa sulla traduzione dell’articolo originale in inglese. La versione tedesca è stata revisionata editorialmente.