KI spricht mit Selbstvertrauen – aber gibt sie wirklich Rechtsberatung oder klingt es nur so?

Legal Tech oder Legal Trap: Sind KI-Antworten Rechtsberatung?

Foto von Henning Lorenzen
Von Henning Lorenzen
Gründungsherausgeber & Verleger bei NWS.magazine
11 Jul 2025 |NWS.article|Lesedauer: 5 Minuten
Kurz gefasst

Der Einsatz von KI-Systemen wie ChatGPT im juristischen Umfeld verwischt zunehmend die Grenze zwischen allgemeiner Rechtsinformation und regulierter Rechtsberatung. Large Language Models erzeugen Antworten, die in Form und Inhalt rechtlicher Beratung nahekommen können – und werfen damit grundlegende Fragen nach Zulässigkeit, Verantwortung und Haftung auf. In Rechtsordnungen wie Deutschland und der EU, in denen Rechtsberatung als geschützte Tätigkeit ausgestaltet ist, hat diese Abgrenzung unmittelbare rechtliche Relevanz.

Der Artikel untersucht, unter welchen Bedingungen KI-generierte Inhalte als Rechtsdienstleistungen im Sinne des Rechtsdienstleistungsgesetzes (RDG) einzuordnen sind und welche Parallelen sich zu internationalen Konzepten wie der Unauthorized Practice of Law (UPL) ziehen lassen. Er zeigt, dass das rechtliche Risiko weniger in der Technologie selbst liegt als in ihrem Einsatzkontext: ob KI als internes Werkzeug unter anwaltlicher Aufsicht genutzt wird oder als eigenständiger, öffentlich zugänglicher Beratungsdienst auftritt. Anhand zentraler Risikofaktoren – insbesondere Einzelfallbezug, rechtliche Auslegung und fehlende menschliche Kontrolle – wird deutlich, wie KI-Anwendungen regulatorische Grenzen unbeabsichtigt überschreiten können. Das Fazit ist eindeutig: KI kann juristische Arbeit unterstützen, Verantwortung, Zulassung und Haftung bleiben jedoch strikt menschliche Aufgaben.

KI-Systeme wie ChatGPT werden zunehmend in juristischen Zusammenhängen eingesetzt – von Vertragsvorschlägen bis hin zu schnellen rechtlichen Erläuterungen. Doch das wirft eine entscheidende Rechtsfrage auf: Gelten die Antworten von Large Language Models (LLMs) als Rechtsberatung? Und wenn ja – wer darf sie überhaupt erteilen?

Rechtsberatung: Eine geschützte Tätigkeit

In vielen Rechtsordnungen – insbesondere in Deutschland und der EU – ist Rechtsberatung eine regulierte Tätigkeit. Das deutsche Rechtsdienstleistungsgesetz (RDG) definiert Rechtsdienstleistungen in:

„Rechtsdienstleistung ist jede Tätigkeit in konkreten fremden Angelegenheiten, sobald sie eine rechtliche Prüfung des Einzelfalls erfordert.“
(§ 2 Abs. 1 RDG)

Das bedeutet: Sobald jemand (oder etwas) Ratschläge dazu gibt, wie ein bestimmtes Gesetz auf einen konkreten Fall anzuwenden ist, handelt es sich um Rechtsberatung – und dafür ist in der Regel eine Zulassung als Rechtsanwalt erforderlich.

Und KI?

LLMs wie GPT-basierte Systeme können Antworten erzeugen, die wie Rechtsberatung wirken. Aber ist das nach dem Gesetz wirklich „Rechtsberatung“? Das hängt von mehreren Faktoren ab:

  • Konkreter Bezug: Bezieht sich die Antwort auf einen spezifischen Einzelfall?
  • Juristische Bewertung: Enthält die Antwort eine rechtliche Auslegung?
  • Zielgruppe: Unterstützt die Antwort interne juristische Arbeit – oder wird sie öffentlich bereitgestellt für Personen, die rechtlichen Rat suchen?
  • Kontext: Erfolgt die Nutzung in einem beratenden Umfeld oder als allgemeine Information?

Rechtliche Bewertung in Deutschland

Nach Einschätzung vieler Jurist:innen und laufender Debatten in Deutschland kann KI-generierter Output eine Rechtsdienstleistung im Sinne von § 2 RDG darstellen – insbesondere wenn:

  • personalisierte Empfehlungen ausgesprochen werden („Sie sollten …“),
  • Rechtsnormen für einen konkreten Sachverhalt ausgelegt werden,
  • kein menschlicher Review durch eine fachkundige Person erfolgt.

Wird eine solche KI-gestützte Rechtsberatung ohne Zulassung nach RDG Dritten angeboten, liegt möglicherweise eine unerlaubte Rechtsdienstleistung vor – mit Untersagung (§ 3 RDG) und möglichen Geldbußen.

KI als Werkzeug vs. KI als Dienst

Die zentrale Unterscheidung:

  • KI als Werkzeug: Wird von Anwält:innen intern genutzt. ✅ Zulässig.
  • KI als Dienst: Wird ohne juristische Prüfung öffentlich angeboten. ❌ Möglicherweise unzulässig.

Das heißt: Ein:e Anwalt:in, der GPT für einen Vertragsentwurf nutzt und diesen anschließend prüft – ist rechtlich unproblematisch. Eine App, die juristische Empfehlungen ohne menschliches Review an Endnutzer:innen gibt – könnte gegen das RDG verstoßen.

Internationale Perspektiven

In den USA variiert die Rechtslage je nach Bundesstaat. Auch dort gelten Regeln zur „Unauthorized Practice of Law“ (UPL): KI-Systeme, die Rechtsberatung leisten, könnten gegen UPL-Vorgaben verstoßen, wenn sie nicht unter Aufsicht von Anwält:innen betrieben werden. Die ABA (American Bar Association) und einzelne State Bars haben dazu offizielle Hinweise veröffentlicht.

Best Practice: Transparent und vorsichtig

Wer KI im juristischen Umfeld nutzt oder anbietet, sollte:

  • klare Haftungsausschlüsse verwenden („Keine Rechtsberatung“),
  • den Output auf allgemeine Rechtsinformationen beschränken,
  • eine juristische Prüfung durch qualifizierte Personen einbauen,
  • die Verantwortung klären – denn die KI haftet nicht, Sie aber möglicherweise schon.

Fazit

Ja – LLMs können Inhalte erzeugen, die rechtlich als Rechtsberatung gelten. Doch sie sind nicht haftbar und nicht zur Rechtsberatung befugt. Die Verantwortung liegt bei den Menschen, die solche Systeme einsetzen – oder daran verdienen.

Rechtlich sicher: KI darf juristische Arbeit unterstützen – aber nicht ohne Prüfung durch eine zugelassene Fachkraft (Rechtsanwalt). Im Zweifel gilt: lieber Information als Beratung.

Je mehr die Grenze zwischen Information und Beratung verschwimmt, desto klarer wird die strategische Entscheidung – für Kanzleien und Legal-Tech-Anbieter gleichermaßen: selbst regulieren – oder reguliert werden.

Weiterführende Literatur & Quellen

Bildnachweis: Alexander Supertramp – Shutterstock

Hinweis: Dieser Beitrag basiert auf der Übersetzung des englischen Originalbeitrags. Die deutsche Fassung wurde redaktionell geprüft.