Die Nutzung von künstlicher Intelligenz ist für Rechtsanwälte zu einem der wichtigsten Zukunfts–Themen geworden. Es ist absehbar, dass KI–Anwendungen auch in den kommenden Jahren für die Anwaltschaft von zentraler Bedeutung bleiben.

Neben vor allem berufsrechtlichen und datenschutzrechtlichen Fragestellungen beinhaltet die anwaltliche KI–Nutzung auch eine haftungsrechtliche Problematik.

Durch die KI–Sprachmodelle lassen sich beispielsweise Schriftsätze oder juristische Gutachten, die durchweg plausibel klingen, in kurzer Zeit erstellen. Allerdings kann es bekanntlich zu „Halluzinationen“ der KI kommen, indem diese Literatur-Fundstellen, Autoren, Fachbücher und gerichtliche Urteile erfindet. Daher birgt die Verwendung der mit KI erstellten Arbeitsergebnisse ohne weitere Überprüfung ein hohes Risiko bei der anwaltlichen Beratung und Vertretung von Mandanten.

Aber auch der umgekehrte Fall ist denkbar, nämlich dass ein mithilfe von KI generiertes Arbeitsergebnis inhaltlich korrekt ist, der Rechtsanwalt dies aber verkennt und eigenständig einen inhaltlichen Fehler zum Beispiel in einen Schriftsatz „einbaut“.

Allgemein anerkannt dürfte mittlerweile sein, dass die Nutzung von KI–Systemen – wie andere digitale Hilfsmittel auch – durch Anwälte zulässig ist und daher Teil der beruflichen anwaltlichen Tätigkeit sein kann. Hiervon gehen beispielsweise die im Dezember 2024 herausgegebenen Hinweise der Bundesrechtsanwaltskammer zum Einsatz von künstlicher Intelligenz unausgesprochen aus. Und auch die Formal Opinion 512 der American Bar Association vom August 2024 hält dies eindeutig für zulässig.

Durch die Nutzung von KI zur Erstellung anwaltlicher Arbeitsergebnisse ergeben sich in haftungsrechtlicher Hinsicht letztlich keine Besonderheiten. Haftungsgrundlage wird – wie auch in anderen Fällen – in der Regel § 280 BGB sein. Des Weiteren gelten die vom IX. Zivilsenat des Bundesgerichtshofs, der für die Anwaltshaftung zuständig ist, aufgestellten Maßstäbe. Danach hat der Rechtsanwalt den vom Mandanten geschilderten Sachverhalt umfassend aufzuklären, sodann den Mandanten umfassend in alle Richtungen rechtlich zu beraten und ihm den relativ sichersten Weg zur Zielerreichung vorzuschlagen.

Was gilt nun im eingangs angesprochenen Fall, dass ein mithilfe von KI erstelltes anwaltliches Arbeitsergebnis durch eine von der KI verursachte Halluzination rechtlich fehlerhaft ist?

Besteht die anwaltliche Pflicht zur vollumfänglichen Letztkontrolle des Arbeitsergebnisses oder kann der Anwalt sich beim KI–Einsatz auf eine (nicht lückenlose) Plausibilitätskontrolle beschränken? Letzteres würde bedeuten, dass im beschriebenen Fall eine Haftung des Anwalts gegebenenfalls entfallen könnte.

Die Hinweise der Bundesrechtsanwaltskammer zum Einsatz von künstlicher Intelligenz gehen auf Grundlage von § 43 Abs. 1 BRAO (Pflicht zur gewissenhaften Berufsausübung) von einer umfassenden Kontrollpflicht des Anwalts in berufsrechtlicher Hinsicht aus. Etwas weniger streng scheint die Formal Opinion 512 der American Bar Association zu sein, die beispielsweise bei der Prüfung großer Dokumentenmengen mithilfe von KI eine Plausibilitätsprüfung durch den Rechtsanwalt für ausreichend hält.

Aufgrund der äußerst strengen Maßstäbe, die der IX. Zivilsenat des Bundesgerichtshofs an die Rechtsanwaltshaftung anlegt, dürfte es aber nicht zu empfehlen sein, beim Einsatz von KI lediglich eine Plausibilitätskontrolle der erzeugten Arbeitsergebnisse vorzunehmen. Vielmehr steht zu erwarten, dass der BGH eine umfassende Kontrolle durch den Rechtsanwalt verlangen wird.

Die von der Bundesrechtsanwaltskammer berufsrechtlich geforderte anwaltliche Letztkontrolle von KI–generierten Arbeitsergebnissen wird daher wohl auch in haftungsrechtlicher Hinsicht der zu erwartende Maßstab sein, den die Rechtsprechung an derartige Fallkonstellation anlegt. Dies dürfte jedenfalls so lange gelten, wie die KI–Modelle nicht den intellektuellen Zuverlässigkeitsgrad eines durchschnittlichen Rechtsanwalts erreichen.

Hinsichtlich der weiteren Haftungsvoraussetzungen ist zu beachten, dass eine vom Anwalt zu vertretende Pflichtverletzung nur dann zu einem Schadensersatzanspruch führt, wenn nach der Differenzhypothese der Mandant ohne die fehlerhafte anwaltliche Leistung besser stünde. Selbst wenn der Anwalt die KI falsch eingesetzt hat, wird es an einem Schaden fehlen, wenn sich die Rechtslage auch bei korrekter rechtlicher Bewertung nicht besser dargestellt hätte.

Ein probates Mittel zur Haftungsbegrenzung ist die Vereinbarung eines eingeschränkten Mandatsumfangs zwischen Anwalt und Mandant. Beispielsweise kann vertraglich vereinbart werden, dass das Ergebnis der KI im Rahmen einer „Red Flag Due Diligence“ nur auf wesentliche Aspekte überprüft werden muss.

Durch diese zulässige Vorgehensweise kann der Rechtsanwalt sein Haftungsrisiko auf den Maßstab begrenzen, der im Rahmen einer Plausibilitätskontrolle gilt.

Da zu erwarten ist, dass Anwälte bei Ausübung ihrer beruflichen Tätigkeit in immer größerem Umfang auf KI–Anwendungen zurückgreifen, werden sich zwangsläufig auch die damit verbundenen Haftungsgefahren realisieren. Sprechen Sie uns gerne an, sollten Sie in haftungsrechtlicher und/oder versicherungsrechtlicher Hinsicht Fragen zu dieser Thematik haben. Wir gewährleisten nicht nur einen Versicherungsschutz, der auch den Einsatz neuer Technologien im Rahmen der Anwaltskanzlei umfasst, sondern begleiten Sie auch im Schadenfall.

Ass. iur.

Stephan Kohlhaas

+49 (0)2234.95354-50
s.kohlhaas@vlub.de

Stephan Kohlhaas

Sie haben Fragen?

Wir freuen uns auf Ihre Nachricht.

Jetzt kontaktieren