Für viele medizinische Anwendungsgebiete – Praxisorganisation / Diagnostik / Behandlungsempfehlung / Strukturierung Praxisablauf / Assistenten für Telefonate und kurze Schreiben bzw. Dokumentation verspricht die Unterstützung durch KI-Potenzial. Fraglich ist, wer die Haftung für fehlerhafte KI übernimmt. Welcher Haftungsmaßstab gilt hier und welche Schutzvorrichtung sind zu treffen?
Bislang sind diese Umstände gesetzlich nicht geregelt, die aktuellen Haftungsvorgaben enthalten keine auf die Verwendung der KI in der Medizin adaptierten Sonderregeln. Zudem gibt es aufgrund dieses neuen Bereichs auch noch keine höchstrichterliche Rechtsprechung. Rechtssystematisch wirft der Einsatz von KI zudem neue Fragen im Arzthaftungsrecht auf, da zusätzlich zu dem üblichen Arzt-Patienten-Verhältnis nunmehr die KI unterstützend hinzutritt. Insoweit lassen sich rechtliche Fragen an Hand das jetzige Reglement bestmöglich vorausschauend beantworten – vorbehaltlich – selbstverständlich gesetzlicher Neureglungen.
Zunächst ist es üblich, den Korridor medizinischer Standards weiterzuentwickeln und somit zu verlassen. Anders gibt es kein Fortschritt. Die Therapiewahl ist selbstverständlich Sache der Arzt/Ärztin, denen ein Beurteilungsspielraum bei der Wahl der Diagnostik und Therapie zusteht. Im Rahmen der ärztlichen Therapiefreiheit ist somit auch die Verwendung von KI grundsätzlich zulässig.
Insoweit müssen Arzt/Ärztin die jeweils erwartenden Vorteile dieser neuen Methode mit möglichen Nachteilen abgleichen, dies hat in einer verantwortlichen medizinischen Abwägung zu geschehen. Die höchstrichterliche Rechtsprechung betont die Bedeutung dieser Abwägung, höhere Belastungen oder Risiken für Patienten durch Besonderheiten den konkreten Fall müssen durch günstigere Heilungsprognose sachlich gerechtfertigt sein. Eine solche Abwägung ist grundsätzlich auch vorzunehmen, wenn es sich um den Einsatz von KI handelt. KI kann also nicht uneingeschränkt oder vorschnell zur Anwendung kommen, vielmehr muss ein medizinischer Mehrwert für den Patienten begründbar sein und im Verhältnis zum immanenten Risiko beim Einsatz dieser neuen Technik im Verantwortlicherweise abgewogen werden.
Solche Abwägungsvorgänge müssen stets Einzelfall bezogen erfolgen, woraus sich also erhöhte Überwachungspflicht zum Einsatz der KI in der eigenen Praxis ergeben.
KI kann nicht selbst für Fehler in Diagnose oder Therapie verantwortlich gemacht werden, hierfür fehlt eine gesetzliche Grundlage. Die endgültige Diagnose- und Therapieentscheidung liegt somit weiterhin bei Arzt/Ärztin, die also auch die rechtliche Verantwortung tragen.
Soweit also KI unter Berücksichtigung dieser Maßstäbe noch nicht zur Standardmethode im konkreten Behandlungsfall gehören, gelten die Grundsätze zur Aufklärung über Neulandmethoden. Das bedeutet, dass Patienten nicht wie üblich über Chancen und Risiken einer medizinischen Maßnahme aufgeklärt werden, vielmehr ist auch zu erwähnen, dass der geplante KI-Einsatz noch nicht medizinischer Standard ist. Der Patient muss also wissen, auf was er sich einlässt.
Grundsätzlich ist zu empfehlen, in jedem Fall eines KI-Einsatzes die Patienten initiativ aufzuklären bzw. diese Aufklärung in den Aufklärungsbogen zu übernehmen. Den Patienten muss klar werden, dass eine neuartige Behandlungsmethode angewandt wird – nämlich unter Einsatz von KI – es sind Chancen und Risiken einerseits der Standardmethode und andererseits der alternativen Herangehensweise unter Einbeziehung der KI zu erläutern.
Im Übrigen darf die KI selbst keine eigenen Aufklärungsgespräche führen, denn nach § 630 Abs. 2 Satz 1 BGB muss die Aufklärung mündlich durch den Behandelnden oder eine Person erfolgen, die über die zu Durchführung der Maßnahme notwendige Ausbildung verfügt. Somit muss also eine natürliche Person die Aufklärung führen, wobei die KI die Aufklärung gut vorbereiten und dadurch Zeit verkürzen kann. Sollte sich ein KI-System hier zu einer Standardmethode entwickeln, wäre eine Aufklärung nach den üblichen Grundsätzen ausreichend.
Insoweit müssen Arzt/Ärztin stets in der Lage sein, den der KI-Anwendung zum grundlegenden Algorithmus grundsätzlich zu verstehen und eine Risikoeinschätzung vorzunehmen. Andernfalls bestünde die Gefahr eines Automation Bias, den im Vertrauen auf die KI-Ergebnisse könnten atypische Fälle übersehen werden. Es droht ggf. „Deskilling“, wenn Arzt/Ärztin nicht selbst zur diagnostischen Einschätzung kommen.
Mit einer gesetzlichen Neuregelung ist nicht zu rechnen, soweit andernfalls Verantwortungsdiffusion entstehen könnte. An Stelle des einfachen Arzt-Patienten-Verhältnisses käme dann ansonsten ein Nebeneinander von Hersteller, Programmierer, Regelungsbehörde, medizinischer Anwender und Patient. Insoweit ist also stets eine menschliche Plausibilitätskontrolle und die Möglichkeit manueller Korrekturen wichtig.
Kontakt: Jörg Hohmann