Georg Thieme Verlag KG
kma Online
Der kma Entscheider-Blog

kma Entscheider BlogWerden Ärzte mit KI zu besseren Medizinern?

Diskussionen über die ärztliche Verantwortung sind nicht neu, zum Beispiel bei der Delegation an nicht-ärztliches Personal. Zukünftig werden wir auch über die Verantwortung bei der Nutzung von Künstlicher Intelligenz (KI) und Unterstützungssystemen zur Entscheidungsfindung sprechen müssen.

Timo Frank
Privat

Timo Frank, Market Access Manager bei der Ada Health GmbH und Mitgründer von Hashtag Gesundheit.

„Berlin, 2030: Eine Ärztin steht vor Gericht. Sie muss sich dafür verantworten, weshalb sie im Rahmen ihrer ärztlichen Sorgfaltspflicht die Hinweise einer Künstlichen Intelligenz missachtet hatte. In ihrem Krankenhaus wurde im Jahr 2022 ein System zur Entscheidungsunterstützung eingeführt, dessen Nutzung seit 2030 gesetzlich verpflichtend ist. Die Nichtbeachtung des KI-basierten Systems der Ärztin führte zu einem Medikationsfehler, an dem ihre Patientin A gestorben ist.“

Ist die Nicht-Nutzung von Künstlicher Intelligenz ethisch vertretbar?

Diese Geschichte aus der Zukunft beschreibt ein Szenario, dass wir uns heute noch nicht vorstellen können: Die Pflicht zur Nutzung von Künstlicher Intelligenz. In der Diskussion über Künstliche Intelligenz beschäftigen wir uns überraschend oft mit der Frage, welche Gefahren sie birgt. Wir stellen hohe Anforderungen an die Fehlerfreiheit von Künstlicher Intelligenz. Fehler von KI-Systemen, zum Beispiel Verkehrsunfälle autonom fahrender Autos, erhalten eine höhere Aufmerksamkeit als menschliche Fehler im Straßenverkehr.

Wir sprechen allerdings wenig darüber, welche Gefahren die Nicht-Nutzung von KI-Systemen mit sich bringt. In Deutschland sterben schätzungsweise 25 000 Personen jährlich an Medikationsfehlern oder Arzneimittelnebenwirkungen, die durch den Einsatz von Entscheidungsunterstützungssystemen vermeidbar wären. Nicht nur beim autonomen Fahren, auch durch die Unterstützung von Ärztinnen und Ärzten, kann der Einsatz von Künstlicher Intelligenz also das Leben von Menschen retten. Wird es in Zukunft zur ärztlichen Sorgfaltspflicht gehören eine Künstlichen Intelligenz zu befragen?

Klinische Entscheidungsunterstützung durch Künstliche Intelligenz

Es gibt zahlreiche Anbieter, die KI-basierte Systeme zur klinischen Entscheidungsunterstützung, sogenannte CDSS, entwickeln. Hierzu zählen computergestützte Erinnerungsmeldungen und Warnungen oder die Diagnoseunterstützung durch eine Zusammenfassung von kontextrelevanten Patienteninformationen.

Darüber hinaus können CDSS als Frühwarnsystem dienen: Etwa vier Millionen Deutsche leiden an einer seltenen Erkrankung. Viele dieser Menschen wissen jahrelang nichts von ihrem Schicksal, im Durchschnitt dauert das Auffinden der korrekten Diagnose fünf Jahre. Die Ärztin aus unserer Geschichte hätte mit Unterstützung einer Künstlichen Intelligenz womöglich eine frühere Diagnose stellen,  früher eine Behandlung beginnen und damit zur Leidminderung beitragen können.

Die ersten deutschen Krankenhäuser beginnen bereits heute mit der Einführung von CDSS, da diese im Rahmen des Krankenhauszukunftsgesetzes (KHZG) gefördert werden. Der Anstoß einer Debatte zu Entscheidungsunterstützungssystemen scheint also längst überfällig.

Stellungnahme der Bundesärztekammer zu CDSS

Am 23. August 2021 veröffentlichte die Zentrale Ethikkommission (ZEKO) der Bundesärztekammer (BÄK) ihre Stellungnahme zur Entscheidungsunterstützung ärztlicher Tätigkeit durch Künstliche Intelligenz. Darin werden Fragen zum Einsatz von KI-Systemen in der Medizin aus medizinischer, ethischer und rechtlicher Perspektive beleuchtet. Der Fokus der Stellungnahme: Clinical Decision Support Systems. Der Einsatz von KI in der Medizin werde mit hohen Erwartungen verbunden, aber auch mit einem Potential zur Verbesserung der Gesundheitsversorgung. Dass die Spitzenorganisation der ärztlichen Selbstverwaltung den Bedarf für eine KI-basierte Entscheidungsunterstützung erkennt, um „dem behandelnden Arzt jederzeit zielgerichtet aktuelles medizinisches Wissen zugänglich“ zu machen, ist ein starkes Signal. Doch einige Ärztinnen und Ärzte verbinden mit dem Begriff Künstliche Intelligenz berechtigterweise noch Ängste. Um diesen Ängsten zu begegnen ist es wichtig Akzeptanz für jene Technologien aufzubauen. Die Stellungnahme der BÄK ein erster guter Schritt in die diese Richtung.

Was es jetzt braucht

Vor dem Hintergrund umzusetzender KHZG-Projekte zur klinischen Entscheidungsunterstützung müssen alle Ärztinnen und Ärzte sowie nicht-ärztliches Personal zeitnah auf den angemessenen Umgang mit CDSS vorbereitet werden.

Wichtig ist: Eine Künstliche Intelligenz wird niemals die Verantwortung für diagnostische oder therapeutische Entscheidungen übernehmen können! Für das Vertrauen in KI-Systeme ist es nicht zwingend notwendig, dessen Algorithmen zu verstehen, sondern seine Argumentationsfähigkeit. Denn auf absehbare Zeit ist es weiterhin menschlich erwünscht, ethisch geboten und rechtlich erforderlich, dass Ärztinnen und Ärzte Entscheidungen treffen. Was es jetzt braucht: Der Wille zur kollaborativen Zusammenarbeit mit KI-basierten Lösungen!

Nutzungs­bedingungen

Bitte loggen Sie sich ein, um einen neuen Kommentar zu verfassen oder einen bestehenden Kommentar zu melden.

Jetzt einloggen

  • Derzeit sind noch keine Kommentare vorhanden. Schreiben Sie den ersten Kommentar!