Biomedizinische künstliche Intelligenz

Kann Künstliche Intelligenz fair sein? FairMed – Ein neuer Weg zu mehr Gerechtigkeit in der automatisierten Medizin

Dr. Marco V. Benavides Sánchez.

Im digitalen Zeitalter, in dem Algorithmen bestimmen, welchen Film wir schauen oder welche Route wir zur Arbeit nehmen, wird eine Frage immer drängender: Was passiert, wenn eine Künstliche Intelligenz (KI) medizinische Entscheidungen trifft? Und vor allem: Tut sie das gerecht?

Die Versprechen der KI in der Medizin sind gewaltig: schnellere Diagnosen, Chatbots, die rund um die Uhr medizinische Fragen beantworten, und Systeme, die Tausende von Patientendaten in Sekunden analysieren können. Doch mit diesen Fortschritten wächst auch eine ernsthafte Sorge: Könnten diese Systeme bestehende Ungleichheiten in der Gesundheitsversorgung nicht nur abbilden, sondern sogar verstärken?

Hier setzt FairMed an – ein innovativer Vorschlag, um eine der sensibelsten Widersprüche im Einsatz von KI im Gesundheitswesen zu lösen: Leben retten, ohne zu diskriminieren. Die 2025 in der Fachzeitschrift Artificial Intelligence in Medicine veröffentlichte Studie von Haohui Lu und seinem Team stellt eine konkrete Strategie vor, um demografische Verzerrungen (Bias) in KI-basierten medizinischen Empfehlungen zu erkennen und zu mindern.


Automatisierte Medizin – aber mit Vorurteilen?

Stellen wir uns eine beunruhigende, aber realistische Szene vor: Zwei Personen stellen einem KI-basierten medizinischen Assistenten dieselbe Frage mit identischen Symptomen. Eine ist ein weißer Mann, 35 Jahre alt, die andere eine indigene Frau, 60 Jahre alt. Sollten sie dieselbe Antwort bekommen? Theoretisch ja – doch Studien zeigen, dass große Sprachmodelle (LLMs), auf denen viele solcher Systeme basieren, Menschen nicht immer gleich behandeln.

Der Grund dafür liegt in den Daten. Diese Modelle lernen aus riesigen Textsammlungen – darunter wissenschaftliche Artikel, soziale Medien, elektronische Patientenakten –, die bestehende gesellschaftliche Ungleichheiten widerspiegeln. Wenn diese Verzerrungen nicht korrigiert werden, kann es passieren, dass das Modell unbewusst nach Geschlecht, Alter oder Herkunft unterschiedlich reagiert – und das kann gefährlich werden.

Genau hier setzt FairMed an: Das Ziel ist es, solche systematischen Verzerrungen zu erkennen und zu korrigieren, bevor sie Schaden anrichten.


Was ist FairMed und wie funktioniert es?

FairMed ist keine Software, sondern ein methodischer Rahmen, um KI-Systeme im medizinischen Bereich gerechter zu gestalten. Dabei setzt das Projekt auf zwei zentrale Strategien:

  1. Feinabstimmung des Modells (Fine-Tuning), und
  2. Gezielte Gestaltung der Eingabeanweisungen (Prompt Engineering), also die Art und Weise, wie Fragen an das Modell formuliert werden.

Das Forschungsteam testete FairMed mit drei verschiedenen medizinischen Datensätzen:

  • MedQA, ein öffentlich zugänglicher Fragenkatalog aus realen medizinischen Prüfungen,
  • Synthea, ein synthetischer Datensatz mit fiktiven Patientenakten, und
  • CBHS, eine private Datenbank mit klinischen Informationen verschiedener demografischer Gruppen.

Für die Analyse verwendeten die Forscher mehrere Fairness-Metriken:

  • Statistical Parity Difference (SPD) misst Unterschiede zwischen Gruppen in der Antwortverteilung.
  • Disparate Impact Ratio zeigt auf, ob bestimmte Empfehlungen Gruppen überproportional betreffen.
  • Kullback-Leibler-Divergenz analysiert Unterschiede in der Wahrscheinlichkeitsverteilung der Antworten.

Außerdem wurde untersucht, ob medizinische Empfehlungen je nach Geschlecht oder Ethnie variieren – z. B. bei Überweisungen zu Fachärzt:innen oder vorgeschlagenen Maßnahmen.


Deutliche Verbesserungen durch FairMed

Die Ergebnisse waren vielversprechend: FairMed konnte Verzerrungen im Modellverhalten deutlich reduzieren, ohne dabei die medizinische Genauigkeit zu gefährden.

So sank z. B. der Statistical Parity Difference für geschlechtsspezifische Antworten von 0,0902 auf 0,0658 – ein bedeutender Schritt in Richtung Gleichbehandlung. Auch beim Einsatz von direktivem Sprachstil – etwa wenn das Modell empfiehlt, „einen Arzt aufzusuchen“ – wurden Unterschiede zwischen Gruppen weitgehend eliminiert.

Noch beeindruckender war, dass klinische Empfehlungen nicht mehr unbegründet zwischen verschiedenen Ethnien oder Altersgruppen variierten. Wichtige Fairness-Indikatoren wie der Action Disparity Index und die Referral Frequency Parity verbesserten sich ebenfalls signifikant.

All dies gelang durch eine Kombination aus gezielter Modellentwicklung und empathischer, klar formulierter Kommunikation mit dem System.


Gerechtigkeit als ethischer Imperativ

Doch FairMed ist mehr als eine technische Lösung. Es ist ein Paradigmenwechsel. Bisher lautete die zentrale Frage bei medizinischer KI: Funktioniert sie zuverlässig? Heute müssen wir weiterdenken: Ist sie auch gerecht?

Wie die Autor:innen betonen, ist der Weg zu fairer KI nicht nur eine Frage des Codes. Es geht darum, welche Daten genutzt werden, wie Modelle trainiert werden und wie sensibel sie auf Vielfalt reagieren. FairMed fordert dazu auf, KI nicht nur als technisches Werkzeug zu betrachten, sondern als Teil einer ethischen Praxis im Gesundheitswesen.


Was steht auf dem Spiel?

Die Nutzung von KI in der Medizin ist längst Realität. Von Triage-Systemen in Notaufnahmen bis hin zu digitalen Therapiebegleitern – immer mehr medizinische Entscheidungen werden durch automatisierte Systeme beeinflusst.

Wenn diese Systeme nicht von Anfang an gerecht gestaltet werden, besteht die Gefahr, dass bestehende Ungleichheiten verfestigt oder sogar verschärft werden – etwa durch eine systematische Unterdiagnostik bei Frauen oder geringere Überweisungsraten bei marginalisierten Gruppen.

FairMed ist deshalb nicht nur ein technischer Fortschritt. Es ist ein Aufruf, die Entwicklung medizinischer KI als ethische Aufgabe zu begreifen. Denn in der Medizin ist Fairness kein Luxus – sondern eine Frage des Überlebens.

Zum Weiterlesen:

  • Lu, H., Lin, Y., Li, Z., Yiu, M. L., Gao, Y., & Uddin, S. (2025). Toward fair medical advice: Addressing and mitigating bias in large language model-based healthcare applications. Artificial Intelligence in Medicine, 103216. https://doi.org/10.1016/j.artmed.2025.103216

#ArtificialIntelligence #Medicine #Surgery #Medmultilingua

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert