Foto: privat

Geschlechter-Bias und Künstliche Intelligenz in der Biomedizin und Versorgung

Präzisionsmedizin, unabhängig von biologischem und sozialem Geschlecht: Um diesem Anspruch gerecht zu werden, müssen die Daten in der Digitalen Medizin frei von Verzerrungen sein. Eine Studie beleuchtet nun, wie gut oder schlecht das momentan gelingt.

Der Wunsch nach Präzisionsmedizin, der technische Fortschritt sowie die vermehrte Verfügbarkeit von medizinischen Daten bewirkten in den vergangenen Jahren eine rasche Verbreitung von Künstlicher Intelligenz (KI) in Medizin und Forschung. KI-Anwen­dungen benötigen große Datenmengen. Diese bestimmen die Qualität der KI-Algorithmen. Verwendete Daten sollten darum standardisiert und interoperabel sein, um ungewollten Bias zu verhindern. Dieser Artikel fasst die Übersichtsarbeit von Cirillo et al. (doi: 10.1038/s41746-020-0288-5) zum Thema „Geschlechter- Bias in der KI“ zusammen.

Aktueller Stand und Ursachen

Zunächst gilt es, zwischen ungewolltem und gewolltem Bias zu unterscheiden: Gewollter Bias enthält analysierbare Daten mit Zuordnung zum Geschlecht, die eine individuelle Präzisionsmedizin ermöglichen. Ungewollter Bias entsteht durch Geschlechterdiskriminierung. Er entwickelt sich immer dann, wenn die Daten die Allgemeinbevölkerung nicht repräsentieren.

Eine Unterrepräsentation des weiblichen Geschlechts in experimentellen und klinischen Daten ist bekannt. Wegen der physiologischen Unterschiede zwischen den Geschlechtern ist dies fatal im Hinblick auf die adäquate Evaluation neuer Therapiemöglichkeiten. Unterstrichen wird dies durch die Tatsache, dass die meisten pharmakologischen Nebenwirkungen von Frauen gemeldet werden.

Ein weiterer Punkt sind digitale Biomarker, die durch Mensch-Computer-Interaktion erhoben werden, etwa über Smartphones. Auch hier zeigte sich, dass Informationen bezüglich des Geschlechtes zur Analyse fehlen und vor allem männliche Daten verwendet werden. In Ländern mit niedrigerem bis mittlerem Einkommen fehlt vor allem Frauen der Zugang zu Internet und Smart­phones, was den Geschlechter-Bias bei der Nutzung dieser Daten verstärkt. Der Geschlechter-Bias betrifft auch Big Data, Natural Language Processing und Robo­tics. In der Übersichtsarbeit wird auch das im Detail erläutert.

Mit dem zunehmenden Einsatz und der wachsenden Lernfähigkeit von KI wurden die KI-Algorithmen immer komplexer, was zum Problem der „Black Box“ führt. „Black Box“ beschreibt das fehlende Verständnis, wie der KI-Algorithmus zu seinen Ergebnissen gelangt. Daher gibt es vermehrt Anforderungen für eine Erklärtechnik von KI, die „Explainable AI“ (XAI). Sie kann fehlerhafte Outcomes sowie Bias entlarven. XAI ist jedoch ein relativ neues Forschungsfeld, in dem bisher keine Aktivitäten zur Untersuchung von Geschlechter-Bias erfolgt sind.

Das ist zu tun

Gerade jetzt müssen wir investieren, um geschlechtergerechte KI zukünftig zu etablieren. Das Wissen um ungewollten und gewollten Bias zur adäquaten Repräsentation von verschiedenen Geschlechtern und Minderheiten muss in das Bewusstsein von Expert:innen aus Wissenschaft, Medizin und Industrie gelangen. Für faire KI-Algorithmen braucht es Datensätze, die sich an den FAIR-Prinzipien (für „findable“, „accessible“, „inter­operable“ und „reusable“) orientieren sowie internationale Standards nutzen.

Bias früh erkennen

Unter Berücksichtigung ethischer Anforderungen sollte die Implementierung von XAI gefördert werden, um Geschlechter-Bias frühzeitig zu erkennen. Nur so können wir alle als Gesellschaft von der Präzisionsmedizin durch KI-Algorithmen profitieren.

Dr. med. Carina Vorisek ist approbierte und ECFMG-zertifizierte Medizinerin in der Ausbildung für Allgemeinmedizin mit einem Master of Science in Clini­cal Research sowie wissenschaftlicher Erfahrung in den USA. Sie arbeitet in der Core Unit eHealth und Interoperabilität des Berlin Institute of Health at Chari­té – Universitätsmedizin Berlin am Projekt NFDI4Health. Sie setzt sich für die breite Anwendung internationaler Standards im Gesundheitssystem sowie Chancengleichheit in der Digitalen Medizin ein.

carina-nina.vorisek@charite.de