Ärzteschaft: Künstliche Intelligenz ist Mehrarbeit
Für Radiologen gibt es bis zu 300 KI-Anwendungen, die versprechen, sie im Arbeitsalltag zu unterstützen.
Foto: Siemens HealthineersDüsseldorf. Das Ergebnis ist erschreckend: Eine Künstliche Intelligenz (KI) bestimmt die Ethnie von Patienten aus Röntgenaufnahmen, obwohl keine weiteren Daten mitgeliefert wurden. Die Wissenschaftler aus Australien, Kanada und den USA, die hinter der Untersuchung stehen, warnen vor Diskriminierung: Es müsse immer mitgedacht werden, dass eine KI Menschen mit einer unterschiedlichen Hautfarbe unterschiedlich behandle. Auch, wenn ihre Erschaffung gar nicht darauf ausgelegt sei.
Noch konnten die Forscher nicht feststellen, warum die KI die Zuordnung vorgenommen hat. Offene Fragen in Verbindung mit einer medizinischen KI greift jetzt auch die Zentrale Ethikkommission der Bundesärztekammer (ZEKO) auf. In der Stellungnahme „Entscheidungsunterstützung ärztlicher Tätigkeit durch Künstliche Intelligenz“ fasst die ZEKO zusammen, welche Erwartungen Ärzte heute an die Arbeit mit einer KI haben können.
Der Arzt haftet
Damit die Technologie angemessen eingesetzt werden kann, fordert die ZEKO Ärzte auf, sich digitale Kompetenzen anzueignen. Denn wenn die KI falsch entscheidet, haftet der Arzt. Einerseits soll das Personal den Umgang mit der Technologie also beherrschen, andererseits Grenzen einschätzen können. „Wir brauchen ein Verständnis, das so tief geht, dass wir Fehler erkennen können“, sagt Sergio Gatidis von der Deutschen Röntgengesellschaft. Ärzte müssten dafür künftig in der Ausbildung auf die Arbeit mit Algorithmen vorbereitet werden.