Heiße und vermiedene Diskussionen bei den Alpbacher Gesundheitsgesprächen

Zwei Diskussionspodien prägten den ersten Vormittag der Alpbacher Gesundheitsgespräche: Das eine fragte nach den Kosten von Innovationen im und für das Gesundheitssystem, das zweite nach Nutzen und Nachteil der künstlichen Intelligenz für die Medizin.

Congress Centrum Alpbach/Hannes Senfter
Die Alpbacher Gesundheitsgespräche diskutierten Innovationskosten und künstliche Intelligenz

So manchem Konflikt, der sich zwischen den Aussagen der Teilnehmer ergeben hätte, ging man etwas aus dem Weg: Wenn Thomas Gebauer, Sprecher der Stiftung Medico International etwa ein „Ende des bestehenden Forschungsparadigmas, das F&E an spätere Verkaufsspannen koppelt“ und die „Demokratisierung von Innovation“ durch „Formen der demokratischen Selbstverwaltung im Gesundheitswesen“ forderte, hätte man Einspruch von Sabine Radl (Commercial Head Established Products Mature Markets bei Sanofi) und Peter Neubeck (Partner beim Venture-Capital-Unternehmens Kurma Partners) erwartet. Es oblag dem im Publikum sitzenden Jan Oliver Huber (ehemaliger Geschäftsführer des Parma-Verbands Pharmig), nach konkreten Modellen für die Realisierung solche Forderungen zu fragen. Gebauer verwies auf die Notwendigkeit einer öffentlichen Debatte zur Prioritätensetzung in der Forschung. Dies geschehe nur zum Teil. Viel zu stark seien die Universitäten als Träger der Forschungsarbeit aber von „Stakeholdern mit ökonomischen Interessen“ beeinflusst. Radl konnte demgegenüber nicht sehen, worin da der Konflikt liegen solle. Die Pharmaindustrie adressieren ja nicht nur chronische Erkrankungen, von denen unzählige Menschen betroffen sind, sondern auch eine Vielzahl seltener Erkrankungen oder entwickle Impfstoffe gegen Infektionskrankheiten, die in tropischen Ländern vorkommen. Das würde zu wenig betrachtet.

Neubeck erweiterte indes den Blick durch den Hinweis, wesentlich mehr Impact auf das Gesundheitssystem als neue Arzneimittel und Medizingeräte (von denen auch sein VC-Unternehmen heute hauptsächlich lebt) hätten Innovationen zu organisatorischen Aspekten des Gesundheitswesens, etwa in der Organisation eines Krankenhauses oder im Modell einer Versicherung, die vielen Menschen Zugang zu den Früchten der Forschung verschaffe. Der Eintritt großer IT-Unternehmen wie Google oder Amazon, in deren Lösungen es stets darum gehe, eine Vielzahl von Akteuren zu vernetzen, könnte hier ganz neue Perspektiven einbringen. Aber niemand wisse heute, wie genau sich das ausgestalten werde.

 

Diagnostizieren Algorithmen besser?

Harald Kittler, Leiter einer Forschungsgruppe zur Bildgebung in der Dermatologie konnte als Teil des zweiten Podiums auf Erfolge der künstlichen Intelligenz in der Diagnose von Melanomen berichten. Eine Studie, die in der Fachzeitschrift „The Lancet Oncology“ erschien, zeigte die klare Überlegenheit von selbstlernenden Bilderkennungsalgorithmen gegenüber Fachärzten, selbst wenn diese schon erfahren waren. Nicht so eindeutig fiel die Bilanz aus, wenn man in die zu beurteilenden Bilddaten bewusst etwas „versteckt“, was dort nicht hingehört – zum Beispiel braune Flecken, die nicht auf einer menschlichen Haut sondern auf einer Bananenschale zu finden waren. Kittler plädierte dafür die digitalen Werkzeuge nicht als „Ersatz“ sondern als Unterstützung für den klinischen Praktiker zu verwenden. Gerade bei Anfängern im Fach könnte die Berücksichtigung von KI-Ergebnissen bei der Diagnose-Entscheidung stark verbesserte Resultate erbringen. Es sei unethisch, ein solches Hilfsmittel nicht einzusetzen, so der Dermatologe.

Dem konnte auch Alena Buyx, Leiterin des Instituts für Geschichte und Ethik der Medizin an der TU München, beipflichten. Allein – die Erkennung von Krebs sei ein Anwendungsfall, der ethisch kaum umstritten sei. Das sehe bei anderen Anwendungen schon anders aus: Mit KI könne auch aus Aufnahmen menschlicher Gesichter auf eine Neigung zu sozialen Dysfunktionen geschlossen werden – und es sei offensichtlich, dass das in vielen Szenarien nicht wünschenswert sei. Zudem bestehe in vielen Datenpools, die zum Trainieren der Algorithmen verwendet würden, eine starker Bias – etwa wenn viel weniger Frauen als Männer oder bestimmte Minderheiten unzureichend abgebildet seien und die Aussagen dennoch auf diese Zielgruppen bezogen würden.