Forschung

AG Ethik und Theorie der Digitalisierung im Gesundheitswesen

 

  • Mein Doktor, die KI und ich: Künstliche Intelligenz in der Gesundheitsversorgung aus der Sicht von Bürger:innen und Ärzt:innen

gefördert vom Niedersächsischen Ministerium für Wissenschaft und Kultur im Rahmen des Programms „Zukunftsdiskurse“
Laufzeit: 1. Oktober 2023 bis 31. Dezember 2024

Künstliche Intelligenz wirkt als neuer Mitspieler auf allen Ebenen der Gesundheitsversorgung auf die Beziehungen und Rollenverständnisse der Beteiligten. Besonders betroffen davon ist die Begegnung von Patient:innen und Ärzt:innen. Wir adressieren mit unserem Zukunftsdiskurs eine Reihe neuartiger und bisher ungeklärter Fragen: Sollten Ärzt:innen diagnostische Systeme auf Basis Künstlicher Intelligenz als „Kolleg:innen“ oder als ein Werkzeug zur Entscheidungsfindung ansehen? Wie sollten Patient:innen damit umgehen, wenn Ärzt:innen nicht einer Meinung mit den Empfehlungen einer Künstlichen Intelligenz sind? Welche neuen Kompetenzen brauchen Patient:innen und Ärzt:innen, wenn Künstliche Intelligenz beteiligt ist, und wie sollten Patienteninformation und -aufklärung gestaltet werden?
Ziel des Projekts ist die Entwicklung von Zukunftskonzepten zur ethischen Implementierung von Künstlicher Intelligenz auf der kommunikativen Mikroebene der Gesundheitsversorgung, nämlich in der Begegnung von Patient:innen und Ärzt:innen. Anhand eigens entwickelter narrativer und illustrierter Fallvignetten als „patient journey“ bzw. „physician journey“ soll ein multiperspektivischer Diskursraum eröffnet werden. Der Diskurspfad führt über vier Diskursstationen, in denen die Bürger:innen in ihrer Rolle als potenzielle Patient:innen sowie Ärzt:innen in das Themenfeld eingeführt werden und die Fallvignetten als Grundlage für lösungsorientierte Zukunftskonzepte diskutieren werden. Diese Zukunftskonzepte sollen in ein „living document“ mit Handlungsempfehlungen für die Begegnung von Ärzt:innen und Patient:innen einfließen für den Fall, wenn Künstliche Intelligenz beteiligt ist.

 

  • DESIREE - DEcision Support In Routine and Emergency HEalth Care: Ethical and Social Implications

BMBF-Verbundprojekt, Laufzeit 2020-2023

Homepage

 

  • Levels of explicability for medical artificial intelligence: What do we need and what can we get?

The umbrella term explicability refers to efforts to reduce the black box character of artificial intelligence (AI) systems. These efforts are considered crucial for diagnostic AI applications because there are tradeoffs between accuracy and opacity. The centrality of explicability invites to reflect on the ethical requirements for diagnostic AI systems. These requirements originate from the fiduciary doctor-patient-relationship and contain aspects of informed consent. The aim of the project is to determine the levels of explicability required for ethically defensible informed consent processes and how they can technically be met by developers of medical AI.

 

  • The false Dichotomy of Competition and Cooperation: How Artificial Intelligence will shape the new Role of Radiologists

The debate about the impact of artificial intelligence (AI) on the role of radiologists created identity-threatening fears of to be replaced by machines. Radiologists replied that there would only be an augmentation of the radiological workflow by AI. The project will extract, synthesize, and analyze the ethical implications for professionalism of the arguments against the hypothesis that AI systems will replace radiologists.

 

  • Hologram techniques for Digital Surgery: An Analysis of Ethical Issues of intraoperatively applied Mixed and Augmented Reality Technologies

Head-mounted displays that superimpose holograms onto patients are of particular surgical interest, as they are believed to dramatically change surgical standards and techniques in the future. The project will explore and analyze the ethical issues of newly introduced mixed and augmented reality technologies in surgical intervention in the operating room.