Coping with Certainty (CwiC)
Kurzbeschreibung
Vision: Digitalisierung und Künstliche Intelligenz werden in absehbarer Zeit weite Teile der Gesundheitsforschung und Gesundheitsversorgung nachhaltig verändern: dank Big Data und lernender Algorithmen wird der Faktor ‚Unwissen‘ bald aus dem Gesundheitssektor verbannt werden. Nichts wird mehr unbekannt oder verborgen bleiben – alles wird prognotizierbar, mit Wahrscheinlichkeitswerten versehen und gegeneinander abwägbar. Doch was bedeutet dies für den Einzelnen: sein konkretes Krankheitsrisiko zu kennen? Was bedeutet es für die Gesellschaft: statistisch genau zu wissen, wer, wann an welcher Krankheit erkranken und welche Kosten produzieren wird? Hält die gesellschaftliche Solidarität dies aus? Oder sind andere, völlig neue Regulierungsmechanismen zu erproben?
Als CwiC Projekt befassen wir uns mit diesen Themen und Fragen – und entwerfen die juristischen, ethischen und politischen Leitlinien, die uns als Gesellschaft vor einer Corpus-Delicti-artigen Gesundheitsdystopie bewahren!
Mittelgeber: Bundesministerium für Bildung und Forschung (BMBF)
Akronym: CwiC – Coping with Certainty
Projektzeitraum: 2020–2023
Teilprojekte
Juristisches Teilprojekt
Prof. Dr. Steffen Augsberg
Justus-Liebig-Universität Giessen
Professur für Öffentliches Recht
- Telefon: +4964199-21090
- E-Mail: steffen.augsberg@recht.uni-giessen.de
Ulrich von Ulmenstein
Justus-Liebig-Universität Giessen
Professur für Öffentliches Recht
- E-Mail: u_ulmenstein@outlook.de
Christina Lauppert von Peharnik
Justus-Liebig-Universität Giessen
Professur für Öffentliches Recht
Beschreibung: Rechtliches Teilprojekt
Das rechtliche Projekt beginnt mit einer theoretischen Erklärung des Begriffs juristischen Wissens und insbesondere der Art und Weise, wie das Gesetz bestimmte Fakten ignoriert. Von dort geht es weiter zu einer umfassenden Analyse der Situation de lege lata. Hier wird eine Grundrechtsperspektive Aufschluss über individuelle Gründe für eine gewissenhafte Unwissenheit geben, die dann den gesetzlichen Bestimmungen, insbesondere der Gesetzlichen Krankenversicherung (GKV), gegenübergestellt werden. Diese Normen orientieren sich am Grundprinzip der Solidarität, woraus u.a. folgt, dass der bestehende Gesundheitszustand gegenüber den Versicherungsgesellschaften nicht offengelegt werden muss. Es ist die Arbeitshypothese des Projekts, dass beide Argumentationslinien – die individuelle wie die kollektive – kombiniert werden können und sich gegenseitig ergänzen. So tragen sie dazu bei, festzustellen, ob und wo das Gesetz in seiner jetzigen Form eine gewissenhafte Unwissenheit zulässt oder fordert.
Ethisches Teilprojekt
Prof. Dr. Matthias Braun
Universität Bonn
Lehrstuhl für (Sozial-)Ethik
- Telefon: +4922873-60644
- E-Mail: matthias.braun@uni-bonn.de
Eva Maria Hille
Universität Bonn
Lehrstuhl für (Sozial-)Ethik
- E-Mail: eva.hille@uni-bonn.de
Max Tretter
Institut für Systematische Theologie
Lehrstuhl für Systematische Theologie II (Ethik)
- Telefon: +49 9131 85-26078
- E-Mail: max.tretter@fau.de
Beschreibung: Ethisches Teilprojekt
In Bezug auf die Solidarität existiert die tiefverwurzelte Vorstellung, dass Solidarität zumindest eine gewisse Unsicherheit erfordert. An dieser Vorstellung knüpft das ethische Teilprojekt an, indem es bestehende normative Diskurse über das Verhältnis von Solidarität und deren jeweilige Verflechtung mit Graden von Gewissheit befragt.
- Die erste Aufgabe behandelt die epistemologische Frage, inwieweit solidarische Gabe-Handlungen durch die Versprechen neuer KI-generierter Gewissheitsgrade in Frage gestellt werden.
- Eine zweite Aufgabe besteht darin, im Detail herauszuarbeiten, inwieweit der klinische Einsatz von KI das Vertrauen in Institutionen – als einer Voraussetzung für Solidarität – in Frage stellt.
- Die dritte Aufgabe beschäftigt sich mit den sich verändernden Formen der individuellen und kollektiven Steuerbarkeit in Zeiten des klinischen Einsatzes von KI. Wir haben bereits eine mehr oder weniger scharfe (kulturell tradierte) Vorstellung von individuellen Möglichkeiten der Steuerung – wie z.B. das Recht auf Nichtwissen, Ansprüche auf Transparenz oder Verantwortung und Haftung –, die notwendige Voraussetzungen darstellen um nicht nur freie Entscheidungen treffen zu können, sondern auch um zu entscheiden, unter welchen Bedingungen solidarisches Geben Ausdruck individueller Freiheit ist. Eine wichtige Frage wird sein, wie diese Formen der Kontrollierbarkeit herausgefordert werden, wenn sie nicht nur Unsicherheitsgrade zu bewältigen haben, sondern auch mit der Idee eines wachsenden Korpus von (postulierter) Gewissheit konfrontiert werden. Während dies allein schon eine komplexe Problematik darstellt, werden die Dinge noch komplizierter, wenn wir über Modi der kollektiven Steuerbarkeit und deren Einbettung in mehr oder weniger scharfe Konzepte von Räumlichkeit und Zeitlichkeit nachdenken.
Ökonomisches Teilprojekt
Prof. Dr. Nora Szech
Karlruher Institut für Technologie
Lehrstuhl für Politische Ökonomie
- Telefon: +49721608-43809
- E-Mail: nora.szech@kit.edu
David Benjamin Ehrlich
Karlsruher Institut für Technologie
Lehrstuhl für Politische Ökonomie
- Telefon: +49721608-43808
- E-Mail: david.ehrlich@kit.edu
Beschreibung: Ökonomisches Teilprojekt
CwiC untersucht die normativen und verhaltenswissenschaftlichen Herausforderungen im Umgang mit den neuen Möglichkeiten zur Prädiktion in und mit KI an der Schnittstelle von Wissenschaft, Gesellschaft und Technologie. Die Fähigkeit, zukünftige Entwicklungen mit beispielloser Genauigkeit vorauszusehen, betrifft dabei viele – wenn nicht gar alle – Bereiche des gesellschaftlichen Lebens.
Insbesondere im Gesundheitssektor ermöglicht die neue Art der Prognose eine wesentlich präzisere Planung, stellt andererseits aber auch zentrale Bezugspunkte in Frage: Individuelle Selbstkonzepte, unsere allgemeine Unterscheidung zwischen Krankheit und Gesundheit, sowie traditionelle Normen, wie etwa den Begriff der grundlegenden Solidarität, wie er auch mit Blick auf Konzepte der gesellschaftlichen Absicherung fundamental ist.
Im CwiC Teilprojekt Ökonomie wird der Umgang mit KI daher anhand der verhaltenswissenschaftlichen Perspektive genauer untersucht. Wie gehen Individuen mit den neuen Möglichkeiten um? Sind bessere Prognosemöglichkeiten überhaupt willkommen, oder eher nicht? Werden Konzepte von Versicherung in Frage gestellt oder verändert?
Die Nachfrage nach und Akzeptanz von präziserer Information durch den Einsatz von KI ist vermutlich stark normativ geprägt. Deshalb interessiert uns auch die Frage, wie soziale Information – insbesondere normativer Art – den Umgang mit KI beeinflusst. Um verhaltenswissenschaftliche Effekte zu untersuchen, führen wir am KD2-Lab des KIT ökonomische Studien durch. Die TeilnehmerInnen treffen dort incentivierte Entscheidungen – also Entscheidungen, die reale Konsequenzen haben, beispielsweise monetärer Natur – um eine hohe Validität der beobachteten Ergebnisse zu gewährleisten.
Ausgewählte Publikationen
For the sake of multifacetedness. Why artificial intelligence patient preference prediction systems shouldn’t be for next of kin
In: Journal of Medical Ethics (2023)
ISSN: 0306-6800
DOI: 10.1136/jme-2022-108775 , :
Ambivalenzen gegenwärtiger Gewissheitsbestrebungen. Menschliche Entscheidungsfreiheit in einer gewisserwerdenden Welt
In: Puzio A; Kunkel N; Klinge H (Hrsg.): Alexa, wie hast du’s mit der Religion? Interreligiöse Zugänge zu Technik und Künstlicher Intelligenz, Darmstadt: wbg, 2023, S. 135–156 (Theologie und Künstliche Intelligenz)
ISBN: 978-3-534-40783-5
Open Access: https://files.wbg-wissenverbindet.de/Files/Article/ARTK_ZOA_1030373_0001.pdf :
Malusregelungen für Covid-19-Ungeimpfte: Warum es richtiger wäre, sie nicht einzuführen
In: Zeitschrift für medizinische Ethik 69 (2023), S. 459-477
ISSN: 0944-7652
DOI: 10.30965/29498570-20230037 , , :
Sovereignty in the Digital and Contact Tracing Apps
In: Digital Society 2 (2022), S. 1–28
ISSN: 2731-4650
DOI: 10.1007/s44206-022-00030-2 :
Kein Malus für Ungeimpfte! Rechtliche Einwände gegen finanzielle Malusregelungen für nicht gegen Covid-19 geimpfte Personen
In: Medizinrecht 40 (2022), S. 1005 - 1010
ISSN: 0723-8886
DOI: 10.1007/s00350-022-6357-9 , , :
Limiting medical certainties? Funding challenges for German and comparable public healthcare systems due to AI prediction and how to address them
In: Frontiers in Artificial Intelligence (2022)
ISSN: 2624-8212
DOI: 10.3389/frai.2022.913093
URL: https://www.frontiersin.org/articles/10.3389/frai.2022.913093/full , , , :
How is “solidarity” understood in discussions about contact tracing apps? An overview
In: Frontiers in Public Health (2022)
ISSN: 2296-2565
DOI: 10.3389/fpubh.2022.859831
URL: https://www.frontiersin.org/articles/10.3389/fpubh.2022.859831/full :
Easing Restrictions During Vaccine Scarcity. How Mitigation Measures Help Tackling Associated Moral and Behavioral Challenges
In: Public Health Reviews (2021)
ISSN: 0301-0422
DOI: 10.3389/phrs.2021.1604269 , , :
Ethics of digital twins: Four challenges
In: Journal of Medical Ethics 47 (2021), S. 1-2
ISSN: 0306-6800
DOI: 10.1136/medethics-2021-107675 :
Perspectives on digital twins and the (im)possibilities of control
In: Journal of Medical Ethics 47 (2021), S. 410-411
ISSN: 0306-6800
DOI: 10.1136/medethics-2021-107460
URL: https://jme.bmj.com/content/early/2021/05/17/medethics-2021-107460 :
Represent me: please! Towards an ethics of digital twins in medicine
In: Journal of Medical Ethics 47 (2021), S. 394-400
ISSN: 0306-6800
DOI: 10.1136/medethics-2020-106134
URL: https://jme.bmj.com/content/47/6/394 :
Data sovereignty: A review
In: Big Data & Society (2021)
ISSN: 2053-9517
DOI: 10.1177/2053951720982012 , , , :
Just data? Solidarity and justice in data-driven medicine
In: Life Sciences, Society and Policy 16 (2020), Art.Nr.: 8
ISSN: 2195-7819
DOI: 10.1186/s40504-020-00101-7
URL: https://lsspjournal.biomedcentral.com/articles/10.1186/s40504-020-00101-7 , :
Contact-tracing apps: contested answers to ethical questions
In: Nature 583 (2020), S. 360
ISSN: 0028-0836
DOI: 10.1038/d41586-020-02084-z
URL: https://www.nature.com/articles/d41586-020-02084-z , :