Coping with Certainty (CwiC)

Kurzbeschreibung

Vision: Digitalisierung und Künstliche Intelligenz werden in absehbarer Zeit weite Teile der Gesundheitsforschung und Gesundheitsversorgung nachhaltig verändern: dank Big Data und lernender Algorithmen wird der Faktor ‚Unwissen‘ bald aus dem Gesundheitssektor verbannt werden. Nichts wird mehr unbekannt oder verborgen bleiben – alles wird prognotizierbar, mit Wahrscheinlichkeitswerten versehen und gegeneinander abwägbar. Doch was bedeutet dies für den Einzelnen: sein konkretes Krankheitsrisiko zu kennen? Was bedeutet es für die Gesellschaft: statistisch genau zu wissen, wer, wann an welcher Krankheit erkranken und welche Kosten produzieren wird? Hält die gesellschaftliche Solidarität dies aus? Oder sind andere, völlig neue Regulierungsmechanismen zu erproben?
Als CwiC Projekt befassen wir uns mit diesen Themen und Fragen – und entwerfen die juristischen, ethischen und politischen Leitlinien, die uns als Gesellschaft vor einer Corpus-Delicti-artigen Gesundheitsdystopie bewahren!

Mittelgeber: Bundesministerium für Bildung und Forschung (BMBF)

Akronym: CwiC – Coping with Certainty

Projektzeitraum: 2020–2023

 

Teilprojekte

Juristisches Teilprojekt

Prof. Dr. Steffen Augsberg

Projektleiter (Rechtliches Teilprojekt)

Justus-Liebig-Universität Giessen
Professur für Öffentliches Recht

Ulrich von Ulmenstein

Wissenschaftlicher Mitarbeiter

Justus-Liebig-Universität Giessen
Professur für Öffentliches Recht

Christina Lauppert von Peharnik

Wissenschaftliche Mitarbeiterin

Justus-Liebig-Universität Giessen
Professur für Öffentliches Recht

Beschreibung: Rechtliches Teilprojekt

Das rechtliche Projekt beginnt mit einer theoretischen Erklärung des Begriffs juristischen Wissens und insbesondere der Art und Weise, wie das Gesetz bestimmte Fakten ignoriert. Von dort geht es weiter zu einer umfassenden Analyse der Situation de lege lata. Hier wird eine Grundrechtsperspektive Aufschluss über individuelle Gründe für eine gewissenhafte Unwissenheit geben, die dann den gesetzlichen Bestimmungen, insbesondere der Gesetzlichen Krankenversicherung (GKV), gegenübergestellt werden. Diese Normen orientieren sich am Grundprinzip der Solidarität, woraus u.a. folgt, dass der bestehende Gesundheitszustand gegenüber den Versicherungsgesellschaften nicht offengelegt werden muss. Es ist die Arbeitshypothese des Projekts, dass beide Argumentationslinien – die individuelle wie die kollektive – kombiniert werden können und sich gegenseitig ergänzen. So tragen sie dazu bei, festzustellen, ob und wo das Gesetz in seiner jetzigen Form eine gewissenhafte Unwissenheit zulässt oder fordert.

Ethisches Teilprojekt

Prof. Dr. Matthias Braun

Projektleiter (Ethisches Teilprojekt)

Universität Bonn
Lehrstuhl für (Sozial-)Ethik

Eva Maria Hille

Wissenschaftliche Mitarbeiterin

Universität Bonn
Lehrstuhl für (Sozial-)Ethik

Max Tretter

Wissenschaftlicher Assistent

Institut für Systematische Theologie
Lehrstuhl für Systematische Theologie II (Ethik)

Beschreibung: Ethisches Teilprojekt

In Bezug auf die Solidarität existiert die tiefverwurzelte Vorstellung, dass Solidarität zumindest eine gewisse Unsicherheit erfordert. An dieser Vorstellung knüpft das ethische Teilprojekt an, indem es bestehende normative Diskurse über das Verhältnis von Solidarität und deren jeweilige Verflechtung mit Graden von Gewissheit befragt.

  • Die erste Aufgabe behandelt die epistemologische Frage, inwieweit solidarische Gabe-Handlungen durch die Versprechen neuer KI-generierter Gewissheitsgrade in Frage gestellt werden.
  • Eine zweite Aufgabe besteht darin, im Detail herauszuarbeiten, inwieweit der klinische Einsatz von KI das Vertrauen in Institutionen – als einer Voraussetzung für Solidarität – in Frage stellt.
  • Die dritte Aufgabe beschäftigt sich mit den sich verändernden Formen der individuellen und kollektiven Steuerbarkeit in Zeiten des klinischen Einsatzes von KI. Wir haben bereits eine mehr oder weniger scharfe (kulturell tradierte) Vorstellung von individuellen Möglichkeiten der Steuerung – wie z.B. das Recht auf Nichtwissen, Ansprüche auf Transparenz oder Verantwortung und Haftung –, die notwendige Voraussetzungen darstellen um nicht nur freie Entscheidungen treffen zu können, sondern auch um zu entscheiden, unter welchen Bedingungen solidarisches Geben Ausdruck individueller Freiheit ist. Eine wichtige Frage wird sein, wie diese Formen der Kontrollierbarkeit herausgefordert werden, wenn sie nicht nur Unsicherheitsgrade zu bewältigen haben, sondern auch mit der Idee eines wachsenden Korpus von (postulierter) Gewissheit konfrontiert werden. Während dies allein schon eine komplexe Problematik darstellt, werden die Dinge noch komplizierter, wenn wir über Modi der kollektiven Steuerbarkeit und deren Einbettung in mehr oder weniger scharfe Konzepte von Räumlichkeit und Zeitlichkeit nachdenken.

Ökonomisches Teilprojekt

Prof. Dr. Nora Szech

Projektleiterin (Ökonomisches Teilprojekt)

Karlruher Institut für Technologie
Lehrstuhl für Politische Ökonomie

David Benjamin Ehrlich

Wissenschaftlicher Mitarbeiter (Ökonomisches Teilprojekt)

Karlsruher Institut für Technologie
Lehrstuhl für Politische Ökonomie

Beschreibung: Ökonomisches Teilprojekt

CwiC untersucht die normativen und verhaltenswissenschaftlichen Herausforderungen im Umgang mit den neuen Möglichkeiten zur Prädiktion in und mit KI an der Schnittstelle von Wissenschaft, Gesellschaft und Technologie. Die Fähigkeit, zukünftige Entwicklungen mit beispielloser Genauigkeit vorauszusehen, betrifft dabei viele – wenn nicht gar alle – Bereiche des gesellschaftlichen Lebens.
Insbesondere im Gesundheitssektor ermöglicht die neue Art der Prognose eine wesentlich präzisere Planung, stellt andererseits aber auch zentrale Bezugspunkte in Frage: Individuelle Selbstkonzepte, unsere allgemeine Unterscheidung zwischen Krankheit und Gesundheit, sowie traditionelle Normen, wie etwa den Begriff der grundlegenden Solidarität, wie er auch mit Blick auf Konzepte der gesellschaftlichen Absicherung fundamental ist.
Im CwiC Teilprojekt Ökonomie wird der Umgang mit KI daher anhand der verhaltenswissenschaftlichen Perspektive genauer untersucht. Wie gehen Individuen mit den neuen Möglichkeiten um? Sind bessere Prognosemöglichkeiten überhaupt willkommen, oder eher nicht? Werden Konzepte von Versicherung in Frage gestellt oder verändert?
Die Nachfrage nach und Akzeptanz von präziserer Information durch den Einsatz von KI ist vermutlich stark normativ geprägt. Deshalb interessiert uns auch die Frage, wie soziale Information – insbesondere normativer Art – den Umgang mit KI beeinflusst. Um verhaltenswissenschaftliche Effekte zu untersuchen, führen wir am KD2-Lab des KIT ökonomische Studien durch. Die TeilnehmerInnen treffen dort incentivierte Entscheidungen – also Entscheidungen, die reale Konsequenzen haben, beispielsweise monetärer Natur – um eine hohe Validität der beobachteten Ergebnisse zu gewährleisten.

Ausgewählte Publikationen