Tübingen (31.05.2021) –
In der Coronakrise mussten viele Entscheidungen mit weitreichenden Konsequenzen getroffen werden. Algorithmen hätten dabei helfen können. Forscherinnen des Leibniz-Instituts für Wissensmedien (IWM) in Tübingen fanden nun heraus: Bürgerinnen und Bürger haben nichts dagegen einzuwenden, wenn Verantwortliche auf Ratschläge algorithmengestützter Systeme zurückgreifen – vorausgesetzt ein Mensch hat das letzte Wort.
Wer bekommt ein Beatmungsgerät? Welche Personengruppen sind von Ausgangssperren betroffen? Welche Betriebe erhalten finanzielle Unterstützung? Zahlreiche solcher Fragen mussten während der Corona-Pandemie von Regierungen, Ärztinnen und Ärzten oder Sachbearbeiterinnen und -bearbeitern beantwortet werden. Algorithmen, die in solchen Fällen durch eine sekundenschnelle Auswertung riesiger Datensätze Wahrscheinlichkeiten berechnen und dadurch unterstützen könnten, sind in vielen Fällen bereits entwickelt und könnten schon bald zum Einsatz kommen. Bisher war jedoch unklar, wie die Bevölkerung der Unterstützung durch Algorithmen bei schwierigen Entscheidungen gegenübersteht.
Dürfen Softwaresysteme mitentscheiden?
Die Tübinger Forscherinnen untersuchten daher in Zusammenarbeit mit der Albert-Ludwigs-Universität Freiburg, wie sich situationsbedingte Merkmale sowie individuelle Charakteristika der Probandinnen und Probanden auf die Präferenz verschiedener Varianten der Mensch-Algorithmus-Zusammenarbeit auswirkten. Den Teilnehmenden wurden verschiedene Szenarien vorgegeben, in denen Entscheidungen zu treffen waren. Dabei war die Verteilung von Beatmungsgeräten an COVID-Erkrankte das folgenschwerste Szenario. Entscheidungen über die Gewährleistung finanzieller Unterstützung oder den Erlass von Ausgangsbeschränkungen wurden als weniger moralisch angesehen. “Grundsätzlich standen die Personen einer Mensch-Algorithmus-Zusammenarbeit positiv gegenüber – solange der Mensch das letzte Wort hat. Je moralischer allerdings die zu treffende Entscheidung war, desto geringer die Bereitschaft, Algorithmen mitbestimmen zu lassen”, erklärt Prof. Dr. Sonja Utz. Die IWM-Wissenschaftlerin leitete im Rahmen des Tübinger Exzellenzclusters “Maschinelles Lernen: Neue Perspektiven für die Wissenschaft” die Studie.
Entscheiden oder betroffen sein – Algorithmen-Akzeptanz variiert
Eine weitere wichtige Erkenntnis ergab sich aus der unterschiedlichen Perspektive, welche die Versuchsteilnehmenden einnehmen mussten. So sollten sie sich entweder in die Rolle der entscheidenden oder der vom Beschluss betroffenen Person versetzen. Für das moralischste der drei Szenarien war ein deutlicher Effekt erkennbar. “In der Rolle einer Ärztin oder eines Arztes waren die Probandinnen und Probanden eher bereit, sich bei der Entscheidungsfindung eine erste Einschätzung durch einen Algorithmus geben zu lassen, als wenn sie die Rolle einer Patientin oder eines Patienten einnahmen, über die bzw. den entschieden werden sollte”, so Prof. Dr. Sonja Utz, Leiterin der IWM-Nachwuchsgruppe Soziale Medien.
Neben diesen situativen Besonderheiten wurde auch eine Reihe persönlicher Faktoren erfasst: Wie stark etwa die Teilnehmenden etablierte gesellschaftliche Konventionen befolgten, wie ausgeprägt ihr Bedürfnis nach politischer Führung in Krisen und wie umfassend ihr Vorwissen zu Algorithmen war. Hier konnten die Forscherinnen nachweisen, dass ein größerer Hang der Menschen zu gesellschaftlichen Konventionen in einer geringeren Zustimmung zum Einfluss von Algorithmen resultierte. Interessanterweise ging ein stärkeres Bedürfnis nach Führung in Krisen mit einer höheren Akzeptanz von Algorithmen einher. Ebenso bedingten eine positivere Einstellung zu und ein höheres Wissen über Algorithmen die Zustimmung zu algorithmengestützten Entscheidungen.
Die Erkenntnisse aus der Untersuchung wurden vergangene Woche auf einer internationalen Forschungskonferenz präsentiert. Sie können der Politik künftig helfen, zu erkennen, unter welchen Bedingungen algorithmenbasierte Entscheidungen von der Bevölkerung akzeptiert werden würden. Zudem können die Studienergebnisse dabei unterstützen, die Zielgruppen von Aufklärungskampagnen über Algorithmen festzulegen.
Leibniz-Institut für Wissensmedien,
Prof. Dr. Sonja Utz
Leave a Reply