00:00:01:10 - 00:00:33:19 Bianca Prietl Daten sind keine neutralen Abbilder der Wirklichkeit, die wir einfach nur auswerten müssen, um irgendeinen unverzerrten Blick auf die Welt zu bekommen. Diese Entwicklung ist auch ganz stark durch den Glauben getragen, dass technische Apparate – gerade im Vergleich zu Menschen – effizienter und objektiver sind. Was könnten Technologien sein, die es uns erlauben, Welten zu erschaffen, die weniger von Achsen der Herrschaft strukturiert sind? 00:00:33:21 - 00:00:59:00 Catherine Weyer Hallo und herzlich Willkommen bei Unisonar, dem Wissens-Podcast der Universität Basel, heute mit der Soziologin und Geschlechterforscherin Professor Bianca Prietl und der Frage, wie gerecht Daten sind. Mein Name ist Catherine Weyer. Bei Unisonar tauchen wir mit Expert*innen der Universität Basel auf dem Grund ihrer wissenschaftlichen Forschung. In dieser Staffel sprechen wir über Gerechtigkeit. Frau Prietl, verlassen Sie sich bei Ihren Entscheidungen auf Algorithmen? 00:00:59:02 - 00:01:26:04 Bianca Prietl Also ich würde ungern von Verlassen sprechen, weil es ja suggeriert, dass ich mich willentlich und guten Gewissens auf Algorithmen in meinen Entscheidungen verlasse. Ob sie vertraue. Aber natürlich sind auch viele meiner Entscheidungen durch Algorithmen vorstrukturiert, schlichtweg, weil ich nicht auf die Nutzung von digitalen Technologien verzichten möchte und deshalb gar nicht umhin kann, mich auf Entscheidungen einzulassen, die eben algorithmenvorstrukturiert sind. 00:01:26:10 - 00:01:55:24 Bianca Prietl In meinem Fall würde ich sagen am meisten oder am häufigsten vermutlich am Tag, wenn ich Internetsuchmaschinen benütze. Und das ist ja, glaube ich, allgemein bekannt. Die Ergebnisse, die mir angezeigt werden und vor allem auch, in welcher Reihenfolge sie mir angezeigt werden, ja das Produkt von sehr komplexen Suchalgorithmen sind. Und ich versuche dann damit schon reflektiert umzugehen, also nicht einfach nur die erste Seite zu öffnen und das war's dann oder die ersten drei, sondern mir auch mal anzugucken, was ist die Quelle dieser Seite? 00:01:55:24 - 00:02:07:02 Bianca Prietl Und dann auf Basis dessen zu entscheiden, welche Seiten ich überhaupt öffne. Und natürlich habe ich nicht nach, was mir auf Seite 87 der Ergebnisliste noch angezeigt werden würde. 00:02:07:04 - 00:02:13:09 Catherine Weyer Das klingt so, als empfänden Sie Unbehagen bei dem Gedanken, dass Algorithmen Entscheidungen treffen. 00:02:13:11 - 00:02:44:16 Bianca Prietl Ja, das kann man eigentlich so sagen. Das liegt, glaube ich, so an der Konstellation, dass wir auf der einen Seite gerade in einer Situation sind, wo Algorithmen oder digitale Technologien allgemeiner, in immer mehr gesellschaftlichen Bereichen eingesetzt werden, um Wissen zu produzieren, um Entscheidungen zu treffen oder zumindest vorzustrukturieren. Und diese Entwicklung ist auch ganz stark durch den Glauben getragen, dass technische Apparate – gerade im Vergleich zu Menschen – effizienter und objektiver sind. 00:02:44:18 - 00:03:15:04 Bianca Prietl Und auf der anderen Seite wissen wir ja auch mittlerweile alle, dass dem eigentlich nicht ganz so ist. Und wenn wir es jetzt subtiler sind, Fälle sogenannte Biases. Wobei ich eigentlich lieber von algorithmischen Diskriminierungen sprechen möchte. Und die uns gezeigt haben, dass eben auch diese automatisierten Entscheidungen alles andere als neutral sind, sondern dass da eigentlich sehr oft bestehende soziale Kategorien der Unterscheidung, der Hierarchisierung, der Ungleichheit aufgegriffen und fortgeschrieben werden. 00:03:15:06 - 00:03:46:20 Bianca Prietl Und das ist natürlich dann brisant, wenn Algorithmen über Lebenschancen von Menschen im weitesten Sinne entscheiden. Vielleicht kann ich das anhand zweier Beispiele mal ausführen, die auch durchaus repräsentativ sind für gesellschaftliche Bereiche, in denen versucht wird, mittels Algorithmen Entscheidungen zu unterstützen. Um es mal so zu formulieren. Ein Beispiel, das auch Schlagzeilen gemacht hat, war Amazon. Die haben intern erst mal ein Tool entwickelt, das bei der Personalauswahl unterstützen sollte. 00:03:46:20 - 00:04:20:09 Bianca Prietl Und Human Resources ist ein Bereich, in dem sehr viel Aktivität unternommen wird, um algorithmisch Personalentscheidungen zu unterstützen. Das Ziel war also, eingehende Bewerbungen bei Amazon algorithmisch bewerten zu lassen, und zwar nach der bewährten Fünf Sternchen Logik. Und damit die Personalentscheider*innen zu unterstützen. Wer überhaupt zu einem Vorstellungsgespräch eingeladen wird und was sich gezeigt hat, war, dass dieser Algorithmus die Bewerbungen von Männern systematisch bevorzugt hat. 00:04:20:11 - 00:04:52:10 Bianca Prietl Und ein weiteres Beispiel aus dem Gerichtswesen. Auch im Kontext Justiz gibt es viele Bemühungen, möchte ich sagen, richterliche Entscheidungen vor allem technisch zu unterstützen. Im US Kontext beispielsweise gibt es ein System, das heisst Compass, wird sehr verbreitet, also in vielen Bundesstaaten eingesetzt, um bei Bewährungsanhörungen die Richter*innen dadurch zu unterstützen, dass ein Risk Score, also das Risiko, dass die betroffene Person am rückfällig wird, einzuschätzen. 00:04:52:11 - 00:05:24:07 Bianca Prietl Ein Score von 1 bis 10 und entsprechend natürlich die richterliche Entscheidung zu informieren. Es ist die Logik, ob diese Person auf Bewährung wieder frei kann oder nicht. Und da hat sich gezeigt, dass dieses System systematisch Afromerikaner*innen im weitesten Sinn, also vor allem nicht weisse Personen als Rückfall gefährdeter einschätzt und damit eben einen rassistischen Bias hat. Und ein letztes Beispiel, das ich noch nennen möchte. 00:05:24:09 - 00:05:59:24 Bianca Prietl Es ist insofern aktueller, weil es im Kontext der Corona-Pandemie aufkam. In Grossbritannien konnten keine Abschlussprüfungen an Schulen, also vergleichbar mit den Maturitätsprüfungen in der Schweiz stattfinden. Insofern wurde ein algorithmisches System eingesetzt, das die Noten der Schülerinnen aufgrund ihrer vergangenen Leistungen, aber auch aufgrund der Leistungen, die in diesen Schulen jeweils in der Vergangenheit erzielt wurden, prognostiziert hat. Das heisst, die Schüler haben nicht selbst die Tests gemacht, sondern das System hat gesagt, diese Person hätte vermutlich eine welche Note auch immer bekommen. 00:06:00:01 - 00:07:00:19 Bianca Prietl Und hier hat sich gezeigt im Nachgang, dass Schülerinnen von Schulbezirken, die in sozioökonomisch benachteiligten Regionen angesiedelt sind, wie das systematisch schlechtere Noten prognostiziert bekommen haben, was natürlich langfristige Folgen hat für die Möglichkeiten, sich um Studienplätze oder später Jobs zu bewerben. Was man also an all diesen Beispielen sieht, ist, dass überall dort, wo Algorithmen gerade über soziale Belange Entscheidungen treffen, die also relevant sind für die Teilhabemöglichkeiten von Menschen in der Gesellschaft wir nicht einfach nur Verzerrungen also im Sinne von ja vielleicht so zufälligen Fehlern antreffen, wie der Begriff Bias suggeriert, sondern dass eigentlich immer wieder Personengruppen von negativen Einschätzungen oder benachteiligenden Einschätzungen betroffen sind, die in unserer Gesellschaft ohnehin von Marginalisierung betroffen sind und 00:07:00:19 - 00:07:11:14 Bianca Prietl insofern in der Gesellschaft ohnehin bereits existierende Herrschafts- und Ungleichheitsstrukturen aufgegriffen, fortgeschrieben, festgeschrieben werden. 00:07:11:16 - 00:07:25:23 Catherine Weyer Aber eigentlich gehen wir doch davon aus, dass uns die Digitalisierung weg bringt von Stereotypen, von Vorurteilen und Verzerrungen hin zu besseren Entscheidungen. Weshalb gelingt denn das nicht? Und Ihre Beispiele haben das jetzt deutlich gezeigt, dass es nicht funktioniert. 00:07:26:00 - 00:07:59:06 Bianca Prietl Ja, das hat ganz entscheidend mit den Konstruktions- und Funktionsweisen von Algorithmen zu tun. Und damit kommen wir auch näher zum Kern des Themas, nämlich zu gerechten Daten. Digitale Technologien beruhen heute ganz zentral auf dem Paradigma maschinellen Lernens oder Machine Learning. Und dieses wiederum basiert auf der Kernidee, dass Technik aufgrund von grossen Datensätzen selbst lernt. Also was heisst lernen hier? Algorithmen durchsuchen 00:07:59:07 - 00:08:27:19 Bianca Prietl sehr grosse Datensätze über ein Phänomen, und zwar auf der Suche nach Mustern bzw Regeln, die sich in diesen Datensätzen auffinden lassen und auf Basis derer sich quasi Gesetzmässigkeiten über dieses Phänomen ableiten lassen, die dann wiederum erlauben, neue Datensätze gleichermassen zu kategorisieren und Vorhersagen über deren zukünftige Entwicklung zu treffen. Ich versuche auch das wieder an dem vorgenannten Beispiel von Amazon zu illustrieren. 00:08:27:21 - 00:09:07:20 Bianca Prietl Also hier hat der Algorithmus beispielsweise Bewerbungen, die über zehn Jahre bei Amazon eingegangen sind, erst mal als Trainingsdatensatz zum Lernen quasi vorgelegt bekommen, um da Muster zu identifizieren, wer denn am Ende erfolgreich war, mit seiner Bewerbung, also einen Job bekommen hat. Und jetzt könnte man sagen, der Algorithmus ist eigentlich bisschen zynisch gesprochen, war eigentlich ganz erfolgreich, weil er hat es geschafft, den viel problematisierten male bis aus der Techbranche zu identifizieren, in diesen Datensätzen und nun auf die neuen eingehenden Bewerbungen anzuwenden. 00:09:07:22 - 00:09:37:11 Bianca Prietl Er hat es also geschafft zu identifizieren, dass Männer in der Vergangenheit erfolgreicher waren, also dass dann wohl auch bei den zukünftigen Bewerbungen ein Auswahlkriterium ist. Allgemeiner formuliert könnten wir also festhalten, dass Algorithmen oder digitale Technologien, die auf solchen maschinellen Lernansätzen beruhen, gar nicht für uns verständlich sind, wenn wir nicht uns auf die Daten beziehen, die eigentlich in dieses Training eingehen. 00:09:37:13 - 00:10:13:18 Bianca Prietl Und diese Daten wiederum, die sind, auch wenn so viel verwendete Metaphern wie Daten sind das Öl des 21. Jahrhunderts ja gerade so Gegenteiliges nahelegen, eben nicht einfach gegeben. Das sind keine neutralen Abbilder der Wirklichkeit, die wir einfach nur auswerten müssen, um irgendeinen unverzerrten Blick auf die Welt zu bekommen. Sondern sie sind ja selbst schon das Produkt von menschlichen Aktivitäten, eben von Entscheidungen darüber, welche Daten überhaupt erhoben werden, was als relevant oder nicht relevant angesehen wird. 00:10:13:20 - 00:10:49:23 Bianca Prietl Im konkreten Fall eben sind sie auch das Produkt von Personalbeauftragten, die in der Vergangenheit diese Bewerbungen gesichtet haben und Entscheidungen darüber getroffen hat, wer denn eine erfolgsversprechende Kandidat*in ist oder nicht. Und drittens sind diese Daten immer ganz zwangsläufig aus der Vergangenheit stammend und sie bilden damit ja auch immer vergangene Einschätzungen, Kategorisierungen, soziale Muster ab. Und die informieren dann im Rahmen von algorithmischen Entscheidungssystemen eben Entscheidungen über die Zukunft. 00:10:50:00 - 00:11:19:10 Bianca Prietl Und insofern, als diese Muster, wenn wir von sozialen Mustern sprechen, in unserer Gesellschaft eben immer vielleicht ein bisschen kurz gegriffen, aber ich würde sagen doch sehr oft eben auch Muster der Ungleichheit sind, ist es eben relativ naheliegend bzw fast nur Folge logisch, dass algorithmische Entscheidungssysteme eben solche Muster der Ungleichheit identifizieren und wenn sie dann eben nicht daraufhin hinterfragt werden, auch erst mal fortschreiben. 00:11:19:12 - 00:11:31:14 Bianca Prietl Nun aber, und das ist vielleicht noch mal das Besondere, dann unter dem Deckmantel, dass sie vorgeblich so neutral sind, weil es ja technische Apparate sind, die sich einfach nur auf Daten stützen. 00:11:31:16 - 00:11:40:01 Catherine Weyer Sie sprechen in einem Ihrer Texte vom algorithmischen Entscheidungssystem als self fulfilling prophecy Apparaten. Was genau meinen Sie damit? 00:11:40:03 - 00:12:10:20 Bianca Prietl Ja, ich versuche damit eben dieses sehr spezielle Verhältnis von Vergangenheit, Gegenwart und Zukunft, das uns in so algorithmischen Entscheidungssystemen gegenübersteht, zu fassen oder auch noch mal so begrifflich nachvollziehbar zu machen, nämlich dass hier auf Basis von Mustern, die in Daten gefunden werden, die immer schon aus der Vergangenheit stammen, Prognosen über die Zukunft des Phänomens abgeleitet werden, die wiederum Entscheidungen in der Gegenwart informieren. 00:12:10:22 - 00:12:37:21 Bianca Prietl Also noch mal zu dem Human Resources Tool zurückkommend: Wenn eben eine Person gar nicht erst zu einem Bewerbungsgespräch eingeladen wird, weil sie einer Gruppe angehört, die in der Vergangenheit eben seltener eingeladen bzw erst gar keinen Job bekommen hat, dann wird dazu eine Wahrscheinlichkeitsberechnung für eine Gruppe auf ein konkretes Individuum übertragen. Das wäre auch etwas, was man erst mal problematisieren müsste. 00:12:37:23 - 00:13:01:21 Bianca Prietl Aber in weiterer Folge heisst es ja auch, dass diese konkrete Person, die gar nicht erst eingeladen wird, auch gar keine Chance hat, zum Beispiel davon zu überzeugen, dass sie ganz toll für diesen Job geeignet wäre und das gut machen würde. Das heisst, das einmal identifizierte Muster erfüllt sich quasi selbst, nämlich dass Personen einer bestimmten Gruppenzugehörigkeit keinen Job bekommen. 00:13:01:23 - 00:13:39:17 Bianca Prietl Und weil diese Daten ja auch wieder in den Lernprozess, also die meisten diese Technologien haben, das ist eigentlich gut gemeint, könnte man sagen, aber im Effekt nicht unbedingt gut. Lernen ja beständig weiter. Das heisst, die neuen Daten werden wieder als Trainingsdaten eingespeist, um das System quasi fortwährend am Lernen zu halten. Wenn aber jetzt also auf Grundlage des ursprünglich identifizierten Musters weniger Frauen eingeladen werden, also entsprechend auch nicht die Jobs bekommen können, dann lernt das System weiter, dass Männer also die aussichtsreichen Kandidat*innen sind. 00:13:39:19 - 00:13:46:13 Bianca Prietl Und dieses einmal initiierte Muster bestärkt sich quasi fortlaufend selbst. 00:13:46:15 - 00:14:06:04 Catherine Weyer Oder um auf ein anderes Beispiel von Ihnen zurückzukommen Mit dem Justizsystem in Amerika, also wenn Afroamerikaner*innen nie eine Chance auf Bewährung bekommen, wird das System immer sagen, sie sind rückfallgefährdet, weil gar niemand je den Beweis erbringen konnte, dass er auf Bewährung nicht rückfällig wurde. 00:14:06:06 - 00:14:37:07 Bianca Prietl Genau wie in dem Beispiel dieses. Eigentlich wird auch gerade in der Diskrepanz noch offensichtlicher. Denn werden zum einen Personen, die quasi auf Bewährung frei kamen, doch rückfällig wurden, natürlich im System erfasst werden können und insofern hier ein Feedbackloop eingebaut ist, der durchaus Korrekturen im Muster sozusagen ermöglicht, ist es natürlich so, dass Personen, die gar nicht erst freigelassen werden, wie Sie ja schon angesprochen haben, auch gar nicht unter Beweis stellen können, dass sie nicht rückfällig geworden wären. 00:14:37:09 - 00:14:47:18 Bianca Prietl Also sind, also in mehreren Konditionalsätzen. Und ja, insofern sind es so man könnte sagen ganz perfide Feedbackloops, die da entstehen. 00:14:47:20 - 00:14:53:08 Catherine Weyer Wenn Daten nie vollkommen objektiv sind, sollten wir uns dann überhaupt auf sie verlassen? 00:14:53:10 - 00:15:26:07 Bianca Prietl Ja, das führt vielleicht so zurück zu meiner ganz ersten Antwort. Ich glaube, einfach drauf verlassen im Sinne von unhinterfragt hinnehmen sollten wir uns glaube ich tatsächlich nicht. Wir sollten uns aber kritisch mit ihnen befassen. Also eben diese Fragen stellen danach wie sind Daten und Datensätze überhaupt verfasst? Welche Entscheidungen sind denn in ihrer Zusammenstellung eingeflossen? Was wurde denn als relevant erachtet oder als irrelevant ausgeschlossen? 00:15:26:09 - 00:16:05:02 Bianca Prietl Und wer hat diese Entscheidungen überhaupt getroffen? Und das ist natürlich zugegebenermassen eine schwierige Sache. Zum einen, weil viele algorithmische Systeme, auch jene, die im öffentlichen Sektor eingesetzt werden, also im Schulwesen, im Justizwesen, privatwirtschaftliche Produkte sind. Das heisst, sie sind auch entsprechend von Patentrechten und Geheimhaltungsklauseln geschützt und können gar nicht vollständig transparent gemacht werden bzw. das ist gerade darin, dass sie eben um den Wettbewerbsvorteil der einzelnen Unternehmen zu sichern, eben gerade nicht offengelegt werden. 00:16:05:04 - 00:16:28:20 Bianca Prietl Und zum anderen haben wir es einfach mit sehr komplexen Systemen, auch wenn meine Darstellungen das jetzt extrem simplifizierend dargestellt haben zu tun, die selbst von Expert*innen gar nicht in ihrem ja in all ihren Tragweite mehr durchschaut werden können. Das heisst, diese kritische Auseinandersetzung hat durchaus auch ihre Grenzen, was aber nicht heisst, dass wir uns nicht damit beschäftigen sollten. 00:16:28:22 - 00:16:53:00 Bianca Prietl Gleichzeitig können wir, glaube ich, aber auch uns diese symbolische Autorität von Daten, nämlich dass wir auf sie vertrauen in der Regel, und dass sie eine besondere Aussagekraft haben, aber auch für kritisch emanzipatorische Zwecke nützen. Das ist etwas, was beispielsweise Catherine D'Ignazio und Lauren Klein in ihrem Buch «Data Feminist» in diesem Jahr angesprochen und demonstriert haben. 00:16:53:02 - 00:17:08:03 Einspieler In Mexiko betreibt etwa Maria Salgero eine Counter Data Initiative, indem sie alle Femizide dokumentiert und damit überhaupt erst eine Datengrundlage für die gesellschaftliche Auseinandersetzung mit Gewalt gegen Frauen schafft. 00:17:08:05 - 00:17:38:11 Bianca Prietl Ja, wie dieses Beispiel schon ganz gut zeigt, erlauben uns Daten mitunter erst überhaupt, zunächst vielleicht nur erahnte oder gefühlte Ungleichheiten zu objektivieren, also zu benennen, datenförmig eben auch auf den Punkt zu bringen, buchstäblich und damit auch adressierbar und kritisierbar zu machen. Deshalb ist es beispielsweise auch in der Gleichstellungsarbeit, aber auch in der Geschlechterforschung ganz wichtig, überhaupt erst Daten über Ungleichheiten beispielsweise zwischen den Geschlechtern zu erheben. 00:17:38:13 - 00:18:04:03 Bianca Prietl Also so etwa der jährlich publizierte Gender Pay Gap, der uns immer wieder ganz eindrücklich zeigt, dass die Einkommensverteilung zwischen Männern und Frauen noch eine ungleicher ist und darüber eben uns erst die Möglichkeit gibt, dieses Thema gesellschaftlich sichtbar zu machen, zu diskutieren und auch darüber nachzudenken. Finden wir das gut? Und wenn wir das nicht tun, was könnte dagegen getan werden? 00:18:04:05 - 00:18:40:02 Bianca Prietl Es ist also meines Erachtens weniger eine Frage, ob wir Daten grundsätzlich nützen sollten oder nicht, sondern vielmehr: Wer nutzt sie zu welchen Zwecken? Und das könnte man jetzt mit Mona Singer, Wissenschaftsphilosophin in Wien, aufgreifen, die eben für die Wissenschaft allgemeiner gesagt hat: Wir sollten uns so von dieser Idee verabschieden, dass Wissenschaft per se schon aufklärerischen Zielen nachkommt, sondern stattdessen eben so diesen Neutralitäts- und Objektivitätsglauben abschwören und uns für eine engagierte Praxis einsetzen. 00:18:40:04 - 00:19:24:15 Bianca Prietl Und sie meint mit engagiert eine Praxis, die sich eben dezidiert und willentlich mit politischen Zielen verbindet und um das eben auf unseren Umgang mit Daten zu übertragen, könnte eben so eine engagierte Datenpraxis bedeuten, dass wir ja Daten eben mit dem Ziel erheben, sammeln und auswerten, beispielsweise auf gesellschaftliche Ungleichheiten hinzuweisen, sie zum Thema zu machen. Wir könnten also beispielsweise die bestehende Datenlücke über nicht binäre und Transpersonen füllen, weil herkömmliche Statistiken ja immer noch der Logik oder weitestgehend der Logik einer heteronormativen Geschlechterordnung folgen, die nur zwei Geschlechter kennt. Es gibt entweder Männer oder Frauen. 00:19:24:17 - 00:19:41:17 Bianca Prietl Und entsprechend haben wir so gut wie gar keine Daten über trans- oder nicht-binäre Personen und können eigentlich auch ganz wenig über deren Lebensbedingungen, über Teilhabechancen in der Gesellschaft, den Exklusionen, an die sie ausgeliefert sind, aussagen. 00:19:41:19 - 00:19:47:13 Catherine Weyer Das bedeutet, dass man diesen unfreiwilligen Bias der Wissenschaft aus der Vergangenheit korrigieren möchte? 00:19:47:15 - 00:20:04:18 Bianca Prietl Genau. Also eine Möglichkeit wäre quasi an den formulierten Kritikpunkten, dass Datensätze keine neutralen Abbilder einer Wirklichkeit sind, dass sie es, so will ich es sagen, auch gar nicht sein können. 00:20:04:20 - 00:20:13:23 Catherine Weyer Sie können sie nicht. Sie können es nicht sein, weil sie selbst nicht neutral sind oder weil weil kein Wissenschaftler, keine Wissenschaftlerin komplett neutral ist? 00:20:13:23 - 00:20:40:06 Bianca Prietl Genau. Weil es glaube ich und weil es glaube ich, kein einfaches Abbildungsverhältnis zwischen Daten und Wirklichkeit gibt, sondern weil immer Menschen dazwischen stehen, die die Entscheidungen treffen und die beispielsweise sagen: Darüber brauchen wir. Also, wenn wir jetzt noch mal zurückgehen zu den Daten über Geschlecht, sagen, na ja, wir haben Daten von Männern und Frauen, und das ist ja auch schon mal eine Entscheidung, dass wir eben genau über zwei Geschlechter Daten erheben und andere ausschliessen. 00:20:40:08 - 00:21:12:13 Bianca Prietl Genau. Und wir könnten diesen Befund zum Ausgangspunkt machen, um nicht dieser Idee nachzuhängen Wie können wir möglichst zu Neutralität kommen, sondern wie können wir eben Möglichkeiten einer engagierten Datenpraxis ausloten? Wie können wir sie eben zum Ausgangspunkt machen, um historisch etablierte Unsichtbarkeiten, so würde ich das jetzt beschreiben, zu überwinden. Das passiert beispielsweise aktuell auch im Kontext der Medizin, wo wir wissen mittlerweile. 00:21:12:15 - 00:21:45:24 Bianca Prietl Und ein ein Beispiel, auf das ich da noch mal verweisen möchte, ist das Buch «Invisible Woman» von Caroline Credo Perez, die an ganz vielen Beispielen aber und eben auch im Bereich der Medizin aufgezeigt hat, dass wir sehr oft Datensätze haben, die die Frauen, aber auch andere ich sage jetzt mal nicht Männer und nicht weisse Personen am Unter repräsentieren und dass viele unserer Wissensbestände entsprechend auf Daten beruhen, die vor allem weisse Männer fokussieren und so zu formulieren. 00:21:45:24 - 00:22:02:03 Bianca Prietl Und so auch in der Medizin, wo grosse Teile medizinischen Wissens, aber auch davon abgeleitet dann am Wissen über erfolgreiche Therapiemöglichkeiten eigentlich so ein Normkörper des weissen Mannes irgendwie voraussetzen. 00:22:02:05 - 00:22:26:14 Einspieler Ein Beispiel sind Herzinfarkte, die bei Männern und Frauen tendenziell verschieden verlaufen und sich symptomatisch verschieden äussern. Weil vor allem die Symptome der Herzinfarkte von Männern bekannt sind, gelten die Herzinfarkte von Frauen nicht nur als asymptomatisch. Sie bleiben vor allem oft lange, mitunter zu lange unerkannt mit entsprechend schwerwiegenden Folgen. 00:22:26:16 - 00:23:03:00 Bianca Prietl Und dieses Problem, das hier geschildert wurde, wird beispielsweise medizinischen Forschungen gerade auch zum Ausgangspunkt von neuen Datenanalysen gemacht. Ein Projekt ist beispielsweise der Einsatz von algorithmischen Datenanalysen, die weltweit Medizindatenbanken durchsuchen, um die Symptome von Herzinfarkten bei Frauen zu identifizieren, also eben diese Muster herauszuarbeiten, um darüber dann zukünftig bessere Diagnosen zu ermöglichen. Und natürlich in der Hoffnung, auch bessere Therapieformen rechtzeitig erkennen 00:23:03:00 - 00:23:04:21 Bianca Prietl on Herzinfarkten bei Frauen. 00:23:04:23 - 00:23:25:23 Catherine Weyer Bedeutet das, dass man dann auf der anderen Seite aber trotzdem auch die momentane Forschung weitertreiben muss, dass auch hier ein grösseres Verständnis da ist, dass man nicht einfach weiterhin den weissen Mann als Standard nimmt, sondern in der künftigen Forschung dann wirklich auch Frauen oder non-binärer Personen mit einbezieht in die Datenanalyse? 00:23:26:00 - 00:24:00:06 Bianca Prietl Ja, definitiv. Ich glaube, dass wir eine Konsequenz im kritischen Umgang mit Daten, dass uns eben viel bewusster noch mal ist, wie Datensätze zusammengesetzt werden, was die Ein und Ausschlüsse sind. Und das überall da, wo wir uns halt auf grosse existierende Datenbanken beziehen, eben sehr oft auch so historisch etablierte Ungleichheiten in diesen Datensätzen schon eingelegt oder eingelagert sind. Also es gibt unendlich viele Daten über ganz, ganz viel, aber gleichzeitig gibt es immer wieder über sehr viele Phänomene schlichtweg keine Daten. 00:24:00:12 - 00:24:33:23 Bianca Prietl Und es sind eben auch hier wieder sehr oft diese Phänomene, die Personengruppen betreffen, die in unserer Gesellschaft marginalisiert werden. Wenn ich sage, über Transpersonen gibt es so gut wie gar keine, schon gar nicht offizielle Daten oder eben Frauen sind in so etwas wie dem medizinischen Bereich oft unterrepräsentiert. Genau das heisst, es wäre so die eine Schiene wäre sich eben dieser Datenlücken anzunehmen und zu sagen: Worüber wollen wir aber eigentlich mehr wissen und wofür brauchen wir deshalb auch Daten? 00:24:34:04 - 00:25:03:02 Bianca Prietl Und deshalb erheben wir sie ganz gezielt und nutzen dafür eben die aktuellen technischen Möglichkeiten. Und eine zweite Konsequenz, die glaube ich, ganz, ganz logisch daraus folgen muss, ist natürlich auch, dass wenn wir in Datenprojekte starten, wir natürlich schon an dem Punkt dessen, wo wir unsere Datensätze zusammenstellen, quasi innehalten und sehr genau auf die Zusammenstellung der Datensätze achten. 00:25:03:04 - 00:25:10:03 Catherine Weyer Was für ein Umgang mit Daten würden Sie sich denn in Zukunft wünschen, damit sich diese Daten von den Vorurteilen lösen können? 00:25:10:05 - 00:25:37:07 Bianca Prietl Ich glaube, wir brauchen insgesamt einen sehr viel sorgsameren Umgang mit Daten. Und hier könnte. Das ist nur ein Vorschlag. Es gibt sicherlich auch andere Möglichkeiten. Auch diese Idee von Sorge oder Care, wie sie im feministischen Diskurs viel diskutiert werden, auch mal instruktiv oder Impulsgeber geben. Care eben im Sinne von: Worum kümmern und sorgen wir uns überhaupt? Woran liegt uns? 00:25:37:07 - 00:26:09:00 Bianca Prietl Etwas würde uns natürlich auch erlauben, noch mal eine andere Diskussion über Daten zu führen, nämlich darüber, Worüber wollen wir denn eigentlich Daten haben? Weil uns zum Beispiel an dem jeweiligen Thema liegt, wofür oder wofür brauchen wir sie? Und über welche Bereiche in unserem Leben wollen wir zum Beispiel nicht, dass aufgrund von Daten über uns entschieden wird? Und ich glaube, das sind sehr komplexe im Sinne von gesellschaftlichen Diskussionen, die keine einfache Antwort geben werden. 00:26:09:02 - 00:26:27:08 Bianca Prietl Aber ich glaube, wir können sie nur gesellschaftlich führen und darüber auch, wie wir das ja bei anderen technowissenschaftlichen Erneuerungen auch tun, sei das jetzt Gentechnologie oder Klonen. Da gibt es ja auch breite gesellschaftliche Diskussionen darüber, wo wollen wir diesen Einsatz und wo vielleicht auch nicht. 00:26:27:10 - 00:26:41:17 Catherine Weyer Sie haben vorhin von den Daten gesprochen, dass diese eine symbolische Autorität hätten. Würden Sie sich denn wünschen, dass mit all diesen Diskussionen diese Autorität auch ein bisschen verloren geht oder in den Hintergrund rückt? 00:26:41:19 - 00:27:09:18 Bianca Prietl Ja, also ich glaube, ich würde mir wünschen, dass sie stärker hinterfragt wird, nämlich gerade in ihrer Verbindung mit so einem Neutralitätsanscheinen. Das habe ich jetzt ja schon sehr oft gesagt und das erlaubt mir vielleicht auch noch zu sagen, dass ich mit dem, was ich jetzt auch kritisch angemerkt habe, zur Nutzung von Daten ja nicht sagen möchte, dass menschliche Entscheidungen vorurteilsfreier oder besser in diesem Sinne wären. 00:27:09:20 - 00:27:42:15 Bianca Prietl Ganz im Gegenteil, wir wissen ja um die vielen Diskriminierungen, die von menschlichen Entscheidungen ausgehen. Aber ich glaube, das ist der entscheidende Unterschied. Wir wissen eben um die Möglichkeit, dass das Gegenüber diskriminierend agiert. Und weil wir das Wissen oder zumindest das eine Möglichkeit in den Raum stellen, können wir das auch viel eher hinterfragen, wiederum kritisieren und vielleicht auch einklagen, dass das eben keine faire Entscheidung war. 00:27:42:17 - 00:28:27:24 Bianca Prietl Während wir bei Daten eben diesen Schritt oft nicht mehr gehen können. Und verbunden damit, weil eben diese symbolische Autorität so hoch ist es auch sehr schwierig. Aber das wissen wir aus empirischen Studien von Menschen, sich gegen quasi das objektive Datenergebnis zu entscheiden, sprich ein Richter, eine Richterin, die vielleicht zu einer anderen Einschätzung käme, die kann das zwar laut formalem Prozedere, die Daten also je nachdem wie der Prozess strukturiert ist, aber oft nur ist es gedacht als Entscheidungsunterstützung, nicht dass dieses System das schon fix vor entscheidet, aber es ist sehr schwierig für die entsprechenden Personen und sehr erklärungsaufwendig zu sagen wieso widerspreche ich diesem System? 00:28:28:00 - 00:28:48:04 Bianca Prietl Wieso komme ich zu einer anderen Entscheidung? Also das ist viel begründungsaufwändiger als zu sagen okay, ich nehme diese Entscheidung an und das sind entsprechend. Also ich will mal so am Zug Zwänge, die da entstehen dann auch im Verhalten, die eben schwierig hinterfragbar oder zu widersprechen sind. 00:28:48:06 - 00:28:53:23 Catherine Weyer Sie sind Professorin für Geschlechterforschung. Weshalb haben Sie sich für den Schwerpunkt der Digitalisierung entschieden? 00:28:54:00 - 00:29:20:07 Bianca Prietl Ganz am Anfang war das sicher so ein Moment des Zufalls. Ich bin einfach im Rahmen meines Soziologiestudiums in Kontakt gekommen mit Forschungsgruppen, vor allem dann auch meiner späteren Doktormutter, die an dieser Schnittstelle von Frauen- und Geschlechterforschung und Wissenschafts- und Technikforschung gearbeitet haben. Und das war so der so sehr grundlegende Baustein, dann auch, mich später mit digitalen Phänomenen zu beschäftigen. 00:29:20:09 - 00:29:56:13 Bianca Prietl Und was ich da eben von Anfang an sehr spannend fand, war diese Gleichzeitigkeit von Neutralitätsanschein von Technik einerseits und gleichzeitig den ja ganz augenscheinlichen gesellschaftlichen Strukturiertheiten von Technik, also Technik entsteht ja nicht einfach so, sondern sie wird von ganz konkreten Menschen an ganz konkreten Orten mit ganz konkreten Zielen und Vorstellungen konstruiert oder gemacht. Und all das ist natürlich einflussreich dafür, welche Gestalt Technik dann annimmt, wie wir sie nutzen können, mit welchen Konsequenzen. 00:29:56:15 - 00:30:26:21 Bianca Prietl Also wenn wir jetzt noch mal an digitale Technologien denken, ganz viele technische Innovationen haben militärische Ursprünge. Also es sind vor allem militärische oder nachrichtendienstliche Forschungen, die auch die technische Entwicklung da überhaupt erst vorantreiben, die gerade im Grundlagenforschungsbereich diese auch finanzieren. Und natürlich sind es entsprechend auch militärische oder Sicherheitsinteressen, die dann die Gestalt diese Technologien annehmen, mitprägen, und zwar auch dann, wenn sie irgendwann zivil genutzt werden. 00:30:27:01 - 00:30:59:21 Bianca Prietl Das ist einfach ganz grundlegend und tief in diesen Technologien angelegt Und ja, auf diese Verflechtungen von digitalen Technologien und gesellschaftlichen Verhältnissen hinzuweisen einerseits. Aber dann eben auch drüber nachzudenken was gäbe es denn für alternative Möglichkeiten, Technik zu nutzen oder überhaupt auch zu gestalten? Um es mit Donna Haraway zu formulieren Was könnten Technologien sein, die es uns erlauben, Welten zu erschaffen, die weniger von Achsen der Herrschaft strukturiert sind? 00:30:59:23 - 00:31:03:10 Bianca Prietl Das finde ich ja sehr befriedigend. 00:31:03:12 - 00:31:33:12 Catherine Weyer Bianca Prietl, vielen herzlichen Dank! Das war Unisonar, der Wissens-Podcast der Universität Basel. Wir freuen uns über Ihr Feedback auf podcast@unibas.ch oder auf unseren Social Media Kanälen. Dies ist das Ende der zweiten Staffel. Sind Sie an weiterer Forschung der Universität Basel interessiert? In der ersten Staffel sprachen wir mit einer Psychologin, einer Medienwissenschaftlerin, einer Cybersecurity-Expertin und einem Kulturwissenschaftler über Social Media. 00:31:33:14 - 00:31:41:05 Catherine Weyer Neue Folgen zu einem neuen Thema gibt es im September 2023. Hier und überall, wo es Podcasts gibt. Bis bald.