Die Manipulationsmaschine.
Interview: Angelika Jacobs
Künstliche Intelligenz durchdringt zunehmend die sozialen Netzwerke. Datenwissenschaftler Geoffrey Fucile über lernende Algorithmen, Deep Fakes und den Kampf um die Definition von Wahrheit.
UNI NOVA: Herr Fucile, wie stark nutzen Sie die sozialen Medien?
GEOFFREY FUCILE: Sehr sparsam. Ich nutze sie zwar, aber mehr als Beobachter. Ich verwende LinkedIn, um neue Mitarbeitende zu gewinnen, und ich lese Beiträge auf der Plattform Reddit. Soziale Medien betreffen alle, und man kann sich ihnen nicht entziehen, es sei denn, man lebt völlig abgeschottet. Aber ich hatte nie ein Konto bei Facebook, Instagram oder Twitter. Vor allem Facebook kam mir von Anfang an unheimlich vor.
UNI NOVA: Warum unheimlich?
FUCILE: Ich vermute, es war die Vorstellung, virtuelle Freunde zu haben, und auch der Wunsch nach Anerkennung durch andere, den diese Plattform ausnutzt. Seit den Anfängen, als Facebook noch ein Campus-Ding war, schätzen sich die Leute gegenseitig anhand von konstruierten Profilen ein, die nicht unbedingt der Wahrheit entsprechen.
UNI NOVA: Facebook und andere Betreiber von Social-Media-Plattformen investieren stark in die Entwicklung von Algorithmen für maschinelles Lernen und neuronale Netze. Wie beeinflusst das Ihre Sicht auf die sozialen Medien?
FUCILE: In einigen Fällen ist es wahrscheinlich umgekehrt: Die Unternehmen investieren stark in die sozialen Medien, um ihre Ziele im Bereich der künstlichen Intelligenz, oder kurz KI, zu erreichen. Wie auch immer Sie KI definieren, das ist ein problematischer Begriff. Was ich davon halte? Ich habe immer noch dieselben Vorbehalte, die ich anfangs hatte. Als Vater bin ich besonders besorgt über virtuelle Räume, da es dort eindeutig böswillige Akteure mit grossem Einfluss gibt. Und die Werkzeuge, mit denen sie andere beeinflussen können, werden immer mächtiger. Gleichzeitig ist nicht alles schlecht. Die sozialen Medien bieten die Möglichkeit, Menschen besser zu vernetzen und einen Raum für Empathie zu schaffen.
UNI NOVA: Sie sagen, dass die Betreiber sozialer Plattformen versuchen, ihre Ziele im Bereich der künstlichen Intelligenz zu erreichen. Welche Ziele sind das?
FUCILE: Einerseits geht es ganz klar um Profit, andererseits auch um die Ausübung von Kontrolle.
UNI NOVA: Kontrolle über was genau?
FUCILE: Was auch immer zweckmässig ist. Es herrscht ein ständiger Krieg um die Kontrolle darüber, was Wahrheit und Realität ist. Je mehr man Meinungen formen kann, desto mehr Kontrolle hat man darüber, was real ist. Und das ist problematisch: Sie können sich vorstellen, dass bestimmte Organisationen das für ihre Zwecke nützlich finden.
UNI NOVA: Was können wir dagegen tun?
FUCILE: Wir müssen diese Technologien, etwa lernende Algorithmen, öffentlich zugänglich machen, auch in dem Sinne, dass die Menschen verstehen, was diese Technologien tatsächlich tun. Das ist eine Möglichkeit, diese dezentrale Vorstellung von Wahrheit und Realität aufrechtzuerhalten, die das Herzstück der Zivilgesellschaft ist.
UNI NOVA: Ist es realistisch, zu hoffen, dass alle diese Technologien verstehen lernen? Wenn man über maschinelles Lernen spricht, wird es schnell sehr kompliziert.
FUCILE: Es ist leicht, pessimistisch zu sein und zu sagen, es sei hoffnungslos. Aber es ist nicht unmöglich. Es gibt zwei grosse Diskrepanzen: Einerseits hinkt die Entwicklung der Gesetzgebung dem Tempo des technologischen Fortschritts hinterher, andererseits passen sich unsere Bildungssysteme nicht schnell genug an. Es ist unfair, zu erwarten, dass die Leute die Auswirkungen dieser fortschrittlichen Technologien verstehen, wenn sie nie eine Ausbildung in Informatik erhalten haben.
UNI NOVA: Wie sollten wir also diese Lücken schliessen?
FUCILE: Die wissenschaftliche Gemeinschaft muss wirklich ihren Austausch mit der Öffentlichkeit verstärken. Wenn wir Forschenden wollen, dass Menschen Technologien verantwortungsvoll nutzen, müssen sie sie verstehen. Und als Entwicklerinnen und Entwickler dieser Technologien ist es unsere Aufgabe, diese Lücken zu schliessen. Hier sind auch staatliche Einrichtungen auf allen Ebenen gefordert.
UNI NOVA: Sie erwähnen das Tempo der technologischen Entwicklung. Wenn Sie an die letzten zehn Jahre denken, welche Entwicklungen im Bereich der künstlichen Intelligenz hatten die stärksten Auswirkungen auf die Nutzenden von sozialen Medien?
FUCILE: Die zunehmende Verbreitung von Fehlinformationen ist ganz offensichtlich, und die Spaltung der Gesellschaft ist grösstenteils darauf zurückzuführen, wie KI-basierte Empfehlungssysteme funktionieren. Das Ziel ist es, die Nutzenden bei der Stange zu halten, und das funktioniert besonders gut, wenn man unsere grundlegenden, primitiven Emotionen wie Angst oder Wut anspielt, um uns in einem erregten Zustand zu halten. Die Empfehlungssysteme sagen voraus, was Sie interessieren oder aufregen wird, und wollen, dass Sie in diesem Zustand der Aufregung hängen bleiben. Zwietracht zu säen und zu spalten ist derzeit leider der Hauptanreiz.
UNI NOVA: Wie steht es mit den Fortschritten zum Beispiel bei der Spracherkennung?
FUCILE: Den Empfehlungssystemen liegen Sprachmodelle zugrunde: Sie werden verwendet, um die Gefühle der Menschen zu erfassen und zu erkennen, wie sie auf das reagieren, was sie sehen und lesen. Diese Modelle können auch zum Verfassen von Texten verwendet werden. Einige sind nicht mehr von solchen zu unterscheiden, die von Menschen geschrieben wurden. Es gibt Sprachmodelle, die ihren eigenen Code schreiben.
UNI NOVA: Können Bots also bereits andere Bots erstellen?
FUCILE: Es gibt Programme, die andere Programme schreiben, die reaktionsfähig sind. Das ist also bereits möglich. Viele sind sich wahrscheinlich nicht bewusst, in welchem Ausmass Bots mit uns Menschen interagieren. Inzwischen ermöglichen Deep Fakes für Sprache und Video, echte oder fiktive Personen bei jeder möglichen Aktivität nachzubilden. Hier sehen wir das Resultat vieler mathematischer Modelle, die zusammenarbeiten. Ich glaube nicht, dass den Menschen klar ist, wie schnell sich diese Dinge ändern und wie sehr sie uns beeinflussen – und wie sehr wir in bestimmte Richtungen manipuliert werden.
UNI NOVA: Donald Trump sagte einmal zu seinen Anhängern: «Was Sie sehen und was Sie lesen, ist nicht das, was passiert.» Hatte er angesichts solch überzeugender Fälschungen recht?
FUCILE: In gewisser Weise schon. Meine Hoffnung ist, dass es uns möglich sein wird, uns darauf zu einigen, was authentisch ist – und was konstruiert und künstlich. Es herrscht ja immer eine Art Wettrüsten oder vielmehr ein Wechselspiel: Je raffinierter die Fälschungen werden, desto besser werden die Methoden, um zu prüfen, ob etwas authentisch ist.
UNI NOVA: Welche Entwicklungen können die Social-Media-Nutzenden in den nächsten Jahren erwarten?
FUCILE: Es gibt einige wichtige, noch unbeantwortete Fragen zum Eigentum an Inhalten, zur fairen Nutzung und zum Datenschutz. Generell gehe ich davon aus, dass sich die aktuelle Entwicklung noch beschleunigen wird. Die Bots werden immer überzeugender und die Manipulationsmaschinerie immer effektiver. Schwer zu sagen bleibt, ob sich bestimmte Technologieunternehmen durchsetzen werden oder nicht. Ich weiss nicht, ob die virtuelle Welt, die Facebook/Meta zu konstruieren versucht, tatsächlich von einer grossen Mehrheit genutzt werden wird. Aber an der allgemeinen Idee ist etwas dran. Es werden riesige Summen für Videospiele und VR-Ausrüstung ausgegeben, und bereits verbringen manche Menschen einen Grossteil ihres Lebens in der digitalen Welt.
UNI NOVA: Bots, die uns manipulieren, virtuelle Realitäten, die Menschen in ihren Bann schlagen, gibt es irgendetwas Positives an den KI-Innovationen?
FUCILE: Es ist nicht alles negativ. Es gibt sicherlich sehr nützliche Entwicklungen in der KI für die naturwissenschaftliche Grundlagenforschung, zudem allgemein gebräuchliche Tools wie Übersetzungsdienste oder einzelne Empfehlungssysteme. Diese Modelle können uns auch helfen, zu erkennen, in welche Richtung wir manipuliert werden. Es bleibt zu hoffen, dass diese Dinge zugänglicher werden. Wir sollten uns nicht zu sehr von den Unkenrufen ablenken lassen, denn Innovationen eröffnen auch neue Chancen.
Geoffrey Fucile ist Datenwissenschaftler und Koordinator für die Unterstützung von Forschungsprojekten im Zentrum für wissenschaftliches Rechnen (sciCORE) und im Zentrum für Datenanalyse (CeDA).
Weitere Artikel in der aktuellen Ausgabe von UNI NOVA.