2062: The Promise and the Peril of our Artificially Intelligent Future (en/de)
Prof. Dr. Toby Walsh, Informatiker und KI-Forscher, University of New South Wales, Sydney /Australien
Ein ganzes Wochenende lang diskutierten Expert:innen aus KI-Forschung, Wissenschaft, Politik, Kultur und Zivilgesellschaft darüber, was mit dem schillernden Begriff der Künstlichen Intelligenz überhaupt gemeint ist, für welche Probleme ihr Einsatz Lösungen bieten kann und welche bestehenden gesellschaftlichen Konflikte KI-Anwendungen andererseits verstärken und womöglich selbst erst hervorbringen:
Bis zum Jahr 2062 werden wir Maschinen entwickelt haben, die so intelligent sind wie wir, prognostiziert Toby Walsh, einer der weltweit führenden Wissenschaftler auf dem Feld der künstlichen Intelligenz und weiß sich darin mit der Mehrheit der KI-Forscher:innen einig. Wird der homo sapiens dann vom homo digitalis abgelöst? Welche Weichen müssen heute gestellt werden, um uns auf diese Zukunft vorzubereiten? In seiner Keynote schlägt Toby Walsh einen Bogen von der Geschichte der KI-Forschung und ihren Fragestellungen über die Gegenwart bis in eine Zukunft, die viele von uns noch erleben könnten. Er erläutert, in welchen Eigenschaften KI uns überlegen ist, worin andererseits der Mensch unschlagbar ist und geht auf Chancen wie Gefahren in unserer Co-Existenz mit Künstlicher Intelligenz ein.
Ansätze der statistischen Erfassung von Menschen und sozialen Phänomenen lassen sich bis ins frühe 19. Jahrhundert zurückverfolgen. Sie sind verknüpft mit dem Bestreben nach Kontrolle und Regulierung des gesellschaftlichen Lebens. Mustererkennung, wie sie gegenwärtige KI-Verfahren leisten, ist daher keineswegs ein neues Phänomen. Das Panel widmet sich der Frage, was es bedeutet, wenn gesellschaftliches Leben als Datensatz erfasst und nach statistischen Verteilungen kategorisiert und klassifiziert wird. Welche Möglichkeiten und Gefahren bringt der Einsatz von KI heute mit sich? Welche gesellschaftlichen Probleme, die sich vorher so vielleicht gar nicht stellten, geraten durch Mustererkennung in Big Data erst in den Blick?
Mittlerweile kommen wir alle fast tagtäglich mit Techniken der Künstlichen Intelligenz in Berührung. Zu den prominenten Beispielen gehören Sprachassistentinnen wie Alexa und Siri, die Auskunft zum Wetter geben, an wichtige Termine erinnern oder auf Sprachkommando Heizung und Licht regeln. In der diagnostischen Medizin unterstützen Techniken der Künstlichen Intelligenz Ärzt:innen bei zentralen gesundheitskritischen Entscheidungen. In der industriellen Fertigung entlasten Roboter den Menschen bei der Durchführung von Montagearbeiten. Aber was kann Künstliche Intelligenz wirklich? Und welche Kompetenzen benötigen wir, um sie sinnvoll nutzen zu können? Hierzu soll der Vortrag einen Einblick geben.
Social Media-Plattformen werden durch Algorithmen reguliert und deren Inhalte somit für Nutzer:innen automatisch vorgefiltert. Dies geschieht auf der Basis individueller Daten und mutmaßlicher Präferenzen, die Mechanismen bleiben größtenteils intransparent. Nutzer:innen können nur in begrenztem Maße selbst steuern, welche Inhalte sie zu sehen bekommen und wen sie mit ihren Beiträgen erreichen. Der durch Algorithmen gesteuerte Informationsfluss hat Auswirkungen auf die freie Meinungsbildung und damit auf ein zentrales demokratisches Prinzip: Algorithmen entscheiden (mit), wo Kontroversen und Probleme überhaupt erst sichtbar werden. Das Panel diskutiert: Wo wird der Einfluss von KI auf politische Prozesse unter- und wo vielleicht überschätzt? Wann entpolitisieren Anwendungen von KI gesellschaftliche Probleme und wie kann der Einsatz von KI andererseits dazu beitragen, neue Formen von Demokratie zu ermöglichen?
Künstliche Intelligenz ist eingebettet in ein globales ökonomisches System, in dem Plattformunternehmen den Ton angeben und zunehmend selbst in der KI-Forschung dominant werden. Der Einfluss von Google, Facebook, Amazon & Co. geht dabei längst über wirtschaftliche Sphären hinaus. Sie sind wichtige Bühnen gesellschaftlicher Auseinandersetzungen und mächtige Akteure in politischen Prozessen. Unternehmensinterne Entscheidungen haben deutliche Folgen für Abermillionen von Nutzer:innen und ihr Einfluss wächst beständig. Was heißt es für Nutzer:innen der Plattformen, im Zweifelsfall deren Willkür ausgeliefert zu sein? Welche Ziele verfolgen die Tech-Giganten eigentlich? Welche Konsequenzen haben deren Pläne zur Nutzung künstlicher Intelligenz kurz- wie langfristig, für Individuen und Gesellschaft?
Im Oktober 2020 wurde das SCHAUFLER LAB mit dem Schaufler Kolleg und der Schaufler Residency an der TU Dresden eröffnet. Die Impulsvorträge und die Podiumsdiskussion geben erste Einblicke in die Projekte der beiden Künstler-Stipendiaten und in die Forschung der Wissenschaftler:innen vor Ort. Christian Kosmas Mayer (*1976 in Sigmaringen, lebt und arbeitet in Wien) und Anton Ginzburg (*1974 in St. Petersburg, lebt und arbeitet in New York), haben 2020/21 mit unterschiedlichen Disziplinen und Instituten der TUD für ihre künstlerische Forschung zusammengearbeitet – beispielsweise mit der Informatik, Mathematik, Biologie und der Kältetechnik. Korrespondierend dazu berichten die Schaufler-Kollegiat:innen Rebekka Roschy (Technikgeschichte) und Michael Klipphahn (Kunstgeschichte) von Fallbeispielen aus ihren Forschungen, die ebenfalls zwischen Kunst, KI und Technikgeschichte angesiedelt sind.
Die KI-Forschung und Entwicklung ist schon immer mit bestimmten Absichten und Interessen ihrer Produzent:innen verbunden gewesen. Deren subjektive Vorstellungen, Fantasien und Wünsche haben einen wesentlichen Einfluss auf die konkrete Form und Funktion von KI-Anwendungen. Damit werden jedoch oft nur die sozialen Identitäten, Positionen und Interessen der Menschen repräsentiert, die an der Finanzierung und Produktion von KI beteiligt sind. Inwiefern stellt es ein Problem dar, dass Technik, die Millionen, wenn nicht Milliarden Menschen täglich nutzen, von bestimmten privilegierten sozialen Gruppen entwickelt wird, die dieser Technik ihre Projektion universeller Anliegen und Bedürfnisse einschreiben? Das Panel wird kritisch reflektieren, mit welcher Rhetorik und welchen Interessen KI-Verfahren präsentiert werden, zu wessen Nutzen die globale Verbreitung von KI ist und wem sie kaum etwas bringt oder gar schadet.
Angesichts der dominanten Rolle, die große Konzerne in der Entwicklung und Verbreitung von KI-Verfahren spielen und der Berichte über immer effizientere Gesichtserkennungssysteme, die von politischen Akteur:innen zu Überwachungszwecken eingesetzt werden, entsteht schnell der Eindruck, das Künstliche Intelligenz nicht viel mehr ist als ein Instrument der Kontrolle für politische und ökonomische Zwecke. Aber was kann KI außerdem sein? Dieses Panel beschäftigt sich mit alternativen Anwendungsbeispielen von KI in gemeinschaftlichen und kreativen Projekten. Welche Möglichkeiten können Kollaborationen mit KI bieten, die außerhalb von Profitdenken und Machtinteressen stattfinden? Welche neuen Vorstellungen – von KI wie von den Menschen, die mit ihr interagieren – können dabei entstehen und welche neuen Welten werden denkbar?
Fortschritte im Bereich KI verleiten häufig zu der Annahme, dass bald sämtliche menschliche Emotionen “ausgelesen” werden können, beispielsweise durch die (angeblich) fehlerfreie Erfassung und Deutung der menschlichen Stimme oder von Gesichtsausdrücken. Algorithmische Entschlüsselungssysteme sollen zukünftig Stellenbewerber:innen beurteilen, Grenzkontrollen erleichtern, Lügen von Strafverfolgten erkennen, eine attraktivere Gestaltung von Werbung ermöglichen und Krankheiten wie Demenz oder Depression diagnostizieren. So umstritten wie diese Anwendungsfelder sind auch die Grundlagen, auf die sich die Forschungen für die Entwicklungen dieser Technologie stützen. So werden bis heute die Feldstudien des US-amerikanischen Psychologen Paul Ekman aus den 1960er und 1970er Jahren herangezogen, die davon ausgehen, dass emotionale Ausdrücke universell sind. In diesem Panel sprechen wir über die Gefahren der Annahme, jedes Gesicht agiere als lesbares Gefühlsorakel, sowie auf einer darauf fußenden Beeinflussung des Menschen. Ausgehend von psychologischen Forschungen auf dem Feld der Emotionen werden künstlerische und spielerische Interventionen vorgestellt, die das öffentliche Verständnis für die Systeme zur Erkennung von Gesichtern und Emotionen fördern wollen.
In gegenwärtigen Diskussionen um künstliche Intelligenz ist oft von smarten Geräten, adaptiven Verfahren und automatisch optimierten Entscheidungen die Rede. Doch wird dabei selten explizit reflektiert, was eigentlich genau das Intelligente an maschinellem Lernen ist und woran sich die Leistungen der Maschinen messen sollten. Was verbirgt sich hinter dem Konzept der Intelligenz und sollte zwischen verschiedenen Formen von Intelligenz – etwa menschlicher, sozialer, technischer oder künstlerischer – unterschieden werden? Was trennt diese verschiedenen Formen und was verbindet sie?
Als ‚intelligent‘ darf Technik womöglich gelten, wenn ihr Einsatz Lösungen für Probleme liefert, auf die sonst niemand hätte kommen können. Was aber, wenn sie nicht wie erhofft funktioniert und Ergebnisse produziert, die sich niemand gewünscht hatte? Wie kann man sich überhaupt sicher sein, dass sie funktioniert? Das Podiumsgespräch widmet sich den Momenten, in denen KI scheitert, ‚dumme‘ Outputs liefert oder ihre Produzent:innen täuscht. Außerdem wird es darum gehen, welche Ressourcen selbst für künstliche Dummheit verschlungen werden und was mit ausrangierter Technik passiert.
Mit dem Festival findet das Projekt Generation A=Algorithmus seinen Abschluss. Das zweijährige Projekt des Goethe-Instituts hat es sich zum Ziel gesetzt, junge Erwachsene für die technischen und ethischen Entwicklungen im Bereich KI zu sensibilisieren. Schließlich sind sie es, die die Weichen für die nächste Generation, die Generation A, und deren alltäglichen Umgang mit Algorithmen stellen. Wie wird deren Lebensrealität aussehen? Wohin wird sich die Schlüsseltechnologie des 21. Jahrhunderts entwickeln? Wie kann jeder einzelne und jede einzelne diese Entwicklungen beeinflussen? Diesen und anderen Fragen ging das Projekt mit verschiedenen Formaten wie Hackathons, Residenzprogrammen, Diskussionsreihen oder einer Online-Befragung unter jungen Erwachsenen nach. Beim Festival werden einige der Teilnehmenden aus ganz Europa Antworten geben und ihre Visionen von einem zukünftigen Leben mit KI präsentieren sowie debattieren.
Die bisherigen Entwicklungen im Bereich der Künstlichen Intelligenz sind eng verwoben mit Fragen der Kolonialisierung. Bestehende gesellschaftliche Vorurteile werden verschärft und Ungleichheiten vertieft. Die 2019 gegründete Indigenous Protocol and Artificial Intelligence (A.I.) Working Group begegnet diesem negative Narrativ mit der Entwicklung neuer konzeptueller und praktischer Herangehensweisen an das Design von KI-Systemen. Denn KI bietet unter anderem eine Möglichkeit, neu und anders über Menschen und Nicht-Menschen nachzudenken und eine weniger anthropozentrische Sichtweise einzunehmen. Wie kann die Diskussion über die Rolle von Technologie in der Gesellschaft über die weitgehend kulturell homogenen Forschungslabore und die Startup-Kultur des Silicon Valley hinaus erweitert werden? Und wie können indigene Perspektiven zur globalen Diskussion über KI beitragen?
Sprache definiert die Welt. Maschinen, die sie übersetzen, arbeiten an dieser Definition zwangsläufig mit. Obwohl KI-basierte Übersetzungstools stetig bessere Ergebnisse hervorbringen: In Bezug auf „Gender“ oder „Race“ weisen sie viele Mängel und Verzerrungen auf. Das Goethe-Institut, das für eine inklusive Sprache steht, entwickelt im Projekt „Artificially correct“ zusammen mit Expert:innen neue Tools, die den Bias in Übersetzungen minimieren. Damit soll die Stellung von Übersetzer:innen und ein bewusster Umgang mit Übersetzungsmaschinen gestärkt sowie die Realität möglichst vieler Menschen in den Übersetzungsprozess inkludiert werden. Bei diesem Panel zeigen Teilnehmer:innen und Jurymitglieder eines „Artificially correct Hackathons“ wie man das Bias-Problem konkret angehen kann.