KI und Science Fiction: Warum es Skynet in den nächsten 15 Jahren nicht geben wird

Unsere Vision vom selbstfahrenden Unternehmen des Jahres 2035 wurde bereits bei vielen Veranstaltungen gegenüber einem interessierten Publikum aus Unternehmern, Journalisten und Wirtschaftsexperten präsentiert. In der anschließenden Diskussion werden immer wieder Fragen zu den möglichen Gefahren von künstlicher Intelligenz gestellt, oft in Analogie zum bekannten „Skynet“ aus der Terminator-Reihe. Dieser Artikel zeigt, wie Science Fiction auch helfen kann, die Potenziale von KI und selbstfahrenden Unternehmen besser zu verstehen.

Skynet ist ein fiktives, künstlich intelligentes Computersystem und wurde von der US-Regierung als automatisiertes Verteidigungssystem entwickelt, das in der Lage ist, sämtliche militärischen Operationen zu steuern und koordinieren. Im bereits 1984 gedrehten ersten  Film wird Skynet als selbstlernende KI dargestellt, die sich mit der Zeit immer weiterentwickelt und schließlich die Kontrolle über die Atomwaffen der USA übernimmt. Als die menschlichen Systemtechniker versuchen, Skynet abzuschalten, interpretiert das System dies als Bedrohung und beginnt, gegen seine Schöpfer zu kämpfen: Es aktiviert ein Netzwerk von humanoiden Robotern, den Terminators, um die Menschheit auszulöschen. Der erste Terminator-Film zeigt, wie einer dieser Skynet-Terminator in die Vergangenheit geschickt wird, um Sarah Connor zu töten, die Mutter des zukünftigen Anführers des Widerstands gegen die Maschinen.

Skynet trifft als künstliche Intelligenz seine Entscheidungen durch komplexe Berechnungen und Algorithmen. Wie auch heutige KI-Anwendungen ist Skynet in der Lage, enorme Mengen an Daten zu sammeln, zu analysieren und zu verarbeiten, um Prognosen und Entscheidungen zu treffen. Wie auch aktuell im Einsatz befindliche KI-Anwendungen lernt Skynet, seine Entscheidungsprozesse kontinuierlich zu verbessern. Das Problem ist jedoch: Skynet wird immer aggressiver und entscheidet, dass die Menschheit eine Bedrohung darstellt, die beseitigt werden muss.

Abbildung: Skynet. Quelle: Carolco Pictures

KI mit Emotionen und eigenem Willen?

An dieser Stelle stellt sich die Frage, wieweit eine künstliche Intelligenz wie Skynet Emotionen hat und egoistischen Überlegungen folgt – oder seine Entscheidungen nur auf Grundlage von Daten und Fakten trifft, ohne Rücksicht auf menschliche Werte oder Moralvorstellungen. Doch sämtliche KI-Modelle haben kein „Ich“ und damit keine Emotionen, keine eigene Meinung und keinen eigenen Willen. Letztlich wird es auch zumindest in den nächsten 15 Jahren nur Software sein, die darauf programmiert ist, die von den Menschen vorgegebenen Aufgaben zu erfüllen, wie wir bei der Vision des selbstfahrenden Unternehmens detailreich dargelegt haben.

Die Frage, ob eine künstliche Intelligenz jemals, in ferner Zukunft ein „Ich“ und einen eigenen Willen entwickeln kann, ist komplex und wird in der Forschung kontrovers diskutiert. Einige Experten glauben, dass es prinzipiell möglich ist. Dazu muss die KI in der Lage sein, menschenähnliche kognitive Prozesse zu imitieren oder sogar zu übertreffen. Dies schürt erneut Bedenken, dass die Entwicklung einer solchen KI mit einem eigenen Willen erhebliche Risiken birgt. Eine KI mit einem eigenen Willen könnte wie Skynet selbstbewusst und machthungrig werden und sich gegen ihre Schöpfer wenden – oder könnte Agenden verfolgen, die sich nicht mit den Zielen oder Werten ihrer Schöpfer, wie den Unternehmen, Organisationen oder der menschlichen Gesellschaft insgesamt vereinbaren lassen.

KI: Science Fiction versus echter Wissenschaft

Wie die Science-Fiction Vision am Beispiel Skynet zeigt, ist Science Fiction mittlerweile zu einem zentralen Bezugspunkt im Diskurs über die Ethik und die Risiken der KI geworden. Daher wird KI oft als „Science-Fiction-KI“ für Erzählungen über Ängste wie auch Hoffnungen der Technologie eingesetzt. Science-Fiction ist jedoch prinzipiell keine wissenschaftsbasierte Vorausschau oder Technologiebewertung, sondern erzählt lediglich stark emotionale Dramen für ein menschliches Publikum. Damit eine Story wie die Terminator-Reihe funktioniert, muss die KI als menschenähnlich oder autonom bzw. „gut oder böse“ dargestellt werden – ungeachtet der tatsächlichen technologischen Einschränkungen. Science-Fiction-KI also wörtlich zu interpretieren und in einer seriösen Wissenschaftskommunikation anzuwenden, zeichnet ein verzerrtes Bild des aktuellen Potenzials der Technologie. Das Problem dabei ist, dass damit von von den realen Potenzialen der KI abgelenkt wird,[1] wie dem selbstfahrenden Unternehmen, das den Menschen 80 % aller lähmenden Routinen abnimmt, unermüdlich und hochpräzise gewaltige Datenmengen verarbeitet, sämtliche Funktionen aufeinander abstimmt und eine nie dagewesene Wertschöpfung erbringt.

Bei den „echten“ Risiken von KI geht es nicht um humanoide Roboter oder bewusst handelnde Maschinen, sondern um das Bewerten, Diskriminieren, Ausbeuten und Überwachen von Menschen durch KI-Technologien seitens Regierungen und Unternehmen.

Wie dargestellt, ist der Science-Fiction-Diskursrahmen aufgrund seiner technischen Ungenauigkeiten in Abhängigkeit von Unterhaltungsmedien nicht für eine ernsthafte KI-Diskussionen geeignet.

Es gibt jedoch auch einen positiven Zugang zur Science-Fiction: Sie kann den EntwicklerInnen und ForscherInnen helfen zu verstehen, wie Menschen und ganze Gesellschaften auf neue KI- und Robotersysteme reagieren könnten, worauf die Entwickler ihre Systeme besser auf diese Gefahren und Risiken abstimmen können. Die Darstellungen von künstlicher Intelligenz in Science-Fiction können also auch helfen, die KI-Potenziale klarer zu kommunizieren.

Ein weiteres kontrovers diskutiertes und ebenfalls klassisches KI-Beispiel ist „David“, das humanoide Roboterkind in Steven Spielbergs „AI“.

[1] Vgl. Hermann 2023, S. 319

Das Roboterkind David

Das KI-Roboterkind namens David wird im Film von einem Paar adoptiert, nachdem ihr eigenes krankes Kind kryogenisch eingefroren wurde, in der Hoffnung auf eine Heilung in der Zukunft. David wurde entwickelt, um menschenähnliche Emotionen zu empfinden, insbesondere Liebe und Zuneigung und damit als Ersatzkind zu fungieren. Zunächst entwickelt David auch eine starke Bindung zu seiner menschlichen Mutter, die ihn zuerst liebevoll behandelt, aber später beginnt, ihn als Bedrohung für ihre eigene Familie zu betrachten.

Die Mutter in „AI“ lehnt David zunehmend ab, weil sie paradoxerwesie aufgrund seiner perfekten Eigenschaften zunehmend beunruhigt ist. Davids unerschütterliche Liebe und sein Verlangen nach ihrer Zuneigung und Nähe empfindet sie immer unheimlicher. Vor allem, als ihr krankes Kind wieder gesund wird und nach Hause zurückkehrt, beginnt sie, David als lästigen Eindringling zu betrachten. Die Mutter hat auch Schwierigkeiten, mit der Tatsache umzugehen, dass David ein KI-Roboter ist, der menschenähnliche Emotionen empfindet, aber dennoch nicht wirklich menschlich ist. Sie ist besorgt, dass er ihre Familie in Gefahr bringen könnte, wenn seine menschenähnlichen Emotionen außer Kontrolle geraten.

Insgesamt zeigt die Ablehnung von David durch die Mutter in „AI“ die Herausforderungen und Konflikte auf, die entstehen können, wenn menschenähnliche KI-Roboter in das Leben von Menschen eingeführt werden und versuchen, menschenähnliche Beziehungen zu bilden.

Der Film zeigt wie Terminator mit dem Skynet eine dystopische Zukunft, in der die Menschheit sich fast selbst ausgelöscht hat und in der KI-Roboter die letzten Überlebenden sind.

KI definiert die Beziehung zwischen Mensch und Technik neu

Die Science Fiction Storys von Skynet und „AI“ thematisieren viele KI-relevante Themen, darunter die Frage künstlicher Emotionen, die menschliche Natur, die Beziehung zwischen Mensch und Technologie – jene Frage, die bei jeder technischen Innovation immer wieder gestellt werden muss und heute komplexer denn je ist.

Aufgrund dieser Erkenntnisse hat ein japanisches Forscherteam[1] in einer Metastudie zusammen mit erfahrenen Kritikern und Autoren Darstellungen von künstlicher Intelligenz in Science Fiction analysiert. Zunächst wurden 115 in Science Fiction Werken beschriebene KI-Systeme anhand von drei Kriterien ausgewählt:

  • Diversität der Intelligenz
  • Soziale Aspekte
  • Erweiterung menschlicher Intelligenz

Neun Elemente, die ihre Eigenschaften repräsentieren, wurden geclustert und anhand ihrer Hauptkomponenten analysiert. Die Ergebnisse deuten auf das Vorherrschen von vier unterschiedlichen Kategorien hin: menschenähnliche Charaktere, intelligente Maschinen, Helfer wie Fahrzeuge und Ausrüstung sowie Infrastrukturen, die digital abgebildet werden können.

Die Ergebnisse zeigen zudem, dass Science Fiction für KI und Robotertechnologien auch fantasievolle und positive Visionen von KI in der Gesellschaft ermöglicht – wie auch beim selbstfahrenden Unternehmen 2035, das ebenfalls frei bewegliche Roboter, digitale Zwillinge, KI-Analysewerkzeuge und intelligente Infrastrukturen einsetzt und damit den Menschen Freiraum für höhere, empathische und kreative Tätigkeiten verschafft.

[1] Osawa et al. 2022, S. 2123–2133

Quellen

Hermann, I. (2023): Artificial intelligence in Fiction: Between Narratives and Metaphors. In: AI & Society 38, S. 319–329.

Osawa, H., Miyamoto, D., Hase, S. et al. (2022): Visions of Artificial Intelligence and Robots in Science Fiction: a Computational Analysis. In: International Journal of Social Robotics 14, S. 2123–2133.

Letzte Beiträge
Beitrag teilen:
Facebook
Twitter
LinkedIn
XING
Email