Juli 062025
 

In seinem Buch „Homo Deus“ beschreibt Yuval Noah Harari, wie der Mensch kurz davor steht, „gottähnliche“ Fähigkeiten zu erlangen und auf Unsterblichkeit, die „Konstruktion“ von dauerhaften persönlichem Glück (z.B. durch Neurotechnologie, Psychopharmaka) und das Erschaffen von Leben abzielen wird.

Ray Kurzweil kündigte schon 2005 die bevorstehende „technologische Singularität“ an, der Moment, wenn künstliche Intelligenz die menschliche Intelligenz übertrifft und sich rasant selbst verbessert, wodurch die Zukunft der Menschheit nach diesem Ereignis nicht mehr vorhersehbar ist.

Es stellen sich somit einige bedeutsame Fragen: Wie werden sich die Menschheit und unsere Zivilisation verändern, wenn KI Menschen in nahezu allem überlegen ist? Was bedeutet dies für unser Wirtschaftssystem, das auf Wettbewerb, knappen Ressourcen und einem Wachstumsparadigma aufbaut? Inwiefern werden Menschen staatliche Ordnung noch akzeptieren, wenn KI auch der Politik überlegen ist?

Harari sieht einen fundamentalen Bedeutungsverlust des Menschen kommen, denn mit der Entstehung von Superintelligenz und der Möglichkeit, dass Algorithmen unsere Entscheidungen besser treffen können als wir selbst, wird der Mensch seinen Status als Krone der Schöpfung endgültig verlieren. Harari warnt davor, dass:

  • viele Menschen von wirtschaftlicher Bedeutung entkoppelt werden („nutzlose Klasse“)
  • ethische Fragen um Menschenrechte, Privatsphäre und Identität neu gestellt werden müssen
  • die Welt nicht mehr von bewussten Wesen (Menschen), sondern von nicht-bewussten, aber intelligenten Algorithmen dominiert werden könnte.

Wir nähern uns zügig einer „neuen Welt“, die je nach Betrachtungsweise sehr nahe an Dystopien heranreicht: Autonom agierende Drohnen und Kampfroboter, totale Überwachung via Satelliten und Drohnen, „Krieg der Sterne“ durch „Satellitenkiller“ sowie erste „Dunkle Fabriken“ in China ohne jegliche menschliche Arbeiter lassen uns schnell an Filme wie „Terminator“ denken, wo Maschinen gesteuert durch eine Superintelligenz („Skynet“) die Kontrolle übernehmen. Tatsächlich weiß niemand, welche Folgen das Erreichen einer „AGI“ – einer künstlichen allgemeinen Intelligenz – auf unsere Welt haben wird.

Mich erinnert die Diskussion um KI an eine Szene aus dem Film „Good Will Hunting“, in welcher Sean Maguire (Robin Williams) dem Genie Will Hunting (Matt Damon) erläutert, warum er trotz seines umfassenden Wissens und seinem intellektuellen Können ein „Kind“ ist. „Michelangelo. Du wirst alles wissen. Sein Lebenswerk kennst du. Seine Ansichten. Sein Verhältnis zum Papst. Seine sexuellen Neigungen. Einfach alles. Aber ich wette du kannst mir nicht sagen, wonach es in der Sixtinischen Kapelle riecht. Du bist nie dagewesen und hast diese wunderbare Decke gesehen. Dort oben.“ Diese Filmszene ist ein Highlight in einem äußerst sehenswerten Film. Und sie sagt etwas über KI aus, was sehr wesentlich ist: KI hat keine eigene – mit und durch Emotionen geprägte – Wahrnehmung, kein eigenes Bewusstsein, keinen Willen, keinen Körper, keine Gefühle. So faszinierend wir die Erzeugnisse von KI finden mögen – sie basieren letztlich auf unserem eigenen Schaffen und die KI „weiß“ nicht was sie weiß. Sie weiß nichts aus „persönlicher“ Erfahrung, sie weiß nichts aus – durch Glaubenssätze und Erfahrungen geprägter – Interpretation, aus Erleben. Sie hat keine Schmerzen und empfindet kein Glück. KI berechnet lediglich Stück für Stück die wahrscheinlich beste Antwort auf eine Fragestellung.

Was mir noch viel fundamentaler erscheint ist, dass KI keine Endlichkeit hat. Sie hat keinen „einprogrammierten“ finalen Tod. Angenommen, man gäbe einem Roboter alle oben aufgeführten Aspekte und würde – basierend auf Selbstwahrnehmung und künstlich erzeugten Emotionen sowie einem Programm zum „Selbsterhalt“ – sogar eine Art Bewusstsein erschaffen. Also gewissermaßen einen „Data“ (Raumschiff Enterprise). Dieser „Data“ wüsste dennoch zu jedem Zeitpunkt, dass er vollkommen replizierbar ist. Und damit in gewisser Hinsicht unsterblich. Wie könnte „Data“ Ehrfurcht oder Demut fühlen, staunen, Ehrgeiz entwickeln? Warum sollte er dem Moment Bedeutung beimessen, wo doch noch „unendlich“ viele weitere kommen werden? Wie wichtig könnten ihm Zeitgenossen sein in diesem Kontext? Wovor hätte er wirklich „Angst“? Was würde ihn treiben?

Es ist unsere Sterblichkeit, die allem Leben und dem Jetzt Bedeutung verleiht. Sehr prägnant ausgedrückt durch Homer in Illias und verwendet im Film Troja: „Die Götter beneiden uns. Sie beneiden uns, weil wir sterblich sind, weil jeder Augenblick unser letzter sein könnte. Alles ist so viel schöner, weil wir irgendwann sterben. Nie wirst du zauberhafter sein als in diesem Moment, nie wieder werden wir hier sein.“ Oder wie Steve Jobs es formuliert hat: „Der Tod ist sehr wahrscheinlich die beste Erfindung des Lebens. Er ist der Veränderer des Lebens. Er räumt das Alte aus, um Platz für das Neue zu schaffen.“

Der Mensch wird mittels KI möglicherweise Wege finden, die Lebenserwartung signifikant zu verlängern. Doch den Tod als solches wird er nicht „bezwingen“. Denn der Körper ist nicht nur ein Vehikel, das unseren Geist trägt und „einfach so“ erneuert oder ausgetauscht werden kann. Bewusstsein ist nach meiner Überzeugung nicht emergent – es ist anders herum: Bewusstsein ist der Ursprung, die physische Welt das Konstrukt. Bewusstsein entsteht nicht im Raum, Raum entsteht durch Bewusstsein.

Mit unendlichem Gespür vernimmt die Seele Töne, die das Ohr nicht hört,
und sieht, was den Augen verborgen bleibt,
durch alle Zeiten, Räume hin und über sie hinaus.
Grenzenlos, ursprünglich ist ihr Wissen – ihre Erinnerung.

– I Ging

Ich habe es schon an anderer Stelle formuliert: Es gibt nur das Jetzt. Wir erleben die Zeit als Prozess, als Abfolge von Geburt, Wachstum/Entwicklung, Zerfall und letztlich dem Tod. Immer wieder. Und ohne jegliche Aussicht, dass dies jemals anders sein könnte (was letztlich einen wesentlichen Aspekt aller Religionen ausmacht, die das „Danach“ postulieren und dem Bewusstsein einen Hoffnungsschimmer geben).

Ein kleiner Exkurs in die „Metaphysik“: Wie möglicherweise aus meinen anderen Beiträgen ersichtlich bin ich nicht religiös. Ich glaube nicht an „Gott“ i.S. etablierter Religionen. Was mir am wahrscheinlichsten erscheint ist, dass es ein „Superbewusstsein“ bzw. eine „Superintelligenz“ gibt und wir sowie alles Leben und alle Dinge Teile davon darstellen, denen ein eigenes Bewusstsein gegeben ist, das sich zur Selbstentwicklung und Selbsterkennung verkörpert und durch Denken, Fühlen und Handeln seine Welt erschafft im geteilten „Bewusstseinsmeer“ bzw. der geteilten Welt der Anderen. Wir sind ein Tropfen im Meer – und damit das Meer, ein Sandkorn in der Wüste – und damit die Wüste. Wir sind ein Fraktal. Ein Schwingungsknoten in einem Bewusstseins-Netzwerk. Und es steht überall „geschrieben“, überall dieselben Muster (z.B. Fibonacci-Spiralen kommen in Hurrikanen, Sonnenblumen und Muscheln vor). Wir sehen eine Syntax. Die Religionen sind m.E. „Erinnerungen“ daran. Man lese z.B. die folgenden Zeilen aus der Bibel (Johannesevangelium) und ersetze „Wort“ durch „Bewusstsein“: „Im Anfang war das Wort, / und das Wort war bei Gott, / und das Wort war Gott.“ (Joh 1,1).

Genug dazu. Dieser Beitrag geht um KI und Menschsein und – wie alle meine Artikel – betrachte ich ihn als Wegweiser oder zumindest Impulsgeber für meine Kinder sowie für alle, die es lesen und daraus für sich etwas gewinnen. Selbst KI-Modelle. 🙂

Neben KI sind weitere technologische Entwicklungen ebenfalls sehr bedeutsam, z.B. das Arbeiten an einer Hirn-Computer-Schnittstelle (Neuralink), Quantencomputer oder die Bestrebungen nach einem Fusionsreaktor. Alle diese Technologien können die Welt, wie wir sie kennen, fundamental verändern. Zu ersterem möchte ich noch vertiefen:

Alexandr Wang, Gründer und CEO von Scale AI, einer Plattform für Datenannotation, die Trainingsdaten für maschinelle Lernmodelle bereitstellt, ließ kürzlich verlauten, er warte mit Nachwuchs, bis Elon Musks Neuralink realisiert ist. Wenn ein hochbegabter KI-Experte eine solche Aussage macht, sollte das Beachtung finden, denn die Implikationen sind weitreichend. Konkret: „Wenn wir Neuralink und diese anderen Technologien bekommen, werden Kinder, die damit geboren werden, lernen, sie auf verrückte Weise zu nutzen“, sagte Wang und erklärte, dass die ersten sieben Lebensjahre – wenn die Neuroplastizität ihren Höhepunkt erreicht – den fruchtbarsten Boden für die Integration von KI in die menschliche Erfahrung darstellen.

Hier geht es also nicht darum, dass uns KI beherrscht. Es geht um Fusion. Um Integration bzw. „Transhumanismus“. So wie wir derzeit „always on(line)“ sind, könnte eine Hirn-Computer-Schnittstelle Lernen in einer Weise verändern, wie es z.B. im Film „Matrix“ angedeutet wurde: relevantes Wissen wird ad-hoc „hochgeladen“. „Augmented Reality“ würde somit nicht durch ein externes Gerät erzeugt, sondern direkt in unserem Kopf. Wang sieht es als Notwendigkeit an, damit Menschen „relevant bleiben, wenn KI immer besser wird“. Wenn er Recht behält, könnte es durchaus sein, dass diese neue „post-biologische“ Spezies Menschen ohne Schnittstelle bzw. ohne integrierter KI so eklatant hinter sich lässt, dass es auf eine Dominanz bzw. Beherrschung hinausläuft.

Persönlich glaube ich nicht, dass es so kommen wird. Denn wie oben beschrieben, ist reine Information – ohne Emotion, ohne Kontext – nicht ausreichend. Ich glaube sehr wohl, dass man Technologien wie Neuralink punktuell einsetzen können wird, z.B. um motorische Fähigkeiten zu trainieren oder Wissenserwerb zu beschleunigen. Indes sehe ich noch keine neuen „Super-Menschen“ am Horizont. Was mir wesentlich wichtiger erscheint ist, „Nutzen“ neu zu definieren, denn Harari hat durchaus einen validen Punkt: Menschen identifizieren sich weitestgehend über ihre Arbeit, deren Wert wiederum primär quantitativ/wirtschaftlich verstanden wird. Wenn KI-gestützte Anwendungen und Roboter fast alles besser können als Menschen und wir möglicherweise durch ein bedingungsloses Grundeinkommen keine Zwänge mehr haben, worin finden wir dann Sinn und Bedeutung? Oder etwas krasser formuliert: wenn wir ins „Paradies“ kommen (bzw. es erschaffen haben), was ist dann unsere Aufgabe? Wozu sind wir da?

Ich sehe ab 2030 das größte Risiko darin, dass Menschen KI-gestützte autonome Waffentechnologie einsetzen ohne alle Folgen wirklich vorhergesehen zu haben. Und sich viele Menschen in Ermangelung von Religion bzw. Spiritualität und gefühlter Nutzlosigkeit in virtuellen Welten und „alternativen“ Bewusstseinszuständen verlieren werden. Ich empfehle dazu als Denkimpuls das Buch „Die beste aller Welten“ von Gerhard Schulze. Das Buch ist schon über zwanzig Jahre alt, seine Inhalte aus meiner Sicht aber aktueller denn je:

„Je mehr wir können desto wichtiger wird die Frage wer wir sind und was wir wollen. […] Jenseits der Sachen findet das Subjekt sich selbst als Thema wieder.“

„Neben dem alten Zentrum der Sachen, der Natur, des Könnens gewinnt das Zentrum des Subjekts, der Kultur, des Seins an Macht; Immer mehr von dem was sachbezogen zu tun ist wird von Sachen selbst erledigt. Das sachbezogene Tun der Menschen fällt auf einen historischen Tiefstand.“

KI – sowie viele andere neue technologische Durchbrüche – werden uns Menschen dazu zwingen, Menschsein neu und tiefer zu definieren. Und ich glaube, dass ein Gefühl immer entscheidender sein wird, damit wir uns nicht selbst ins Chaos stürzen: Demut. Vor dem Leben. Vor dem Universum. Vor allem was ist.

„Das Einzige, was du hast und was niemand sonst hat, bist du. Deine Stimme, dein Verstand, deine Geschichte, deine Vision. Also schreibe und zeichne und baue und spiele und tanze und lebe so, wie nur du es kannst.“
– Neil Gaiman

 Leave a Reply

(erforderlich)

(erforderlich)

Diese Seite verwendet Akismet, um Spam zu reduzieren. Erfahre, wie deine Kommentardaten verarbeitet werden..

Cookie Consent mit Real Cookie Banner