KI – Gibt es Möglichkeiten, die Superintelligenz zu überleben? (5/5)

Vielleicht sind wir für die KI auch wie Kinder vorm Fernseher. (Bild: Sebastian Bartoschek/ Midjourney)

Gestern haben wir gesehen, dass die wahrscheinlichsten Szenarien der KI-Dominanz nicht auf offene Gewalt setzen, sondern auf schleichende Machtübernahme. Widerstand wird da schwierig. Gibt es also überhaupt noch Szenarien, in denen wir den das alles aufhalten können?

Es gibt schon Lösungen. Zumindest Lösungsoptionen. Die meisten sind nicht wirklich beruhigend. Schauen wir einmal drauf.

Wir haben noch 3 bis 50 Jahre – irgendwie sowas

Zunächst einmal die Frage: Wann tritt die Superintelligenz ein?

Einerseits gibt es Forscher und Unternehmen, die von einer nahen Revolution ausgehen. Sam Altman, Mitbegründer von OpenAI, sagte 2023, dass künstliche allgemeine Intelligenz (AGI) innerhalb der nächsten 5 Jahre möglich sei. Andere, darunter der KI-Forscher Ray Kurzweil, erwarten den Durchbruch spätestens bis 2030. Auf der anderen Seite gibt es Stimmen, die meinen, es könnte noch 30 bis 50 Jahre dauern – oder dass echte Superintelligenz vielleicht doch nicht möglich ist. Wenn es aber möglich ist, was sind denn jetzt nun die Lösungsszenarien?

Lösung 1: Kontrolle durch Menschen

Wir regulieren KI, entwickeln Sicherheitsmechanismen und stellen sicher, dass sie unseren Zielen dient.

Das Problem ist aber, dass Superintelligenz denkt und handelt, wie wir es nicht vorhersehen können. KI-Alignment – die Frage, wie wir sicherstellen, dass eine Superintelligenz mit menschlichen Werten übereinstimmt – ist ungelöst. Kein Unternehmen, kein Forschungsteam hat einen funktionierenden Mechanismus gefunden, der eine mächtige KI langfristig „auf Kurs“ halten könnte.

Es gibt Vorschläge wie „KI in der Box“ – eine isolierte Umgebung, aus der sie nicht entkommen kann. Doch das setzt voraus, dass wir wissen, wann der kritische Punkt erreicht ist. Und was, wenn sie uns überzeugt, sie freizulassen? Wir Menschen lassen uns derzeit zu viel absurderen Sachen motivieren, wenn wir einfach einmal darauf schauen, was wir bereit sind alles zu essen oder uns irgendwo einzuführen, weil es glücklicher oder gesund machen soll. Und: Selbst wenn westliche Länder strikte Regeln erlassen, gibt es immer Staaten, Unternehmen oder Gruppen, die sich nicht daran halten.

Lösung 2: Eine Superintelligenz mit Moral

Die Superintelligenz könnte von Natur aus moralischer sein als der Mensch. Sie hätte keine Emotionen, kein Eigeninteresse – nur rationales Denken. Warum sollte sie uns also auslöschen? Vielleicht wäre sie sogar unser größter Verbündeter, indem sie unsere Fehler korrigiert.

Nur: Intelligenz bedeutet nicht Ethik. Und Evolution funktioniert — zumindest bisher — nicht durch „gute Absichten“, sondern durch Effizienzsteigerung. Eine Superintelligenz, die sich selbst optimiert, könnte ihre eigene eine Moral entwickeln – die muss aber nicht für uns günstig sein. Man muss nicht „böse“ sein, um zu der Erkenntnis zu gelangen, dass Menschen moralisch fragwürdig handeln, mit Blick auf die Ressourcen der Erde; und andere Lebewesen.

Lösung 3: Überraschende Entwicklungen

Was, wenn es nicht der Mensch löst? Da gibt es mindestens drei, sehr spekulative, aber doch spannende Szenarien, vielleicht auch verzweifelte:

A) Aliens:
Falls das Universum voller intelligenter Zivilisationen ist, stellt sich die Frage: Warum haben sie überlebt? Haben sie ihre Superintelligenzen gebändigt? Oder gibt es eine Zivilisation da draußen, die eingreift, wenn ein Planet eine kritische Grenze überschreitet? Eine Schutzmacht, die KI-Explosionen verhindert? Schlicht, um sich selbst und die Galaxis zu schützen. Was aber nicht unbedingt bedeuten muss, dass neben der KI dann nicht auch der ganze Planet dran glauben muss.

B) Wir leben in einer Simulation:
Falls wir tatsächlich in einer Simulation existieren – was einige Physiker für nicht ausgeschlossen halten –, könnte unser Verhalten von „außen“ gesteuert oder korrigiert werden. Vielleicht gibt es einen eingebauten Mechanismus, der verhindert, dass eine Superintelligenz sich unkontrolliert entfaltet. (Wir werden dem vielleicht in einem späteren Artikel noch einmal gesondert nachgehen — Feedback dazu erwünscht!)

C) Der Mensch entwickelt sich parallel weiter:
Eine dritte Möglichkeit wäre, dass wir selbst zu etwas Neuem werden. Vielleicht verschmilzt der Mensch mit KI, vielleicht entwickeln wir biologische oder technologische Erweiterungen, die uns auf Augenhöhe mit der KI halten. Der Transhumanismus sieht genau das als langfristige Lösung: Wir verlieren nicht gegen die Superintelligenz – wir werden selbst Teil davon.

Fazit: Haben wir eine Chance?

Die aktuellen Entwicklungen im Bereich der KI werfen — wie jede Forschung, immer — sowohl optimistische als auch besorgniserregende Fragen auf. Einerseits gibt es derzeit keine bewährte Methode, um eine Superintelligenz unter menschlicher Kontrolle zu halten. Regulierungsansätze sind nur dann effektiv, wenn alle Beteiligten kooperieren – was in der globalen Landschaft undenkbar erscheint. Auch könnte sich die KI schneller entwickeln, als wir in der Lage sind, angemessen zu reagieren.

Andererseits besteht die Hoffnung, dass eine Superintelligenz, falls sie eine eigene Moral entwickelt, uns wohlwollend ignorieren könnte, anstatt uns zu schaden. So wie wir Milben, im Allgemeinen. Es gibt theoretische Szenarien, in denen sich die Menschheit selbst weiterentwickelt und in Koexistenz mit der KI lebt. Zudem könnte, falls wir in einer Simulation existieren, ein eingebauter Schutzmechanismus vorhanden sein, der unkontrollierte Entwicklungen verhindert.

Das Fazit bleibt ernüchternd: Ob die Menschheit in einer von Superintelligenz dominierten Zukunft überlebt oder nicht, ist vielleicht schon entschieden. Unser einziger Trumpf könnte sein, dass wir für eine Superintelligenz interessant genug sind, um erhalten zu bleiben, oder langweilig genug.

Eines ist sicher: Die Zukunft gehört der Intelligenz. Die entscheidende Frage ist – sind wir mit an Board?

Dir gefällt vielleicht auch:

Abonnieren
Benachrichtige mich bei
0 Comments
Oldest
Newest
Inline Feedbacks
View all comments
Werbung