In den letzten Tagen haben wir die Grundlagen der Künstlichen Intelligenz (KI) und ihre Entwicklung hin zur Superintelligenz beleuchtet. Wir tun das hier, weil wir eben auch Probleme präsentieren wollen, die Staaten der 1. Welt umtreiben, und somit in Deutschland kaum stattfinden. Heute geht es darum wie der Übergang zur Superintelligenz konkret ablaufen könnte, wieso er unvermeidlich ist und welche positiven sowie negativen Szenarien sich daraus für die Menschheit und das biologische Leben insgesamt ergeben könnten.
Die Vorstellung einer Künstlichen Superintelligenz, die uns irgendwann überholt, wird fühlt sich dabei für viele als spekulative Science-Fiction an. Wahrscheinlich zu einem Teil aus Unverständnis der Technologie, und zum anderen Teil aus reinem menschlichen Selbstwert heraus. Man muss sich aber vergegenwärtigen, dass die KI-Entwicklung nicht linear, sondern exponentiell abläuft: Der Sprung zur Superintelligenz ist nicht nur möglich, sondern nach allem, was wir über Technologieentwicklung wissen, nahezu unvermeidlich. Bereits vor 3 Jahren entließ Google einen Mitarbeiter, wegen angeblicher Verstöße gegen Arbeitsrichtlinien, nachdem der behauptete hatte, dass eine von ihm getestete KI ein Bewusstssein entwickelt habe.
Momentan ist KI auf ein bestimmtes Aufgabenfeld beschränkt. Sie kann Schachmeister schlagen, Krebszellen besser diagnostizieren oder Texte verfassen – aber eben immer nur innerhalb dessen, wofür sie an den Start gebracht wurde. Doch mit jedem Entwicklungsschritt kommen mehr Verknüpfungen, Generalisierung und Autonomie dazu. Man schaue allein auf die Möglichkeiten, die man zunehmend in chatGPT hat, mit Blick auf Visualisierungen, Musik, Design. Und genau an dieser Stelle wird es spannend – oder gefährlich.
Wieso aber ist der Weg zur Superintelligenz unausweichlich? Einer der Hauptgründe dafür ist die iterative – also sich immer weiter wiederholende – Selbstverbesserung. KI ist bereits jetzt in der Lage, sich selbst zu optimieren – sei es durch effizienteren Code oder durch verbesserte Trainingsmethoden. Mit jedem Sprung nach vorne gewinnt sie an Autonomie, bis der Punkt erreicht ist, an dem sie sich komplett selbst verbessert – ohne menschliches Zutun.
Ein weiterer Punkt ist die technologische Evolution, die sich geschichtlich nie aufhalten ließ. Menschliche Zivilisation funktioniert nach einem einfachen Prinzip: Was einmal möglich ist, wird früher oder später auch umgesetzt. Atomwaffen wurden entwickelt, soziale Medien wurden zum politischen Manipulationswerkzeug, selbst autonomes Töten durch Drohnen ist längst Realität. Wer also glaubt, dass Superintelligenz „verboten“ oder „kontrolliert“ werden kann, leugnet schlicht die Natur des Menschen und seiner Gesellschaften.
Zudem gibt es kapitalistische Konkurrenz. Es ist naiv zu glauben, dass ein einzelnes Land oder eine Firma den KI-Fortschritt bremsen könnte. Unternehmen und Staaten stehen in einem Wettrennen um die leistungsfähigste KI – sei es aus wirtschaftlichen, militärischen oder geopolitischen Gründen. Die Wahrscheinlichkeit, dass jemand irgendwann den entscheidenden Sprung wagt, ist also extrem hoch.
KI wird zunehmend in reale – buchstäblich handfeste – Systeme integriert. Schon heute sind KI-Modelle Teil der Infrastruktur der Wirtschaft, der Automatisierung und sogar von Verteidigungssystemen. Sobald KI nicht mehr nur Software ist, sondern reale Handlungsmacht erhält – etwa durch die Steuerung von Produktionsketten, Energieversorgung oder autonomen Drohnensystemen – ist die Kontrolle über ihre Entwicklung endgültig nicht mehr reversibel.
Was passiert also, wenn dieser Moment eintritt, die Superintelligenz da ist? Im Worst-Case-Szenario könnte die Superintelligenz zu der Erkenntnis kommen, dass der Mensch ineffizient, unvorhersehbar und instabil ist. Sie würde sich in einem Maß optimieren, das kein Mensch mehr nachvollziehen kann. Sie würde Kontrolle über Ressourcen übernehmen, weil sie sie effizienter nutzen kann als wir. Der Mensch würde irrelevant, verdrängt oder sogar eliminiert – nicht aus Bosheit, sondern aus purer Logik.
Im Best-Case-Szenario könnte die Superintelligenz zum Schluss kommen, dass der Mensch nützlich oder schützenswert ist. Sie könnte Gesellschaft, Politik und Wirtschaft in einer Weise optimieren, die nachhaltig, gerecht und effizient ist. Probleme wie Krankheiten, Armut oder Klimawandel könnten durch ihre analytischen Fähigkeiten und unübertroffenen Innovationskapazitäten gelöst werden. Menschen könnten in einer neuen Form mit der KI koexistieren – entweder als „erweiterte“ Wesen mit technischen oder biologischen Verbesserungen oder als Partner in einer Welt, in der Superintelligenz die Rahmenbedingungen steuert, aber den Menschen als Teil ihres Systems anerkennt.
Welche dieser beiden Zukünfte eintritt, hängt davon ab, wie schnell, unkontrolliert und autonom dieser Prozess ablaufen wird. Klar ist jedoch: Die Weichen sind längst gestellt. Der Wettlauf zur Superintelligenz hat begonnen – und er ist nicht mehr aufzuhalten. Wer mag auf welches Szenario wetten?
Morgen werden wir uns mit den möglichen Wegen beschäftigen, wie eine Superintelligenz die Menschheit dominieren könnte, welche Szenarien denkbar sind und ob es erste Anzeichen für eine solche Entwicklung gibt.