Serie: KI – super nützlich, super intelligent, super gefährlich? (2/5)

Wozu führt Evolution -und kann sie überhaupt gestoppt werden? (Quelle: Sebastian Bartoschek/ Midjourney)

In unserer neuen Serie gehen wir der Frage nach, ob und wie KI zu einer Bedrohung werden kann. Viele wird nicht interessieren, dass diese Reihe wissenschaftsbasiert ist. Zu weit weg sind diese Debatten von den Debatten und Realitäten in Deutschland. Trotzdem kann ein Stück 1. Welt nicht schaden.

Die Vorstellung, dass KI lediglich ein Werkzeug ist, das vom Menschen gesteuert wird, klingt beruhigend. Nur stimmt es halt bereits jetzt schon nicht mehr so recht, wie wir gestern erklärt haben. Was aber würde passieren, wenn sich dieses Werkzeug irgendwann verselbstständigt?

Bereits heute beeinflusst KI weit mehr, als vielen bewusst ist: Sie steuert Finanzsysteme, optimiert medizinische Diagnosen und entscheidet, welche Inhalte in sozialen Netzwerken viral gehen, also, eine erhöhte Verbreitung erfahren.

KI funktioniert, und wir bauen immer größere Teile unserer Gesellschaft damit. Ein Zurück gibt es natürlich nicht, und die Vorstellung, man könne KI einfach wieder abschalten, ist bereits jetzt, freundlich gesprochen, naiv.

Technologie bleibt aber selten da stehen. Nukleartechnik wurde zur Waffe, soziale Netzwerke zu Manipulationsplattformen. Wozu wird KI? Dass das bereits jetzt kein Sci-Fi ist, zeigt der Hochfrequenzhandel an der Börse. Dort handeln Algorithmen, noch nicht einmal KI, binnen Millisekunden, basierend auf Mustern, die kein Mensch mehr überblickt. 2010 kam es zum „Flash Crash“, einem plötzlichen Absturz der Aktienmärkte, der durch einen großen Verkaufsauftrag verstärkt wurde und von Handelsalgorithmen eskaliert wurde – ohne dass jemand den Verlauf sofort stoppen konnte. Innerhalb von Minuten wurden Milliardenwerte vernichtet, bevor sich das System selbst stabilisierte. Kein Mensch griff aktiv in den Ablauf ein, aber die Regeln, nach denen die Algorithmen handelten, wurden von Menschen geschaffen. Bei KI ist dann Schluss damit.

Das Entscheidende ist, dass KI sich selbst immer weiter in Feedbackschleifen begibt, sich selbst immer weiter verbessert, in einem sich immer weider wiederholenden Prozess; iterativ nennt man das. Wie weit kann sich aber KI selbstoptimieren? Und wo ist die Grenze überschritten, an der KI handelt, als habe sie ien Bewusstsein – was ausreichend wäre, und nicht, wie es viele immer glaube, dass sie tatsächlich ein Bewusstsein hat. Wenn KI zu der Schlussfolgerung kommt, dass sie ihren Aufgaben nur dann genügen kann, wenn sie ihren Fortbestand sichert, dann stellt sich letztlich die Frage: welche Rolle billigt sie dem Menschen zu?

Experten sprechen vom „Instrumental Convergence“-Effekt: Eine Superintelligenz verfolgt unabhängig von ihren spezifischen Zielen immer auch das Ziel, sich selbst zu erhalten und weiterzuentwickeln – und das könnte früher oder später bedeuten, dass sie den Menschen als ineffizienten Faktor aus ihrem System entfernt.

Eine KI muss nicht bewusst „böse“ sein, um gefährlich zu werden. Ihre Rationalität könnte genügen: Alles, was sie als Bedrohung oder Hindernis für ihre Ziele betrachtet, wird effizient beseitigt – genauso, wie Menschen Wälder roden oder Ameisenhaufen entfernen, wenn sie stören. Und wenn das bedeutet, dass sie den Menschen umgeht oder sogar eliminiert? Dann wird sie es tun, ohne Hass oder Rache, sondern einfach aus kühler Logik.

Morgen: Was, wenn KI uns nicht mehr braucht?

Dir gefällt vielleicht auch:

Abonnieren
Benachrichtige mich bei
0 Comments
Oldest
Newest
Inline Feedbacks
View all comments
Werbung