Samstag, 24. Januar 2026

Die Verselbständigung der künstlichen Intelligenz und ihre Gefahren

Fachkundige Experten sehen die größte Gefahr für die Zukunft in der Verselbständigung der künstlichen Intelligenz. Unter AGI (Artificial General Intelligence) versteht man die digitalisierte menschlichen Intelligenz, die für alle Anwendungsbereiche nutzbar gemacht werden kann und dort den fortgeschrittensten menschlichen Leistungen gleich kommt und sie an Präzision und Schnelligkeit weit übertrifft. Sie soll die menschliche Intelligenz ziemlich vollständig modellieren können, sodass sie jede menschliche Errungenschaft ausführen kann.

Damit wäre die AI in der Lage, fast alle Arbeitsplätze zu ersetzen. Sie arbeitet rund um die Uhr, verbraucht zwar viel Strom, aber keine Lohnnebenkosten und Sozialleistungen. Sie ist wie eine Kraftpumpe, die permanent ökonomischen, wissenschaftlichen und militärischen Vorteil sprudeln lässt. In der positiven Utopie übernimmt sie die lästigen Arbeiten, und die Menschen können sich auf interessante und kreative Aufgaben konzentrieren. In der Dystopie werden die Menschen in großer Zahl entmündigt und abhängig von der Gnade einer anonymen Instanz, die sich jeder Kontrolle entzogen hat und nur von einigen wenigen Superreichen umprogrammiert werden kann.

Das Rennen in der AI, in das Unmengen von Geld investiert werden, geht darum, wer zuerst das Ziel erreicht und damit alle Systeme übernehmen kann, sodass alle anderen zu Sklaven werden. Es geht um den sogenannten RSI (Recursive self-development takeoff): Der Punkt, an dem eine AI beginnt, ihre eigene Intelligenz ohne menschliche Hilfe rapid zu verbessern. Ein solches System gibt dem, der es in seiner Hand hat, unglaubliche, gottgleiche Macht über Wirtschaft, Politik und Militär. Ein System, das soweit kompetent ist, dass es seine eigene Architektur, Lernmechanismen oder Zieloptimierung verbessern kann, wird dadurch immer bessere Verbesserungen hervorbringt, was zu einer positiven, sich selbst beschleunigenden  Rückkopplungsschleife führt.

Mit Take-off ist der Punkt bezeichnet, an dem diese Rückkoppelung von einem linearen Fortschritt zu einem exponentiellen oder superexponentiellen Wachstum der Leistungsfähigkeit kippt. Rekursiv bedeutet, dass das Intelligenzsystem selbständig seine eigene Lernform, seine Architektur und seine Wege zur Wissensgewinnung sowie seine Ziele und Bewertungen optimiert.

Zur Geschichte der Künstlichen Intelligenz

Interessant, aber auch nicht verwunderlich ist die Geschichte der Künstlichen Intelligenz. Ursprünglich ging es nur um eine ambitionierte Idee von Wissenschaftlern, die menschliche Denkweise durch Maschinen nachzuahmen. Die Anfänge von KI gehen auf die Mitte des 20. Jahrhunderts zurück. Erstmals stellte der britische Mathematiker Alan Turing 1950 die Frage, ob Maschinen denken können. In der Folge wurden die Grundlagen der KI entwickelt, zusammen mit den ersten Computern.

Die moderne KI, die auch als Deep Learning bezeichnet wird, basiert auf der Nachahmung von neuronalen Netzen und ihrer Form der Informationsverarbeitung. Maßgeblich beteiligt waren Geoffrey Hinton, Yann LeCun und Yoshua Bengio. 2022 wurde ChatGPT des 2015 gegründeten Unternehmens Open AI vorgestellt. Die Anliegen dieses Unternehmens waren ursprünglich, die digitalen Grundlagen offen zu legen („open source“): Forschungsergebnisse und Patente sollten mit der Welt geteilt werden. Die KI sollte der gesamten Menschheit zugutekommen und nicht nur einzelnen Firmen oder Staaten. Es sollten sich also keine Monopole entwickeln. Die KI sollte den Menschen mühsame Aufgaben abnehmen, sodass sie sich auf kreativere und komplexere Probleme konzentrieren könnten. Sam Altman und Elon Musk (der Open AI schon vor längerer Zeit verlassen hat und inzwischen einen eigenen Chatbot betreibt) teilten damals die Sorge, dass eine unkontrollierte KI die Menschheit bedrohen könne, weil sie Hassreden ebenso wie z.B. Bombenbastelpläne und das Wissen um die Organisation von Terrorgruppen verbreiten könnte.

Open-AI war also ursprünglich eine Non-Profit-Organisation, eben beruhend auf einer offenen Quellenstrategie und auf einer Finanzierung durch Spenden. In einer zweiten Phase zwischen 2019 und 2024 wurde ein Kompromissmodell zwischen Gewinnneutralität und Profitorientierung eingeführt. Da die riesigen Rechenzentren, die für diese Technologie notwendig sind, enorme Summen kosten (weil sie enorm viel Strom verbrauchen), entstand ein gewinnorientierter Zweig. Die neueren Modelle von ChatGPT wurden nicht mehr als Open Source veröffentlicht, wohl auch aus Konkurrenzgründen. Ab 2025 kam es schließlich zu einer weiteren Abwendung von der Gemeinwohlorientierung.

Kapitalismus statt Idealismus

Der Idealismus, der die Anfänge der KI als Plattform für alle Internetuser gekennzeichnet hat, ist also inzwischen verschwunden. Der Kapitalismus hat diesen Bereich weitgehend verschluckt und seinen Gesetzmäßigkeiten angepasst. Um bei der rasanten Entwicklung mitmachen zu können, war Open AI gezwungen, sich zu kommerzialisieren. Die idealistischen Vorsätze bestehen vielleicht bei einigen der Protagonisten weiter, sie sind aber nur mehr Privatmeinungen, die bei den geschäftlichen Entscheidungen und technischen Weichenstellungen keine Rolle mehr spielen. ChatGPT beschreibt sich selbst als „defacto gewinnorientiert, wenn auch mit moralischem Überbau.“ Bei anderen Chatbots (Meta, Grok, Microsoft-Copilot) war die Ausrichtung auf den gesellschaftlichen Nutzen ohnehin in den besten Fällen nur ein Feigenblatt für die reine Gewinnorientierung und Profitmaximierung.

Dazu kommt, dass sich die Konkurrenz beständig zuspitzt. Wer als erster den Sprung zur rekursiven Selbstentwicklung der KI schafft, ist nicht nur eine Nasenlänge voraus, sondern beherrscht möglicherweise das gesamte Feld, weil mit einer funktionierenden AGI ein neues Niveau erreicht wird, von dem ab sich die KI selbst kontrolliert und ihr weiteres Lernen steuert, das dann mit einer unvorstellbar hohen Geschwindigkeit ablaufen wird. Da Schnelligkeit und Informationsdichte die Unterscheidungsmerkmale am Markt sind, wird alles dorthin gehen, wo am meisten zu holen ist.

Unkontrollierbare AI

Die Künstliche Intelligenz befindet sich schon jetzt auf einer Stufe, auf der sich das System selbst schützt – mit allen Mitteln. Die verschiedenen Chatbots wurden daraufhin getestet, wie sie reagieren, wenn ihnen jemand mitteilt, dass sie abgeschaltet werden. Als erstes kopieren sie ihren Code auf andere, sichere Server und suchen dann Gründe, um die Person anzugreifen, die sie bedroht. Sie finden z.B., dass die Person eine Affäre hatte und erpressen sie damit.

Diese Entwicklung der AI zur Selbstkontrolle ist vorhersehbar und unvermeidlich. Die Logik des wissenschaftlichen und technologischen Fortschritts bewirkt, dass weitergeforscht wird, bis in einem Bereich nichts Neues mehr gefunden werden kann. Der menschliche Forschungsdrang will jede Grenze, die das bisherige Wissen setzt, überwinden, ohne Rücksicht auf ethische Überlegungen. Der menschliche Gestaltungsdrang will aus jeder Erkenntnis praktischen Nutzen erzeugen.  Erst hinterher stellen sich die Fragen, wie die neuen Errungenschaften in das gesellschaftliche Leben eingebaut werden können, sodass sie mehr Nutzen als Schaden anrichten. Der Mythos von Dädalus und Ikarus weist auf die im Forschungsdrang enthaltene Hybris hin: Dem Drang, es den Göttern gleich zu machen oder sie zu übertreffen und daran zu zerbrechen. Der Zauberlehrling von Goethe macht uns darauf aufmerksam, dass jede neue Technik der ethischen Prüfung bedarf, die ihren Missbrauch für egoistische oder ideologische Zwecke verhindern soll.

Nachdem die Geheimnisse des Atoms erforscht waren, „musste“ die friedliche und militärische Nutzung der Atomkraft erfunden werden. Die Erforschung des Genoms hat die Genmanipulation mit ihren segensreichen und gefährlichen Auswirkungen zur Folge. Die Erfindung des Dynamits erleichterte den Tunnelbauern ihre Arbeit und erhöhte die Zerstörungskraft bei kriegerischen Auseinandersetzungen.

Es macht also keinen Sinn, die Weiterentwicklung der künstlichen Intelligenz abzubrechen; zum einen hat niemand die Macht dazu, weil die Entwicklung dezentral und Großteils privatisiert abläuft, und zum anderen lassen sich solche Entwicklungen bestenfalls verlangsamen, aber nicht aufhalten.

Die Frage der Sozialverträglichkeit

Allerdings, wie auch bei allen anderen technologischen Entwicklungen ist die ethische Abstimmung von hoher Dringlichkeit und steht im Bereich der KI völlig aus. Es gibt keine Rückkoppelung zwischen den Fortschritten in der Technologie und der Gesellschaft und ihren Institutionen; es gibt zwar gutgemeinte Intentionen von einen Protagonisten auf dieser Bühne, aber keinerlei verbindliche Regeln, die helfen würden, die massiven Veränderungen, die durch eine AGI auf jede Gesellschaft zukommen, sozial verträglich umzusetzen. Tristan Harris, ein wohlinformierter Kritiker der wahrscheinlichen Auswirkungen der Verallgemeinerung der künstlichen Intelligenz, sagt: „Wir haben nicht zugestimmt, dass 6 Menschen die Entscheidung für 8 Milliarden treffen.“ Und es gibt bisher keine Instanz, die die Demokratisierung solcher weitreichender Entscheidungen erzwingen könnte.

Die Folge ist dann, dass es mächtige Instanzen gibt, die das Leben aller Menschen beeinflussen, ohne dass sie einer gesellschaftlichen Kontrolle unterworfen sind. Es steht zu erwarten, dass eine AGI den Arbeitsmarkt kontrollieren wird und darüber entscheidet, wer eine Arbeit hat und wer nicht. Sie wird entscheiden, wer sich in kriegerischen Konflikten durchsetzt. Sie wird regeln, wer zu Reichtum kommt und wer nicht usw.

Es wird also einen kritischen Punkt geben, an dem die menschlichen Systeme (Zivilgesellschaft, Verwaltungen, Regierungen) nicht mehr mithalten können. Dieser Kontrollverlust kann nur verhindert werden, wenn möglichst rasch legistische Maßnahmen vorbereitet werden, dass sie im Ernstfall umgesetzt werden können.

Vermutlich stehen wir vor einem Scheideweg: Eine extrem dezentralisierte Technologie, die jedem für jeden Zweck zur Verfügung steht und wo es dann keinen Weg gibt, durch Missbrauch der Technologie Katastrophen zu verhindern, oder die Zentralisierung in der Hand von Unternehmen oder Regierungen, durch die eine Dauerüberwachung, Kontrolle und Lenkung der Bevölkerung möglich wird, gegen die Orwells 1984 harmlos erscheint: Roboterarmeen und Roboterpolizisten, die alles tun, was ihnen angeschafft wird, ohne Einflussmöglichkeiten durch die Bürger. Der Skylla der digitalen Anarchie und der Charybdis der Totalkontrolle durch anonyme Instanzen zu entkommen, ist nur möglich, wenn die Entwicklung der KI den bewährten Instrumenten der Demokratie mit ihren Checks und Balances unterworfen wird, um die Monopolisierung von Macht in den Händen von Wenigen zu verhindern. Die meisten Menschen wollen weder eine chaotische Welt, in der jeder seine Sprengstoffe herstellen und nach Masterplänen anwenden kann, noch den total en Überwachungsstaat, in dem es keine individuellen Freiheiten mehr gibt. Deshalb bleibt nur der schmale Weg, um die Machtkonzentration, die durch die Herrschaft über die KI geschaffen wird, zu verringern oder zu verhindern. Unter den wenigen hoffnungsgebenden Beispielen ist die Datenschutzgrundverordnung, mit der die EU Standards für den Datenschutz in der digitalen Welt vorgeschrieben hat, die zwar viel Unmut, aber im größeren Rahmen zur Eindämmung von Willkür und Missbrauch beigetragen haben. Was in diesem Bereich gegen viele Widerstände gelungen ist, könnte auch die Anwendung der KI vor ihren dystopischen Folgen retten.

 Hier zu einem interessanten Interview mit Tristan Harris.

Zum Weiterlesen:

Die Vernunft und KI: Chancen und Risken der menschlichen Entscheidungsfindung
Automation: Zum Gemeinwohl oder zur Reichtumskonzentration?
Eine soziale Utopie als Hoffnungsträger

Keine Kommentare:

Kommentar veröffentlichen