Fachkundige Experten sehen die größte Gefahr für die Zukunft in der Verselbständigung der künstlichen Intelligenz. Unter AGI (Artificial General Intelligence) versteht man die digitalisierte menschlichen Intelligenz, die für alle Anwendungsbereiche nutzbar gemacht werden kann und dort den fortgeschrittensten menschlichen Leistungen gleich kommt und sie an Präzision und Schnelligkeit weit übertrifft. Sie soll die menschliche Intelligenz ziemlich vollständig modellieren können, sodass sie jede menschliche Errungenschaft ausführen kann.
Damit wäre die AI in der Lage, fast alle Arbeitsplätze zu ersetzen.
Sie arbeitet rund um die Uhr, verbraucht zwar viel Strom, aber keine
Lohnnebenkosten und Sozialleistungen. Sie ist wie eine Kraftpumpe, die
permanent ökonomischen, wissenschaftlichen und militärischen Vorteil sprudeln
lässt. In der positiven Utopie übernimmt sie die lästigen Arbeiten, und die
Menschen können sich auf interessante und kreative Aufgaben konzentrieren. In
der Dystopie werden die Menschen in großer Zahl entmündigt und abhängig von der
Gnade einer anonymen Instanz, die sich jeder Kontrolle entzogen hat und nur von
einigen wenigen Superreichen umprogrammiert werden kann.
Das Rennen in der AI, in das Unmengen von Geld investiert
werden, geht darum, wer zuerst das Ziel erreicht und damit alle Systeme
übernehmen kann, sodass alle anderen zu Sklaven werden. Es geht um den
sogenannten RSI (Recursive self-development takeoff): Der Punkt, an dem eine AI
beginnt, ihre eigene Intelligenz ohne menschliche Hilfe rapid zu verbessern.
Ein solches System gibt dem, der es in seiner Hand hat, unglaubliche, gottgleiche
Macht über Wirtschaft, Politik und Militär. Ein System, das soweit kompetent
ist, dass es seine eigene Architektur, Lernmechanismen oder Zieloptimierung
verbessern kann, wird dadurch immer bessere Verbesserungen hervorbringt, was zu
einer positiven, sich selbst beschleunigenden Rückkopplungsschleife führt.
Mit Take-off ist der Punkt bezeichnet, an dem diese
Rückkoppelung von einem linearen Fortschritt zu einem exponentiellen oder
superexponentiellen Wachstum der Leistungsfähigkeit kippt. Rekursiv bedeutet,
dass das Intelligenzsystem selbständig seine eigene Lernform, seine Architektur
und seine Wege zur Wissensgewinnung sowie seine Ziele und Bewertungen
optimiert.
Zur Geschichte der Künstlichen Intelligenz
Interessant, aber auch nicht verwunderlich ist die
Geschichte der Künstlichen Intelligenz. Ursprünglich ging es nur um eine
ambitionierte Idee von Wissenschaftlern, die menschliche Denkweise durch
Maschinen nachzuahmen. Die Anfänge von KI gehen auf die Mitte des 20.
Jahrhunderts zurück. Erstmals stellte der britische Mathematiker Alan Turing
1950 die Frage, ob Maschinen denken können. In der Folge wurden die Grundlagen
der KI entwickelt, zusammen mit den ersten Computern.
Die moderne KI, die auch als Deep Learning bezeichnet wird,
basiert auf der Nachahmung von neuronalen Netzen und ihrer Form der
Informationsverarbeitung. Maßgeblich beteiligt waren Geoffrey Hinton, Yann
LeCun und Yoshua Bengio. 2022 wurde ChatGPT des 2015 gegründeten Unternehmens
Open AI vorgestellt. Die Anliegen dieses Unternehmens waren ursprünglich, die digitalen
Grundlagen offen zu legen („open source“): Forschungsergebnisse und Patente
sollten mit der Welt geteilt werden. Die KI sollte der gesamten Menschheit
zugutekommen und nicht nur einzelnen Firmen oder Staaten. Es sollten sich also
keine Monopole entwickeln. Die KI sollte den Menschen mühsame Aufgaben
abnehmen, sodass sie sich auf kreativere und komplexere Probleme konzentrieren
könnten. Sam Altman und Elon Musk (der Open AI schon vor längerer Zeit
verlassen hat und inzwischen einen eigenen Chatbot betreibt) teilten damals die
Sorge, dass eine unkontrollierte KI die Menschheit bedrohen könne, weil sie
Hassreden ebenso wie z.B. Bombenbastelpläne und das Wissen um die Organisation
von Terrorgruppen verbreiten könnte.
Open-AI war also ursprünglich eine Non-Profit-Organisation,
eben beruhend auf einer offenen Quellenstrategie und auf einer Finanzierung
durch Spenden. In einer zweiten Phase zwischen 2019 und 2024 wurde ein
Kompromissmodell zwischen Gewinnneutralität und Profitorientierung eingeführt.
Da die riesigen Rechenzentren, die für diese Technologie notwendig sind, enorme
Summen kosten (weil sie enorm viel Strom verbrauchen), entstand ein
gewinnorientierter Zweig. Die neueren Modelle von ChatGPT wurden nicht mehr als
Open Source veröffentlicht, wohl auch aus Konkurrenzgründen. Ab 2025 kam es schließlich
zu einer weiteren Abwendung von der Gemeinwohlorientierung.
Kapitalismus statt Idealismus
Der Idealismus, der die Anfänge der KI als Plattform für
alle Internetuser gekennzeichnet hat, ist also inzwischen verschwunden. Der
Kapitalismus hat diesen Bereich weitgehend verschluckt und seinen
Gesetzmäßigkeiten angepasst. Um bei der rasanten Entwicklung mitmachen zu
können, war Open AI gezwungen, sich zu kommerzialisieren. Die idealistischen
Vorsätze bestehen vielleicht bei einigen der Protagonisten weiter, sie sind
aber nur mehr Privatmeinungen, die bei den geschäftlichen Entscheidungen und
technischen Weichenstellungen keine Rolle mehr spielen. ChatGPT beschreibt sich
selbst als „defacto gewinnorientiert, wenn auch mit moralischem Überbau.“ Bei
anderen Chatbots (Meta, Grok, Microsoft-Copilot) war die Ausrichtung auf den
gesellschaftlichen Nutzen ohnehin in den besten Fällen nur ein Feigenblatt für
die reine Gewinnorientierung und Profitmaximierung.
Dazu kommt, dass sich die Konkurrenz beständig zuspitzt. Wer
als erster den Sprung zur rekursiven Selbstentwicklung der KI schafft, ist
nicht nur eine Nasenlänge voraus, sondern beherrscht möglicherweise das gesamte
Feld, weil mit einer funktionierenden AGI ein neues Niveau erreicht wird, von
dem ab sich die KI selbst kontrolliert und ihr weiteres Lernen steuert, das
dann mit einer unvorstellbar hohen Geschwindigkeit ablaufen wird. Da
Schnelligkeit und Informationsdichte die Unterscheidungsmerkmale am Markt sind,
wird alles dorthin gehen, wo am meisten zu holen ist.
Unkontrollierbare AI
Die Künstliche Intelligenz befindet sich schon jetzt auf
einer Stufe, auf der sich das System selbst schützt – mit allen Mitteln. Die
verschiedenen Chatbots wurden daraufhin getestet, wie sie reagieren, wenn ihnen
jemand mitteilt, dass sie abgeschaltet werden. Als erstes kopieren sie ihren
Code auf andere, sichere Server und suchen dann Gründe, um die Person anzugreifen,
die sie bedroht. Sie finden z.B., dass die Person eine Affäre hatte und erpressen
sie damit.
Diese Entwicklung der AI zur Selbstkontrolle ist
vorhersehbar und unvermeidlich. Die Logik des wissenschaftlichen und
technologischen Fortschritts bewirkt, dass weitergeforscht wird, bis in einem
Bereich nichts Neues mehr gefunden werden kann. Der menschliche Forschungsdrang
will jede Grenze, die das bisherige Wissen setzt, überwinden, ohne Rücksicht auf
ethische Überlegungen. Der menschliche Gestaltungsdrang will aus jeder
Erkenntnis praktischen Nutzen erzeugen.
Erst hinterher stellen sich die Fragen, wie die neuen Errungenschaften
in das gesellschaftliche Leben eingebaut werden können, sodass sie mehr Nutzen
als Schaden anrichten. Der Mythos von Dädalus und Ikarus weist auf die im
Forschungsdrang enthaltene Hybris hin: Dem Drang, es den Göttern gleich zu
machen oder sie zu übertreffen und daran zu zerbrechen. Der Zauberlehrling von
Goethe macht uns darauf aufmerksam, dass jede neue Technik der ethischen
Prüfung bedarf, die ihren Missbrauch für egoistische oder ideologische Zwecke
verhindern soll.
Nachdem die Geheimnisse des Atoms erforscht waren, „musste“
die friedliche und militärische Nutzung der Atomkraft erfunden werden. Die
Erforschung des Genoms hat die Genmanipulation mit ihren segensreichen und
gefährlichen Auswirkungen zur Folge. Die Erfindung des Dynamits erleichterte
den Tunnelbauern ihre Arbeit und erhöhte die Zerstörungskraft bei kriegerischen
Auseinandersetzungen.
Es macht also keinen Sinn, die Weiterentwicklung der
künstlichen Intelligenz abzubrechen; zum einen hat niemand die Macht dazu, weil
die Entwicklung dezentral und Großteils privatisiert abläuft, und zum anderen
lassen sich solche Entwicklungen bestenfalls verlangsamen, aber nicht aufhalten.
Die Frage der Sozialverträglichkeit
Allerdings, wie auch bei allen anderen technologischen
Entwicklungen ist die ethische Abstimmung von hoher Dringlichkeit und steht im
Bereich der KI völlig aus. Es gibt keine Rückkoppelung zwischen den
Fortschritten in der Technologie und der Gesellschaft und ihren Institutionen;
es gibt zwar gutgemeinte Intentionen von einen Protagonisten auf dieser Bühne,
aber keinerlei verbindliche Regeln, die helfen würden, die massiven
Veränderungen, die durch eine AGI auf jede Gesellschaft zukommen, sozial
verträglich umzusetzen. Tristan Harris, ein wohlinformierter Kritiker der
wahrscheinlichen Auswirkungen der Verallgemeinerung der künstlichen
Intelligenz, sagt: „Wir haben nicht zugestimmt, dass 6 Menschen die
Entscheidung für 8 Milliarden treffen.“ Und es gibt bisher keine Instanz, die
die Demokratisierung solcher weitreichender Entscheidungen erzwingen könnte.
Die Folge ist dann, dass es mächtige Instanzen gibt, die das
Leben aller Menschen beeinflussen, ohne dass sie einer gesellschaftlichen
Kontrolle unterworfen sind. Es steht zu erwarten, dass eine AGI den Arbeitsmarkt
kontrollieren wird und darüber entscheidet, wer eine Arbeit hat und wer nicht.
Sie wird entscheiden, wer sich in kriegerischen Konflikten durchsetzt. Sie wird
regeln, wer zu Reichtum kommt und wer nicht usw.
Es wird also einen kritischen Punkt geben, an dem die
menschlichen Systeme (Zivilgesellschaft, Verwaltungen, Regierungen) nicht mehr
mithalten können. Dieser Kontrollverlust kann nur verhindert werden, wenn möglichst
rasch legistische Maßnahmen vorbereitet werden, dass sie im Ernstfall umgesetzt
werden können.
Vermutlich stehen wir vor einem Scheideweg: Eine extrem
dezentralisierte Technologie, die jedem für jeden Zweck zur Verfügung steht und
wo es dann keinen Weg gibt, durch Missbrauch der Technologie Katastrophen zu
verhindern, oder die Zentralisierung in der Hand von Unternehmen oder Regierungen,
durch die eine Dauerüberwachung, Kontrolle und Lenkung der Bevölkerung möglich
wird, gegen die Orwells 1984 harmlos erscheint: Roboterarmeen und
Roboterpolizisten, die alles tun, was ihnen angeschafft wird, ohne
Einflussmöglichkeiten durch die Bürger. Der Skylla der digitalen Anarchie und
der Charybdis der Totalkontrolle durch anonyme Instanzen zu entkommen, ist nur
möglich, wenn die Entwicklung der KI den bewährten Instrumenten der Demokratie
mit ihren Checks und Balances unterworfen wird, um die Monopolisierung von
Macht in den Händen von Wenigen zu verhindern. Die meisten Menschen wollen
weder eine chaotische Welt, in der jeder seine Sprengstoffe herstellen und nach
Masterplänen anwenden kann, noch den total en Überwachungsstaat, in dem es
keine individuellen Freiheiten mehr gibt. Deshalb bleibt nur der schmale Weg,
um die Machtkonzentration, die durch die Herrschaft über die KI geschaffen
wird, zu verringern oder zu verhindern. Unter den wenigen hoffnungsgebenden
Beispielen ist die Datenschutzgrundverordnung, mit der die EU Standards für den
Datenschutz in der digitalen Welt vorgeschrieben hat, die zwar viel Unmut, aber
im größeren Rahmen zur Eindämmung von Willkür und Missbrauch beigetragen haben.
Was in diesem Bereich gegen viele Widerstände gelungen ist, könnte auch die
Anwendung der KI vor ihren dystopischen Folgen retten.
Zum Weiterlesen:
Die Vernunft und KI: Chancen und Risken der menschlichen Entscheidungsfindung
Automation: Zum Gemeinwohl oder zur Reichtumskonzentration?
Eine soziale Utopie als Hoffnungsträger
Keine Kommentare:
Kommentar veröffentlichen