2023 war das Jahr der KI-Gesetzgebung und des Begriffs „AGI“

 

31.01.2024

   

Markus Reck

Vorwort: Dieser Artikel ist bereits Mitte November 2023 entstanden. Da unser Blog jedoch erst Mitte Januar 2024 Richtfest gefeiert hat, erfolgt die Veröffentlichung dieses Artikels mit zweimonatigem Verzug. Seither haben sich schon einzelne meiner Prognosen bewahrheitet. So hat sich beispielsweise die wissenschaftliche Publikation zu AlphaGeometry von Google DeepMind nahtlos in die Stoßrichtung der Q*-Gerüchteküche eingefügt. Die Erschließung der Mathematik markiert einen fundamentalen Paradigmenwechsel in der KI-Entwicklung. Auch Google's Gemini ist mittlerweile der Öffentlichkeit zugänglich gemacht worden. Stand 31.01.2024 ist jedoch nur die kleine (Nano) und mittelgroße (Pro) Modellvariante verfügbar. Die größte Modellvariante "Gemini Ultra" befindet sich laut Google noch in der Sicherheitstest-Phase. Doch das GPT-3.5 Äquivalent "Gemini Pro" reiht sich im "Chatbot Arena" Benchmark direkt hinter GPT-4-Turbo auf Platz zwei der LLMs ein.
Darüber hinaus ist Google DeepMind, Meta und der Berkeley Universität mit Mobile ALOHA eine eindrucksvolle Studie gelungen, wie man sich mit frei erwerblichen Komponenten einen lernfähigen und äußerst filigran agierenden Haushaltsroboter selbst zusammenbauen kann.


Für unbeteiligte Beobachter kam es einem Weckruf gleich, als am 30. November 2022 das erste Large Language Model (kurz LLM) ChatGPT (Chatbot Generative Pre-trained Transformer) der Firma OpenAI veröffentlicht wurde. Beinahe gespenstisch muteten dessen Fähigkeiten an, Texteingaben (sogenannte Prompts) nicht nur zu verstehen, sondern daraufhin auch eloquente Antworten zu produzieren. Erstaunlich war auch die umfangreiche Faktenkenntnis von ChatGPT, welche auf einer unvorstellbar großen Grundlage – quasi dem gesamten Datenbestand des frei zugänglichen Internets – basierte. Vielmehr war es die offenkundige Kreativität, mit der ChatGPT jeglichen Befehl seiner Nutzer in die Tat umzusetzen in der Lage war. Angefangen von trivialen Aufgaben, wie dem Formulieren einer förmlichen E-Mail, über das Verfassen ganzer Aufsätze bis hin zur Lösung kniffliger Logik-Rätsel demonstrierte OpenAIs KI-Modell ein beeindruckendes Spektrum an sprachbasierten Fähigkeiten.


Stochastischer Papagei versus echtes Verständnis – Können Maschinen intelligent sein?


Diese Fähigkeiten einem echten Verständnis zuzuschreiben, der KI wahre Kreativität zu attestieren – das fällt vielen Skeptikern schwer. So fanden sich auch bald die ersten „Experten“ ein, die dem Sägen am Stuhlbein des menschlichen Exzeptionalismus mit vehementer Kritik begegneten. „Chatbots sind nichts weiter als stochastische Papageien, die lediglich Gelerntes reproduzieren, aber niemals Neues erschaffen können“ war eines der meistvorgebrachten Argumente der Kritiker. Das ist im Grundsatz nicht gänzlich falsch. Ja, generative KI-Modelle speisen ihr Wissen aus dem gigantischen Erfahrungsschatz ihrer Trainingsdaten. ChatGPT (auch unter seiner Versionsnummer GPT-3.5 bekannt) wurde anhand von 175 Milliarden Parametern, bestehend aus 300 Milliarden Wörtern aus dem Internet, trainiert. Dabei wird ein neuronales Netz konstruiert, das grob der Architektur des menschlichen Gehirns nachempfunden wurde. Der Trainingsprozess geschieht mittels Deep Learning (das Lernen an Beispielen) und dem Einsatz von sogenannten Transformern (die vereinfacht dargestellt für das Verständnis zuständig sind).
Nun stellt sich also die Frage, inwiefern sich dieser Trainingsprozess grundsätzlich vom menschlichen Lernen unterscheidet und ob er – und das ist der entscheidende Punkt – echtes Verständnis hervorbringt. Also die Qualität, die bisher dem Menschen als Krone der Schöpfung vorbehalten war. Denn auch die stochastische Vorhersage des nächsten Wortes benötigt ein Verständnis des zugrundeliegenden Sachverhalts. Um das letzte Wort des Satzes „Der Mörder ist […]“ zu vervollständigen, muss man die Gesamtheit der verfügbaren Informationen verstehen und diese in einen sinnvollen Zusammenhang stellen.


Ein weiterer Paradigmenwechsel beim KI-Training: Von AlphaGo bis Q*

Mit OpenAIs geleaktem Modell Q* („Q Star“) ist nun ein weiterer Paradigmenwechsel bei den Trainingsmethoden von Frontier-Modellen vollzogen worden. Anders als bei bisherigen LLMs wird hier nicht nur die Mustererkennung anhand eines fixen Datensatzes trainiert, um das nächste Wort zu prognostizieren. Vielmehr wird dem KI-Modell beigebracht, den optimalen Weg von einem Startpunkt bis hin zu einem spezifischen Ziel zu finden. Dieser Lernansatz wurde bereits 2016 von DeepMinds „AlphaGo“ angewandt. Dem Lernprozess liegt die Technik des Reinforcement Learning (RL) – also des Lernens mittels Zuckerbrot und Peitsche – und des damit verbundenen Self-Play zugrunde. Beim Self-Play handelt es sich kurzgesagt um einen künstlichen Evolutionsprozess: Verschiedene KI-Agenten messen sich in einem Turnier gegeneinander, wer ein Problem am effektivsten Lösen kann. Bei dem Problem kann es sich um ein Spiel (z.B. Schach oder Go) oder aber auch um komplexere Aufgaben wie das Erreichen eines vielschichtigen Ziels (z.B. Proteinfaltung, Materialforschung) handeln. Auf diese Weise kann es einer derart trainierten KI gelingen, neue Erkenntnisse und Lösungswege zu finden, die uns Menschen bisher verborgen geblieben waren.

OpenAIs Q* und Google DeepMinds Gemini sind die bisher noch unveröffentlichten Frontier-Modelle, die mit diesem neuen Paradigma trainiert wurden. Von Gemini ist bislang noch nicht viel bekannt, aber die Leaks zu Q* lassen ein Grundverständnis für Mathematik erkennen – was als Grundvoraussetzung für wissenschaftlichen Erkenntnisgewinn und ein Verständnis der Welt gilt. Dies wiederum ist wichtig für die Erzeugung eines internen „Welt-Modells“, das von vielen Kognitionswissenschaftlern als eine zentrale Komponente für das Entstehen von Bewusstsein gilt. Ein Welt-Modell ist nichts anderes als eine gedankliche Simulation der Umwelt, die sich auf Erfahrungen und experimentellen Erkenntnisgewinn stützt. Ein gutes Welt-Modell ist wichtig für genaue Prognosen. Was passiert mit einem Apfel, wenn sich dieser vom Baum löst? Was passiert mit dem Weltklima, wenn wir weiterhin große Mengen an CO2 in die Atmosphäre blasen? Das alles sind Fragen, die mit einem guten Welt-Modell aus dem Stegreif beantwortet werden können.
Was dies in der wissenschaftlichen Praxis von heute bedeutet, hat DeepMind zum wiederholten Male mit GNoME bewiesen. Das mit RL und Self-Play trainierte Modell wurde anhand des größten existierenden Fundus der Materialforschung (bestehend aus 20.000 experimentell und 28.000 durch Berechnung ermittelten Verbindungen) gespeist und hat daraus 381.000 bisher unbekannte, stabile Verbindungen extrapoliert. Die KI-generierten Materialienbaupläne sind ein Quantensprung für die Materialforschung und werden den Grundstein für neue Entwicklungen in der Elektronik (Batterien, Solarzellen etc.) legen.

Zuvor hatte AlphaFold bereits die dreidimensionale Struktur von mehr als 200 Millionen Proteinen prognostiziert. DeepMind hat daraufhin ihre Forschungsergebnisse der wissenschaftlichen Gemeinschaft frei zur Verfügung gestellt (wie dies auch später bei GNoME geschehen ist).
Als Verständnishilfe: Die Daumenregel war bisher, dass ein Doktorand sich die gesamten fünf Jahre seines Doktorstudiums mit einem einzigen Protein beschäftigen musste, um es in alle möglichen 3D-Konfigurationen zu falten.

Ein weiterer entscheidender Paradigmenwechsel markiert der zunehmende Influx von synthetischen, also von LLMs erzeugten Daten als Trainingsgrundlage für neue Modelle. Auch beim Finetuning der sogenannten Weights (Gewichtungen zwischen den einzelnen Schichten des neuronalen Netzes), die entscheidend für die Qualität des Outputs eines Modells sind, wird immer mehr auf KI gesetzt. Wurde bisher die Beurteilung unzähliger Outputs beim „Reinforcement learning from human feedback“ (RLHF) von Menschen übernommen, kommt auch hier nun immer mehr KI zum Einsatz (RLAIF).
Sowohl der Mangel an neuen Trainingsdaten als auch das zeit- und arbeitsintensive Feedback-Training stellen bis heute einen Flaschenhals für die Weiterentwicklung der Frontier-Modelle dar. Wenn diese Einschränkungen nun sukzessive durch den Einsatz der leistungsstärksten Modelle der vorhergehenden KI-Generation übernommen werden, könnte das die Entwicklungszyklen enorm beschleunigen. KI die KI entwickelt ist die entscheidende Voraussetzung für die KI-Singularität und die damit verbundene Intelligenzexplosion.

Sie sehen, in dieser Diskussion geht es um viel mehr als um die schnöde Klassifizierung eines einfachen Software-Tools. Hier steht nichts weniger auf dem Spiel als das menschliche Selbstverständnis seiner bislang unerreichten Exzellenz, die in seiner Begabung zu kognitiven Höchstleistungen begründet ist.

Die langsamen Mühlen der Politik wurden 2023 zum Kaltstart gezwungen


Dass KI eben kein Werkzeug wie jedes andere ist, dass es sich hierbei um nichts weniger als einen Paradigmenwechsel handelt, mit dem Potenzial das Wesen von Produktion und Forschung zu revolutionieren – das zeigt sich vor allem an der ungewöhnlich schnellen Reaktion der globalen Gesetzgeber. Es dauert mitunter Jahre, bis die Politik sich dazu aufrafft, eine neue Technologie mittels angemessener Rahmenbedingungen einzuhegen. Zuletzt durften (oder eher mussten) wir die Trägheit der Politik am Beispiel der sozialen Medien miterleben. So ringen die USA bis heute mit der Formulierung eines umfassenden und staatenübergreifenden Regelwerks für die Regulierung von Facebook & Co.. Selbst ein einheitliches Datenschutzgesetz, vergleichbar mit der europäischen DSGVO, ist unseren Freunden aus Übersee bis heute nicht gelungen. Die Negativkonsequenzen dieser politischen Paralyse sind so mannigfaltig wie zerstörerisch und bedürfen an dieser Stelle keiner weiteren Ausführung.

Umso erstaunlicher ist es deshalb, dass Politiker auf der ganzen Welt in kürzester Zeit ein mehr oder weniger rudimentäres Regelwerk aus dem Hut gezaubert haben, um die Entwicklung und den Einsatz von Künstlicher Intelligenz zu reglementieren.


Hier sind die nennenswertesten politischen Anstrengungen des Jahres 2023 zum Thema KI-Regulierung, mit dem Versuch sie auf einen Satz herunterzubrechen:

Juni – „EU AI Act“: Ein umfangreiches und zum Zweck der Technologieoffenheit bewusst vage formuliertes Rahmenwerk der EU, welches KI-Modelle ihrer Leistungsstärke entsprechend in Risikokategorien einteilt und individuellen Auflagen unterwirft.
Oktober – „US AI Executive Order“: Eine Verordnung des US-Präsidenten Biden, die in ihrem Kern den Aufbau von KI-Expertise und -Kompetenzen in vielen Ministerien verordnet, damit sie ihre neue Aufsichtspflicht über KI-Spitzenforschung und -Entwicklung erfüllen können.
November – „UK AI Safety Summit“: Der erste Versuch der Etablierung eines internationalen Formats, das für den Austausch von Ideen hinsichtlich zukünftig absehbarer KI-Entwicklungen und deren Regulierung konzipiert ist.


Die KI-Spitzenforschung fischt bisher im Trüben – mit tausenden Angeln


In der vorigen Überschrift spreche ich deshalb von einem Kaltstart, da die KI-Spitzenforschung unsere Gesetzgeber vor eine Reihe von äußerst anspruchsvollen Problemen stellt. Zum einen wäre da die Tatsache, dass dieses Forschungsfeld derart komplex ist, dass Stand heute noch nicht einmal die Entwickler selbst nachvollziehen können, was sich im Inneren ihrer riesigen KI-Modelle im Detail abspielt. Sowohl die Interpretierbarkeit als auch das darauf aufbauende „Alignment“ – also die Gleichschaltung und Vereinbarkeit der KI-Aktivitäten mit unseren menschlichen Grundwerten und Zielen – stellen ein bislang ungelöstes Problem dar.

Das zweite (mindestens ebenso) schwierige Problem besteht darin, dass die Politik sich nicht auf die Regulierung des Status Quo beschränken darf. Man muss sich vor Augen führen, dass ChatGPT auf GPT-3 basiert, ein Modell aus dem Jahre 2020. Betrachtet man das exponentielle Wachstum des KI-Fortschritts, handelt es sich bei der zugrundeliegenden Technologie um ein historisches Artefakt. Wie keine andere Technologie entwickeln sich die Fähigkeiten der KI-Modelle gleich von zweierlei Seiten weiter: Einerseits werden die Chips immer leistungsstärker und ihre Architektur wird für Training und Inferenz von KI-Modellen optimiert. Andererseits werden die Lernalgorithmen und die Trainingsdaten immer weiter verfeinert. Als dritten Punkt seien hier auch technologische Paradigmenwechsel zu nennen, die von einem Tag auf den anderen völlig unvorhergesehene, emergente KI-Fähigkeiten hervorbringen können (bspw. durch Deep Learning oder der Einsatz von Transformern). Schon die heutigen Frontier-Modelle überraschen ihre Schöpfer regelmäßig mit unerklärlichen Kompetenzzuwächsen, die oftmals alleine der Skalierung von Datenmenge oder Modell-Architektur (bspw. Multimodalität) entspringen.

Solche Paradigmenwechsel sind jedoch fast unmöglich zu antizipieren. Im Grunde nehmen wir unser unvollständiges, neurobiologisches Wissen über die Grundvoraussetzungen für Intelligenz und basteln unter Einsatz schwindelerregender Mengen an Ressourcen an silikonbasierten Imitaten herum. Kurz gesagt: Wir wissen nicht genau, welche Bausteine für eine Intelligenz-Synthese benötigt werden. Wir wissen lediglich, dass wir Menschen ein lebendes Beispiel für die Konstruierbarkeit von Intelligenz und Bewusstsein sind. Die Entwickler fischen also im Trüben – mit abertausenden Angeln.


Vom technologischen Wettrennen in den Abgrund bis zum Moonshot des Alignments

Um ein Gefühl für den mutmaßlich aktuellen Stand der KI-Technik zu bekommen, ist es wichtig zu wissen, dass Google vor einigen Jahren die entscheidenden Forschungsergebnisse publiziert hat („Attention Is All You Need“ 2017 zur Transformer-Technologie), die der heutigen Architektur von KI-Modellen zugrunde liegt. OpenAI sagte „schönen Dank!“ und baute auf Basis von Googles Publikation den Siegeszug ihrer aktuellen Spitzenreiter ChatGPT und GPT-4 auf (welches bis heute als leistungsstärkstes LLM gilt).

Mit ihren Veröffentlichungen hatte OpenAI die ganze Welt, vor allem aber Google, kalt erwischt und gleichzeitig den Startschuss zu einem Wettrennen gegeben, der sich in seiner Dynamik höchstens mit dem Wettrüsten der atomaren Großmächte während des kalten Kriegs vergleichen lässt. Nicht nur in Bezug auf die eingesetzten Mittel – angefangen von Investitionskapital für GPUs bis hin zum unerbittlichen Kampf um die hellsten Köpfe der Welt – sondern auch hinsichtlich der Geheimhaltung von Forschungserkenntnissen. „Never again“ werden sich die Google-Entscheider damals gedacht haben. Die Big Three der Entwickler von geschlossenen KI-Frontier-Modellen (Google, OpenAI und Anthropic – Meta und Tesla seien hier auch noch erwähnt) wähnen sich in einem „Winner Take All“ Wettstreit, den zu verlieren es um jeden Preis zu verhindern gilt. Dario Amodei, CEO von Anthropic sagt in diesem Zusammenhang: „Wir sind davon überzeugt, dass die Unternehmen, die die besten 2025/26-Modelle trainieren, einen zu großen Vorsprung haben werden, als dass man sie in den folgenden Zyklen einholen könnte.“

In einem solch dynamischen und komplexen Umfeld zukunftssichere Gesetzgebung zu betreiben ist unglaublich anspruchsvoll, da ein heute beschlossenes Gesetz schon morgen wirkungslos oder gar fehlgeleitet sein könnte. Um sinnvolle und gleichzeitig robuste Gesetze formulieren zu können, wird von den Gesetzgebern also nichts weniger verlangt als ein Blick in die Kristallkugel. Denn in der Zukunft lauern die wahren Gefahren dieser mit nichts bis dato vergleichbaren Technologie. Schon heute spüren wir die Folgen der KI-Revolution in Form von Desinformation, Cyberangriffen, offenen Fragen beim Urheberrecht und nicht zuletzt in Form von sich anbahnenden Disruptionen des Arbeitsmarktes (mit dem Autorenstreik in den USA als historischer Präzedenzfall eines KI-zentrierten Streiks). Die zukünftigen Risiken einer unkontrollierten Weiterentwicklung der leistungsstärksten KI-Frontier-Modelle werden mit jedem Quäntchen hinzugewonnener Fähigkeiten größer, mit fortschreitender Verwebung von KI mit unserer digitalen Infrastruktur immer folgenreicher. Und ja, auch existenzielle Risiken des völligen Kontrollverlustes sind nicht nur nicht auszuschließen, sie sind sogar äußerst plausibel. Um eine vorstellbare Machtübernahme durch KI zu verhindern, können wir uns nicht auf den gewohnten Modus Operandi der Gesetzgebung verlassen. Ein Trial-and-Error Ansatz funktioniert hier nicht: „Lass uns mal Regulierungsmaßnahmen der Reihe nach ausprobieren. Wenn es nicht klappt und die KI die Weltherrschaft an sich reißt, probieren wir einfach den nächsten Ansatz“……Moment!

Das Problem des Alignments wiederum ist die Tatsache, dass Intelligenz nicht irgendein Werkzeug ist. Intelligenz konzipiert und baut Werkzeuge. Intelligenz ist die Fähigkeit seine Umwelt zu analysieren, sie zu verstehen (in Form eines Welt-Modells) und Pläne zu schmieden, um diese Umwelt nach den eigenen Präferenzen umzugestalten.
Wir wissen nicht, was eine theoretische Künstliche Superintelligenz (ASI) begehren könnte. Nick Bostrom hat den Begriff der Instrumentellen Konvergenz geprägt, die als Denkhilfe für das Antizipieren möglicher ASI-Präferenzen herangezogen werden kann. Sie besagt, dass jegliche Zielsetzung zur Formulierung von untergeordneten Zielen führt. Ob das eigentliche Ziel nun die Weltherrschaft oder ein Becher Eiskrem ist: Je mehr Ressourcen – Macht, Intelligenz, Energie, Geld etc. – mir zur Verfügung stehen, desto eher/besser/schneller werde ich mein Ziel erreichen können.

Um die zukünftige Trajektorie der KI-Entwicklung zu prognostizieren müssen wir also folgende Punkte unbedingt berücksichtigen:

1. Intelligenz ist ein Spektrum, dessen oberes Ende wir weder kennen, noch besetzen

2. Intelligenz ist das ultimative Machtinstrument. Wer schneller bessere Pläne konzipieren und umsetzen kann, wird sich in einer Konfliktsituation durchsetzen.

3. Intelligenz ist ein natürliches Phänomen und es gibt kein Naturgesetz, welches ihrer Synthese und Skalierung im Wege steht.

Unter diesen Gesichtspunkten ist es früher oder später ausgemachte Sache, dass wir die Zügel unseres Schicksals nicht länger in den eigenen Händen halten werden. In einem solchen Takeover-Szenario gibt es keine Eingriffsmöglichkeiten mehr, den Kurs zu korrigieren. Eine durch sich selbst verbessernde KI eingeleitete Intelligenzexplosion (auch Technologische Singularität genannt) zu kontrollieren ist in etwa so, wie wenn man einen Zuckerwürfel von München aus in eine Wiener Melange befördern muss…die in Wien steht…mit einem Katapult…und verbundenen Augen. Immerhin darf man vorher noch den angeschleckten Finger in den Wind halten.

Am Ende des Tages gibt es nahezu unendlich viele Möglichkeiten, wie ein solches Übernahmeszenario übel für die Menschheit enden könnte. Ihnen gegenüber stehen lediglich eine Handvoll Happy Ends, die alle Checkboxen abhaken und alle katastrophalen Weichenstellungen ausschließen. Allem voran steht die Frage, aus welchem Grund eine übermächtige KI uns wohlgesonnen sein sollte. Liebe, Empathie und Zuneigung sind alles Eigenschaften, die wir im Verlauf unserer Evolution eingeprügelt bekommen haben. Sie boten uns einen entscheidenden Vorteil im Überlebenskampf, denn sie befähigten uns zur Kooperation und beförderten die Arterhaltung. Eine künstliche „Lebensform“ hat diese Lektionen der evolutionären Vorschule nicht durchlaufen und ist somit nicht den gleichen Mechanismen unterworfen wie alle uns bisher bekannten, höheren Lebensformen. Wir sollten uns deshalb nicht darauf verlassen, dass eine superintelligente KI uns „schon wohlgesonnen sein wird“; zumindest so lange nicht, bis wir absolut stichfeste, theoretische Beweise anführen können, die uns ein unverzichtbares Alleinstellungsmerkmal in den Augen einer Künstlichen Superintelligenz attestieren. Eine ASI ist nämlich nicht auf Kooperation angewiesen. Sie braucht lediglich Ressourcen. Und diese wird sie sich – auch gegen Wiederstand – aneignen.

Wir Menschen sind weder superintelligent, noch skalierbar. Unsere Hardware entwickelt sich per kombinatorischem Zufall weiter. Unsere Upgradezyklen dauern jeweils eine Generation und verändern nur einen winzigen Bruchteil unseres Systems. Dass diese zufälligen Modifikationen uns zum Vorteil gereichen, ist dabei noch nicht einmal garantiert.
Wir können weder an unserem Source-Code schrauben, unsere Prozessoren aufstocken oder unseren Geist millionenfach kopieren und parallelisieren.

Wir sind die dümmst-mögliche Lebensform, die dazu in der Lage ist, Intelligenz zu synthetisieren. Nicht mehr und nicht weniger – und mit absoluter Gewissheit nicht genug, um einer selbst-modifizierenden, annähernd endlos skalierbaren ASI auch nur irgendetwas entgegensetzen zu können.


Das erklärte Ziel der KI-Spitzenforschung: Artificial General Intelligence (AGI) und die Automatisierung von Wirtschaft und Forschung

Die Aussagen der KI-Aristokratie drängen dem nüchternen Beobachter unweigerlich ein gewisses Maß an Skepsis auf.
Denn die Prognosen der Tech-Koryphäen, die derzeit an ihren jeweils eigenen und streng geheimen Frontier-Modellen schrauben, sind an Großspurigkeit kaum zu übertreffen:

Sundar Pichai, CEO von Google/Alphabet: „KI ist eines der bedeutsamsten Dinge, an denen wir als Menschheit arbeiten. Sie ist bedeutsamer als Feuer oder Elektrizität“.
Demis Hassabis, CEO von DeepMind: „Wir wollen KI nutzen, um die größten Probleme der Welt zu lösen, und wenn wir es richtig machen, glauben wir, dass wir für die Gesellschaft von großem Nutzen sein können“.
Er sagt allerdings auch Folgendes: „Wir müssen die Risiken der Künstlichen Intelligenz genauso ernst nehmen wie andere große globale Herausforderungen, etwa den Klimawandel. Die internationale Gemeinschaft hat zu lange gebraucht, um eine wirksame globale Antwort auf den Klimawandel zu koordinieren, und wir müssen jetzt mit den Folgen leben. Die gleiche Verzögerung können wir uns bei der KI nicht leisten.“
Sam Altman, CEO von OpenAI: „KI stellt ein existenzielles Risiko für die Menschheit dar“.
Ilya Sutskever, Chief Scientist bei OpenAI: „KI ist das Wichtigste, woran die Menschheit arbeitet. Sie ist tiefgreifender als Elektrizität oder Feuer“.
Prof. Andrew Ng, Deep Learning Pionier: „KI ist die neue Elektrizität. So wie die Elektrizität vor 100 Jahren fast alles verändert hat, fällt es mir heute schwer, mir eine Branche vorzustellen, die sich in den nächsten Jahren nicht durch KI verändern wird“.
Das Pitch-Deck von Anthropic, die mit Claude 2 einen leistungsstarken Rivalen zu GPT-4 ins Rennen geschickt haben, beschreibt das Potenzial von Frontier-Modellen wie folgt: „Diese Modelle könnten dazu führen, dass große Teile der Wirtschaft automatisiert werden“.

OpenAIs ausgewiesenes Ziel ist die Erschaffung einer sogenannten AGI, also einer Artificial General Intelligence. Damit ist eine Künstliche Intelligenz gemeint, die in jeder Hinsicht gleichwertig oder besser ist als ein erwachsener und gut ausgebildeter Mensch.
Ilya Sutskever beschreibt das mit den Worten „Wir wollen Maschinen bauen, die alles können, was Menschen können, und noch mehr“. Bei der ersten OpenAI Entwicklerkonferenz verabschiedete Sam Altman seinen Gastredner und Kooperationspartner Satya Nadella (CEO von Microsoft) mit den Worten „Ich denke wir haben die beste Technologiepartnerschaft und ich freue mich darauf [mit Microsoft] zusammen AGI zu bauen“.

Wir können diese Aussagen in den Wind schlagen, sie als Hype abtun und sie in eine Reihe mit Kryptowährungen und NFTs stellen. Ein Strohfeuer, das für kurze Zeit hell aufleuchtet um genauso schnell wieder zu erlöschen.
Eine solche Bewertung missachtet jedoch den fundamentalen Wesensunterschied, der KI von den zuvor genannten Tech-Trends abhebt. Sowohl Kryptowährungen als auch NFTs sind jeweils Derivate einer durchaus nützlichen Basistechnologie – der Blockchain – die viele Goldritter durch ihre dezentralisierte Verwaltung und unkontrollierte Handelbarkeit in Versuchung geführt haben. Leider wurden beide als Instrument zur großflächigen Abzocke missbraucht. Die Machenschaften einiger Betrüger haben dadurch nicht nur ihren eigenen Ruf geschädigt, sondern den Glauben an Technologietrends im Allgemeinen erschüttert.

Im Gegensatz zu herkömmlichen Technologien beschränkt sich das Ziel von Frontier-Modellen nicht auf einen eng gefassten Teilbereich der Wirtschaft. KI ist von Natur aus in der Lage jeden Aspekt der menschlichen Produktivität – einschließlich kognitiver und motorischer Höchstleistungen – zu automatisieren.
An diesem Ziel sind wir Stand heute noch längst nicht angekommen. Allerdings werden wir ihm morgen bereits ein großes Stück nähergekommen sein. Und den Tag darauf ein weiteres Stück.

Der Zugewinn an KI-Kompetenzen beschreibt eine exponentielle Kurve, die sich durch selbstverstärkende, synergetische Entwicklung ihrer Teilgebiete begründet: Immer mehr Daten fließen in das Training immer größerer KI-Modelle unter Nutzung rapide anwachsender Rechenleistung ein. Die Trainingsalgorithmen werden immer effizienter und verwerten die gleiche Datenmenge und Rechenleistung mit steigender Effektivität. Dies hat zur Folge, dass immer mehr menschliche Fähigkeiten von KI-Modellen überflügelt werden, bis am Ende keine Disziplin mehr übrigbleibt, deren Spitzenleistung wir uns ans Revers heften dürfen.
Neben den immensen Investitionen in KI und ihrer unvergleichlich schnellen Implementation (ChatGPT ist die Anwendung mit dem größten User-Wachstum; 92 Prozent der Fortune 500 Unternehmen nutzen bereits generative KI) darf man eines nicht vergessen: Die Raktenwissenschaftler von heute sind in der KI-Spitzenforschung zu finden. Sie alle folgen, neben den astronomischen Gehältern, vor allem der Aussicht, sich einen Platz in den Geschichtsbüchern zu sichern. In kaum einem anderen Forschungsgebiet ist die Dichte an Visionären und Universalgenies so hoch, wie hier. Sie alle sind Getriebene, die die Bedeutsamkeit ihrer Forschungsdisziplin verstanden haben. AGI ist die letzte Erfindung, die wir Menschen jemals machen werden müssen, ja werden können.


Die Zukunft ist vorgezeichnet – Machen wir das Beste daraus

Dem granularen Fortschrittsmechanismus der wissenschaftlichen Methode ist es zu verdanken, dass wir (von apokalyptischen Ereignissen einmal abgesehen) eine klar vorgezeichneten Weg beschreiten:

Fortschreitende Automatisierung der Wertschöpfungskette ==> AGI ==> ASI.

Über den Zeitraum dieser Entwicklung kann man sich streiten. Über die Zwischenstationen und den Endpunkt hingegen - meiner Meinung nach - nicht.

Zum Schluss lässt sich konstatieren: Frontier-Modelle wie GPT-4 übertreffen einen durchschnittlichen Menschen schon heute in vielerlei Hinsicht. Von AGI kann man zum derzeitigen Stand der Technik zwar noch nicht sprechen. Es werden noch einige Durchbrüche nötig sein, bis dieser Meilenstein erreicht ist. Multimodalität, also die Fähigkeit mit unterschiedlichen Inputs und Outputs (Text, Bild, Video, Audio etc.) umgehen zu können, ist mit Sicherheit ein wichtiger Bestandteil der Weiterentwicklung und wird bereits mit Hochdruck vorangetrieben (z.B. Gemini von Google).

2024 wird jedoch das erste Jahr sein, in welchem es sich lohnt, aufmerksam nach ersten Anzeichen von AGI Ausschau zu halten. Ihre Auswirkungen werden wir nämlich alle zu spüren bekommen. Entweder durch rapiden wissenschaftlichen und technologischen Fortschritt und eine globale Überflussgesellschaft, oder in Form schwerwiegender sozialer Verwerfungen, falls es nicht gelingen sollte, die zunehmend automatisierte Wertschöpfung gerecht zu verteilen.

Man kann nur hoffen, dass die Politik sich dieser Tatsache bewusst ist. Denn Aussagen wie die von SPD-Arbeitsminister Hubertus Heil, dass spätestens 2035 kein Arbeitsplatz ohne KI-Anwendungen mehr existieren wird, sind derart konservativ, dass sie meiner Meinung nach das Prädikat „Haltlos“ verdienen.
Wobei, mit einer kleinen Modifikation kann man seine Prognose durchaus noch retten: „2035 wird ein großer Teil der heutigen Arbeitsplätze nicht mehr existieren“
Wem diese Aussage zu radikal erscheint, der sei herzlich dazu eingeladen, sich in gut zehn Jahren bei mir zu melden und mir die hier niedergeschriebenen Worte um die Ohren zu hauen.

Zusammenfassung:

  • Investitionen in KI-Hardware und KI-Toptalente werden weiter steigen
  • KI-Toptalente werden zu den Gehältern von Spitzensportlern aufschließen
  • Sukzessive Implementation von maßgeschneiderten KI-Applikationen in die Wertschöpfungskette
  • Erste Arbeitsplätze werden wegrationalisiert, Arbeitslast wird auf weniger Schultern von KI-augmentierten Leistungsträgern verteilt werden
  • Mindestens ein Paradigmenwechsel im Bereich KI-Training, -Modellarchitektur und -Hardware ist zu erwarten
  • Frontier-Modelle werden zunehmend multimodaler
  • Neue emergente Fähigkeiten der Frontier-Modelle werden auftreten (Logik, Welt-Modell etc.)
  • Energieeffizienz von KI-Training und Inferenz sowie die Verlässlichkeit der Outputs werden steigen
  • Eine Vielzahl neuer Gesetze werden weltweit auf den Weg gebracht, erste Bemühungen zur Formierung einer internationalen KI-Governance-Struktur werden unternommen

 

2023 war das Jahr der KI-Gesetzgebung und des Begriffs „AGI“

 

31.01.2024

   

Markus Reck

Vorwort: Dieser Artikel ist bereits Mitte November 2023 entstanden. Da unser Blog jedoch erst Mitte Januar 2024 Richtfest gefeiert hat, erfolgt die Veröffentlichung dieses Artikels mit zweimonatigem Verzug. Seither haben sich schon einzelne meiner Prognosen bewahrheitet. So hat sich beispielsweise die wissenschaftliche Publikation zu AlphaGeometry von Google DeepMind nahtlos in die Stoßrichtung der Q*-Gerüchteküche eingefügt. Die Erschließung der Mathematik markiert einen fundamentalen Paradigmenwechsel in der KI-Entwicklung. Auch Google's Gemini ist mittlerweile der Öffentlichkeit zugänglich gemacht worden. Stand 31.01.2024 ist jedoch nur die kleine (Nano) und mittelgroße (Pro) Modellvariante verfügbar. Die größte Modellvariante "Gemini Ultra" befindet sich laut Google noch in der Sicherheitstest-Phase. Doch das GPT-3.5 Äquivalent "Gemini Pro" reiht sich im "Chatbot Arena" Benchmark direkt hinter GPT-4-Turbo auf Platz zwei der LLMs ein.
Darüber hinaus ist Google DeepMind, Meta und der Berkeley Universität mit Mobile ALOHA eine eindrucksvolle Studie gelungen, wie man sich mit frei erwerblichen Komponenten einen lernfähigen und äußerst filigran agierenden Haushaltsroboter selbst zusammenbauen kann.


Für unbeteiligte Beobachter kam es einem Weckruf gleich, als am 30. November 2022 das erste Large Language Model (kurz LLM) ChatGPT (Chatbot Generative Pre-trained Transformer) der Firma OpenAI veröffentlicht wurde. Beinahe gespenstisch muteten dessen Fähigkeiten an, Texteingaben (sogenannte Prompts) nicht nur zu verstehen, sondern daraufhin auch eloquente Antworten zu produzieren. Erstaunlich war auch die umfangreiche Faktenkenntnis von ChatGPT, welche auf einer unvorstellbar großen Grundlage – quasi dem gesamten Datenbestand des frei zugänglichen Internets – basierte. Vielmehr war es die offenkundige Kreativität, mit der ChatGPT jeglichen Befehl seiner Nutzer in die Tat umzusetzen in der Lage war. Angefangen von trivialen Aufgaben, wie dem Formulieren einer förmlichen E-Mail, über das Verfassen ganzer Aufsätze bis hin zur Lösung kniffliger Logik-Rätsel demonstrierte OpenAIs KI-Modell ein beeindruckendes Spektrum an sprachbasierten Fähigkeiten.


Stochastischer Papagei versus echtes Verständnis – Können Maschinen intelligent sein?


Diese Fähigkeiten einem echten Verständnis zuzuschreiben, der KI wahre Kreativität zu attestieren – das fällt vielen Skeptikern schwer. So fanden sich auch bald die ersten „Experten“ ein, die dem Sägen am Stuhlbein des menschlichen Exzeptionalismus mit vehementer Kritik begegneten. „Chatbots sind nichts weiter als stochastische Papageien, die lediglich Gelerntes reproduzieren, aber niemals Neues erschaffen können“ war eines der meistvorgebrachten Argumente der Kritiker. Das ist im Grundsatz nicht gänzlich falsch. Ja, generative KI-Modelle speisen ihr Wissen aus dem gigantischen Erfahrungsschatz ihrer Trainingsdaten. ChatGPT (auch unter seiner Versionsnummer GPT-3.5 bekannt) wurde anhand von 175 Milliarden Parametern, bestehend aus 300 Milliarden Wörtern aus dem Internet, trainiert. Dabei wird ein neuronales Netz konstruiert, das grob der Architektur des menschlichen Gehirns nachempfunden wurde. Der Trainingsprozess geschieht mittels Deep Learning (das Lernen an Beispielen) und dem Einsatz von sogenannten Transformern (die vereinfacht dargestellt für das Verständnis zuständig sind).
Nun stellt sich also die Frage, inwiefern sich dieser Trainingsprozess grundsätzlich vom menschlichen Lernen unterscheidet und ob er – und das ist der entscheidende Punkt – echtes Verständnis hervorbringt. Also die Qualität, die bisher dem Menschen als Krone der Schöpfung vorbehalten war. Denn auch die stochastische Vorhersage des nächsten Wortes benötigt ein Verständnis des zugrundeliegenden Sachverhalts. Um das letzte Wort des Satzes „Der Mörder ist […]“ zu vervollständigen, muss man die Gesamtheit der verfügbaren Informationen verstehen und diese in einen sinnvollen Zusammenhang stellen.


Ein weiterer Paradigmenwechsel beim KI-Training: Von AlphaGo bis Q*

Mit OpenAIs geleaktem Modell Q* („Q Star“) ist nun ein weiterer Paradigmenwechsel bei den Trainingsmethoden von Frontier-Modellen vollzogen worden. Anders als bei bisherigen LLMs wird hier nicht nur die Mustererkennung anhand eines fixen Datensatzes trainiert, um das nächste Wort zu prognostizieren. Vielmehr wird dem KI-Modell beigebracht, den optimalen Weg von einem Startpunkt bis hin zu einem spezifischen Ziel zu finden. Dieser Lernansatz wurde bereits 2016 von DeepMinds „AlphaGo“ angewandt. Dem Lernprozess liegt die Technik des Reinforcement Learning (RL) – also des Lernens mittels Zuckerbrot und Peitsche – und des damit verbundenen Self-Play zugrunde. Beim Self-Play handelt es sich kurzgesagt um einen künstlichen Evolutionsprozess: Verschiedene KI-Agenten messen sich in einem Turnier gegeneinander, wer ein Problem am effektivsten Lösen kann. Bei dem Problem kann es sich um ein Spiel (z.B. Schach oder Go) oder aber auch um komplexere Aufgaben wie das Erreichen eines vielschichtigen Ziels (z.B. Proteinfaltung, Materialforschung) handeln. Auf diese Weise kann es einer derart trainierten KI gelingen, neue Erkenntnisse und Lösungswege zu finden, die uns Menschen bisher verborgen geblieben waren.

OpenAIs Q* und Google DeepMinds Gemini sind die bisher noch unveröffentlichten Frontier-Modelle, die mit diesem neuen Paradigma trainiert wurden. Von Gemini ist bislang noch nicht viel bekannt, aber die Leaks zu Q* lassen ein Grundverständnis für Mathematik erkennen – was als Grundvoraussetzung für wissenschaftlichen Erkenntnisgewinn und ein Verständnis der Welt gilt. Dies wiederum ist wichtig für die Erzeugung eines internen „Welt-Modells“, das von vielen Kognitionswissenschaftlern als eine zentrale Komponente für das Entstehen von Bewusstsein gilt. Ein Welt-Modell ist nichts anderes als eine gedankliche Simulation der Umwelt, die sich auf Erfahrungen und experimentellen Erkenntnisgewinn stützt. Ein gutes Welt-Modell ist wichtig für genaue Prognosen. Was passiert mit einem Apfel, wenn sich dieser vom Baum löst? Was passiert mit dem Weltklima, wenn wir weiterhin große Mengen an CO2 in die Atmosphäre blasen? Das alles sind Fragen, die mit einem guten Welt-Modell aus dem Stegreif beantwortet werden können.
Was dies in der wissenschaftlichen Praxis von heute bedeutet, hat DeepMind zum wiederholten Male mit GNoME bewiesen. Das mit RL und Self-Play trainierte Modell wurde anhand des größten existierenden Fundus der Materialforschung (bestehend aus 20.000 experimentell und 28.000 durch Berechnung ermittelten Verbindungen) gespeist und hat daraus 381.000 bisher unbekannte, stabile Verbindungen extrapoliert. Die KI-generierten Materialienbaupläne sind ein Quantensprung für die Materialforschung und werden den Grundstein für neue Entwicklungen in der Elektronik (Batterien, Solarzellen etc.) legen.

Zuvor hatte AlphaFold bereits die dreidimensionale Struktur von mehr als 200 Millionen Proteinen prognostiziert. DeepMind hat daraufhin ihre Forschungsergebnisse der wissenschaftlichen Gemeinschaft frei zur Verfügung gestellt (wie dies auch später bei GNoME geschehen ist).
Als Verständnishilfe: Die Daumenregel war bisher, dass ein Doktorand sich die gesamten fünf Jahre seines Doktorstudiums mit einem einzigen Protein beschäftigen musste, um es in alle möglichen 3D-Konfigurationen zu falten.

Ein weiterer entscheidender Paradigmenwechsel markiert der zunehmende Influx von synthetischen, also von LLMs erzeugten Daten als Trainingsgrundlage für neue Modelle. Auch beim Finetuning der sogenannten Weights (Gewichtungen zwischen den einzelnen Schichten des neuronalen Netzes), die entscheidend für die Qualität des Outputs eines Modells sind, wird immer mehr auf KI gesetzt. Wurde bisher die Beurteilung unzähliger Outputs beim „Reinforcement learning from human feedback“ (RLHF) von Menschen übernommen, kommt auch hier nun immer mehr KI zum Einsatz (RLAIF).
Sowohl der Mangel an neuen Trainingsdaten als auch das zeit- und arbeitsintensive Feedback-Training stellen bis heute einen Flaschenhals für die Weiterentwicklung der Frontier-Modelle dar. Wenn diese Einschränkungen nun sukzessive durch den Einsatz der leistungsstärksten Modelle der vorhergehenden KI-Generation übernommen werden, könnte das die Entwicklungszyklen enorm beschleunigen. KI die KI entwickelt ist die entscheidende Voraussetzung für die KI-Singularität und die damit verbundene Intelligenzexplosion.

Sie sehen, in dieser Diskussion geht es um viel mehr als um die schnöde Klassifizierung eines einfachen Software-Tools. Hier steht nichts weniger auf dem Spiel als das menschliche Selbstverständnis seiner bislang unerreichten Exzellenz, die in seiner Begabung zu kognitiven Höchstleistungen begründet ist.

Die langsamen Mühlen der Politik wurden 2023 zum Kaltstart gezwungen


Dass KI eben kein Werkzeug wie jedes andere ist, dass es sich hierbei um nichts weniger als einen Paradigmenwechsel handelt, mit dem Potenzial das Wesen von Produktion und Forschung zu revolutionieren – das zeigt sich vor allem an der ungewöhnlich schnellen Reaktion der globalen Gesetzgeber. Es dauert mitunter Jahre, bis die Politik sich dazu aufrafft, eine neue Technologie mittels angemessener Rahmenbedingungen einzuhegen. Zuletzt durften (oder eher mussten) wir die Trägheit der Politik am Beispiel der sozialen Medien miterleben. So ringen die USA bis heute mit der Formulierung eines umfassenden und staatenübergreifenden Regelwerks für die Regulierung von Facebook & Co.. Selbst ein einheitliches Datenschutzgesetz, vergleichbar mit der europäischen DSGVO, ist unseren Freunden aus Übersee bis heute nicht gelungen. Die Negativkonsequenzen dieser politischen Paralyse sind so mannigfaltig wie zerstörerisch und bedürfen an dieser Stelle keiner weiteren Ausführung.

Umso erstaunlicher ist es deshalb, dass Politiker auf der ganzen Welt in kürzester Zeit ein mehr oder weniger rudimentäres Regelwerk aus dem Hut gezaubert haben, um die Entwicklung und den Einsatz von Künstlicher Intelligenz zu reglementieren.


Hier sind die nennenswertesten politischen Anstrengungen des Jahres 2023 zum Thema KI-Regulierung, mit dem Versuch sie auf einen Satz herunterzubrechen:

Juni – „EU AI Act“: Ein umfangreiches und zum Zweck der Technologieoffenheit bewusst vage formuliertes Rahmenwerk der EU, welches KI-Modelle ihrer Leistungsstärke entsprechend in Risikokategorien einteilt und individuellen Auflagen unterwirft.
Oktober – „US AI Executive Order“: Eine Verordnung des US-Präsidenten Biden, die in ihrem Kern den Aufbau von KI-Expertise und -Kompetenzen in vielen Ministerien verordnet, damit sie ihre neue Aufsichtspflicht über KI-Spitzenforschung und -Entwicklung erfüllen können.
November – „UK AI Safety Summit“: Der erste Versuch der Etablierung eines internationalen Formats, das für den Austausch von Ideen hinsichtlich zukünftig absehbarer KI-Entwicklungen und deren Regulierung konzipiert ist.


Die KI-Spitzenforschung fischt bisher im Trüben – mit tausenden Angeln


In der vorigen Überschrift spreche ich deshalb von einem Kaltstart, da die KI-Spitzenforschung unsere Gesetzgeber vor eine Reihe von äußerst anspruchsvollen Problemen stellt. Zum einen wäre da die Tatsache, dass dieses Forschungsfeld derart komplex ist, dass Stand heute noch nicht einmal die Entwickler selbst nachvollziehen können, was sich im Inneren ihrer riesigen KI-Modelle im Detail abspielt. Sowohl die Interpretierbarkeit als auch das darauf aufbauende „Alignment“ – also die Gleichschaltung und Vereinbarkeit der KI-Aktivitäten mit unseren menschlichen Grundwerten und Zielen – stellen ein bislang ungelöstes Problem dar.

Das zweite (mindestens ebenso) schwierige Problem besteht darin, dass die Politik sich nicht auf die Regulierung des Status Quo beschränken darf. Man muss sich vor Augen führen, dass ChatGPT auf GPT-3 basiert, ein Modell aus dem Jahre 2020. Betrachtet man das exponentielle Wachstum des KI-Fortschritts, handelt es sich bei der zugrundeliegenden Technologie um ein historisches Artefakt. Wie keine andere Technologie entwickeln sich die Fähigkeiten der KI-Modelle gleich von zweierlei Seiten weiter: Einerseits werden die Chips immer leistungsstärker und ihre Architektur wird für Training und Inferenz von KI-Modellen optimiert. Andererseits werden die Lernalgorithmen und die Trainingsdaten immer weiter verfeinert. Als dritten Punkt seien hier auch technologische Paradigmenwechsel zu nennen, die von einem Tag auf den anderen völlig unvorhergesehene, emergente KI-Fähigkeiten hervorbringen können (bspw. durch Deep Learning oder der Einsatz von Transformern). Schon die heutigen Frontier-Modelle überraschen ihre Schöpfer regelmäßig mit unerklärlichen Kompetenzzuwächsen, die oftmals alleine der Skalierung von Datenmenge oder Modell-Architektur (bspw. Multimodalität) entspringen.

Solche Paradigmenwechsel sind jedoch fast unmöglich zu antizipieren. Im Grunde nehmen wir unser unvollständiges, neurobiologisches Wissen über die Grundvoraussetzungen für Intelligenz und basteln unter Einsatz schwindelerregender Mengen an Ressourcen an silikonbasierten Imitaten herum. Kurz gesagt: Wir wissen nicht genau, welche Bausteine für eine Intelligenz-Synthese benötigt werden. Wir wissen lediglich, dass wir Menschen ein lebendes Beispiel für die Konstruierbarkeit von Intelligenz und Bewusstsein sind. Die Entwickler fischen also im Trüben – mit abertausenden Angeln.


Vom technologischen Wettrennen in den Abgrund bis zum Moonshot des Alignments

Um ein Gefühl für den mutmaßlich aktuellen Stand der KI-Technik zu bekommen, ist es wichtig zu wissen, dass Google vor einigen Jahren die entscheidenden Forschungsergebnisse publiziert hat („Attention Is All You Need“ 2017 zur Transformer-Technologie), die der heutigen Architektur von KI-Modellen zugrunde liegt. OpenAI sagte „schönen Dank!“ und baute auf Basis von Googles Publikation den Siegeszug ihrer aktuellen Spitzenreiter ChatGPT und GPT-4 auf (welches bis heute als leistungsstärkstes LLM gilt).

Mit ihren Veröffentlichungen hatte OpenAI die ganze Welt, vor allem aber Google, kalt erwischt und gleichzeitig den Startschuss zu einem Wettrennen gegeben, der sich in seiner Dynamik höchstens mit dem Wettrüsten der atomaren Großmächte während des kalten Kriegs vergleichen lässt. Nicht nur in Bezug auf die eingesetzten Mittel – angefangen von Investitionskapital für GPUs bis hin zum unerbittlichen Kampf um die hellsten Köpfe der Welt – sondern auch hinsichtlich der Geheimhaltung von Forschungserkenntnissen. „Never again“ werden sich die Google-Entscheider damals gedacht haben. Die Big Three der Entwickler von geschlossenen KI-Frontier-Modellen (Google, OpenAI und Anthropic – Meta und Tesla seien hier auch noch erwähnt) wähnen sich in einem „Winner Take All“ Wettstreit, den zu verlieren es um jeden Preis zu verhindern gilt. Dario Amodei, CEO von Anthropic sagt in diesem Zusammenhang: „Wir sind davon überzeugt, dass die Unternehmen, die die besten 2025/26-Modelle trainieren, einen zu großen Vorsprung haben werden, als dass man sie in den folgenden Zyklen einholen könnte.“

In einem solch dynamischen und komplexen Umfeld zukunftssichere Gesetzgebung zu betreiben ist unglaublich anspruchsvoll, da ein heute beschlossenes Gesetz schon morgen wirkungslos oder gar fehlgeleitet sein könnte. Um sinnvolle und gleichzeitig robuste Gesetze formulieren zu können, wird von den Gesetzgebern also nichts weniger verlangt als ein Blick in die Kristallkugel. Denn in der Zukunft lauern die wahren Gefahren dieser mit nichts bis dato vergleichbaren Technologie. Schon heute spüren wir die Folgen der KI-Revolution in Form von Desinformation, Cyberangriffen, offenen Fragen beim Urheberrecht und nicht zuletzt in Form von sich anbahnenden Disruptionen des Arbeitsmarktes (mit dem Autorenstreik in den USA als historischer Präzedenzfall eines KI-zentrierten Streiks). Die zukünftigen Risiken einer unkontrollierten Weiterentwicklung der leistungsstärksten KI-Frontier-Modelle werden mit jedem Quäntchen hinzugewonnener Fähigkeiten größer, mit fortschreitender Verwebung von KI mit unserer digitalen Infrastruktur immer folgenreicher. Und ja, auch existenzielle Risiken des völligen Kontrollverlustes sind nicht nur nicht auszuschließen, sie sind sogar äußerst plausibel. Um eine vorstellbare Machtübernahme durch KI zu verhindern, können wir uns nicht auf den gewohnten Modus Operandi der Gesetzgebung verlassen. Ein Trial-and-Error Ansatz funktioniert hier nicht: „Lass uns mal Regulierungsmaßnahmen der Reihe nach ausprobieren. Wenn es nicht klappt und die KI die Weltherrschaft an sich reißt, probieren wir einfach den nächsten Ansatz“……Moment!

Das Problem des Alignments wiederum ist die Tatsache, dass Intelligenz nicht irgendein Werkzeug ist. Intelligenz konzipiert und baut Werkzeuge. Intelligenz ist die Fähigkeit seine Umwelt zu analysieren, sie zu verstehen (in Form eines Welt-Modells) und Pläne zu schmieden, um diese Umwelt nach den eigenen Präferenzen umzugestalten.
Wir wissen nicht, was eine theoretische Künstliche Superintelligenz (ASI) begehren könnte. Nick Bostrom hat den Begriff der Instrumentellen Konvergenz geprägt, die als Denkhilfe für das Antizipieren möglicher ASI-Präferenzen herangezogen werden kann. Sie besagt, dass jegliche Zielsetzung zur Formulierung von untergeordneten Zielen führt. Ob das eigentliche Ziel nun die Weltherrschaft oder ein Becher Eiskrem ist: Je mehr Ressourcen – Macht, Intelligenz, Energie, Geld etc. – mir zur Verfügung stehen, desto eher/besser/schneller werde ich mein Ziel erreichen können.

Um die zukünftige Trajektorie der KI-Entwicklung zu prognostizieren müssen wir also folgende Punkte unbedingt berücksichtigen:

1. Intelligenz ist ein Spektrum, dessen oberes Ende wir weder kennen, noch besetzen

2. Intelligenz ist das ultimative Machtinstrument. Wer schneller bessere Pläne konzipieren und umsetzen kann, wird sich in einer Konfliktsituation durchsetzen.

3. Intelligenz ist ein natürliches Phänomen und es gibt kein Naturgesetz, welches ihrer Synthese und Skalierung im Wege steht.

Unter diesen Gesichtspunkten ist es früher oder später ausgemachte Sache, dass wir die Zügel unseres Schicksals nicht länger in den eigenen Händen halten werden. In einem solchen Takeover-Szenario gibt es keine Eingriffsmöglichkeiten mehr, den Kurs zu korrigieren. Eine durch sich selbst verbessernde KI eingeleitete Intelligenzexplosion (auch Technologische Singularität genannt) zu kontrollieren ist in etwa so, wie wenn man einen Zuckerwürfel von München aus in eine Wiener Melange befördern muss…die in Wien steht…mit einem Katapult…und verbundenen Augen. Immerhin darf man vorher noch den angeschleckten Finger in den Wind halten.

Am Ende des Tages gibt es nahezu unendlich viele Möglichkeiten, wie ein solches Übernahmeszenario übel für die Menschheit enden könnte. Ihnen gegenüber stehen lediglich eine Handvoll Happy Ends, die alle Checkboxen abhaken und alle katastrophalen Weichenstellungen ausschließen. Allem voran steht die Frage, aus welchem Grund eine übermächtige KI uns wohlgesonnen sein sollte. Liebe, Empathie und Zuneigung sind alles Eigenschaften, die wir im Verlauf unserer Evolution eingeprügelt bekommen haben. Sie boten uns einen entscheidenden Vorteil im Überlebenskampf, denn sie befähigten uns zur Kooperation und beförderten die Arterhaltung. Eine künstliche „Lebensform“ hat diese Lektionen der evolutionären Vorschule nicht durchlaufen und ist somit nicht den gleichen Mechanismen unterworfen wie alle uns bisher bekannten, höheren Lebensformen. Wir sollten uns deshalb nicht darauf verlassen, dass eine superintelligente KI uns „schon wohlgesonnen sein wird“; zumindest so lange nicht, bis wir absolut stichfeste, theoretische Beweise anführen können, die uns ein unverzichtbares Alleinstellungsmerkmal in den Augen einer Künstlichen Superintelligenz attestieren. Eine ASI ist nämlich nicht auf Kooperation angewiesen. Sie braucht lediglich Ressourcen. Und diese wird sie sich – auch gegen Wiederstand – aneignen.

Wir Menschen sind weder superintelligent, noch skalierbar. Unsere Hardware entwickelt sich per kombinatorischem Zufall weiter. Unsere Upgradezyklen dauern jeweils eine Generation und verändern nur einen winzigen Bruchteil unseres Systems. Dass diese zufälligen Modifikationen uns zum Vorteil gereichen, ist dabei noch nicht einmal garantiert.
Wir können weder an unserem Source-Code schrauben, unsere Prozessoren aufstocken oder unseren Geist millionenfach kopieren und parallelisieren.

Wir sind die dümmst-mögliche Lebensform, die dazu in der Lage ist, Intelligenz zu synthetisieren. Nicht mehr und nicht weniger – und mit absoluter Gewissheit nicht genug, um einer selbst-modifizierenden, annähernd endlos skalierbaren ASI auch nur irgendetwas entgegensetzen zu können.


Das erklärte Ziel der KI-Spitzenforschung: Artificial General Intelligence (AGI) und die Automatisierung von Wirtschaft und Forschung

Die Aussagen der KI-Aristokratie drängen dem nüchternen Beobachter unweigerlich ein gewisses Maß an Skepsis auf.
Denn die Prognosen der Tech-Koryphäen, die derzeit an ihren jeweils eigenen und streng geheimen Frontier-Modellen schrauben, sind an Großspurigkeit kaum zu übertreffen:

Sundar Pichai, CEO von Google/Alphabet: „KI ist eines der bedeutsamsten Dinge, an denen wir als Menschheit arbeiten. Sie ist bedeutsamer als Feuer oder Elektrizität“.
Demis Hassabis, CEO von DeepMind: „Wir wollen KI nutzen, um die größten Probleme der Welt zu lösen, und wenn wir es richtig machen, glauben wir, dass wir für die Gesellschaft von großem Nutzen sein können“.
Er sagt allerdings auch Folgendes: „Wir müssen die Risiken der Künstlichen Intelligenz genauso ernst nehmen wie andere große globale Herausforderungen, etwa den Klimawandel. Die internationale Gemeinschaft hat zu lange gebraucht, um eine wirksame globale Antwort auf den Klimawandel zu koordinieren, und wir müssen jetzt mit den Folgen leben. Die gleiche Verzögerung können wir uns bei der KI nicht leisten.“
Sam Altman, CEO von OpenAI: „KI stellt ein existenzielles Risiko für die Menschheit dar“.
Ilya Sutskever, Chief Scientist bei OpenAI: „KI ist das Wichtigste, woran die Menschheit arbeitet. Sie ist tiefgreifender als Elektrizität oder Feuer“.
Prof. Andrew Ng, Deep Learning Pionier: „KI ist die neue Elektrizität. So wie die Elektrizität vor 100 Jahren fast alles verändert hat, fällt es mir heute schwer, mir eine Branche vorzustellen, die sich in den nächsten Jahren nicht durch KI verändern wird“.
Das Pitch-Deck von Anthropic, die mit Claude 2 einen leistungsstarken Rivalen zu GPT-4 ins Rennen geschickt haben, beschreibt das Potenzial von Frontier-Modellen wie folgt: „Diese Modelle könnten dazu führen, dass große Teile der Wirtschaft automatisiert werden“.

OpenAIs ausgewiesenes Ziel ist die Erschaffung einer sogenannten AGI, also einer Artificial General Intelligence. Damit ist eine Künstliche Intelligenz gemeint, die in jeder Hinsicht gleichwertig oder besser ist als ein erwachsener und gut ausgebildeter Mensch.
Ilya Sutskever beschreibt das mit den Worten „Wir wollen Maschinen bauen, die alles können, was Menschen können, und noch mehr“. Bei der ersten OpenAI Entwicklerkonferenz verabschiedete Sam Altman seinen Gastredner und Kooperationspartner Satya Nadella (CEO von Microsoft) mit den Worten „Ich denke wir haben die beste Technologiepartnerschaft und ich freue mich darauf [mit Microsoft] zusammen AGI zu bauen“.

Wir können diese Aussagen in den Wind schlagen, sie als Hype abtun und sie in eine Reihe mit Kryptowährungen und NFTs stellen. Ein Strohfeuer, das für kurze Zeit hell aufleuchtet um genauso schnell wieder zu erlöschen.
Eine solche Bewertung missachtet jedoch den fundamentalen Wesensunterschied, der KI von den zuvor genannten Tech-Trends abhebt. Sowohl Kryptowährungen als auch NFTs sind jeweils Derivate einer durchaus nützlichen Basistechnologie – der Blockchain – die viele Goldritter durch ihre dezentralisierte Verwaltung und unkontrollierte Handelbarkeit in Versuchung geführt haben. Leider wurden beide als Instrument zur großflächigen Abzocke missbraucht. Die Machenschaften einiger Betrüger haben dadurch nicht nur ihren eigenen Ruf geschädigt, sondern den Glauben an Technologietrends im Allgemeinen erschüttert.

Im Gegensatz zu herkömmlichen Technologien beschränkt sich das Ziel von Frontier-Modellen nicht auf einen eng gefassten Teilbereich der Wirtschaft. KI ist von Natur aus in der Lage jeden Aspekt der menschlichen Produktivität – einschließlich kognitiver und motorischer Höchstleistungen – zu automatisieren.
An diesem Ziel sind wir Stand heute noch längst nicht angekommen. Allerdings werden wir ihm morgen bereits ein großes Stück nähergekommen sein. Und den Tag darauf ein weiteres Stück.

Der Zugewinn an KI-Kompetenzen beschreibt eine exponentielle Kurve, die sich durch selbstverstärkende, synergetische Entwicklung ihrer Teilgebiete begründet: Immer mehr Daten fließen in das Training immer größerer KI-Modelle unter Nutzung rapide anwachsender Rechenleistung ein. Die Trainingsalgorithmen werden immer effizienter und verwerten die gleiche Datenmenge und Rechenleistung mit steigender Effektivität. Dies hat zur Folge, dass immer mehr menschliche Fähigkeiten von KI-Modellen überflügelt werden, bis am Ende keine Disziplin mehr übrigbleibt, deren Spitzenleistung wir uns ans Revers heften dürfen.
Neben den immensen Investitionen in KI und ihrer unvergleichlich schnellen Implementation (ChatGPT ist die Anwendung mit dem größten User-Wachstum; 92 Prozent der Fortune 500 Unternehmen nutzen bereits generative KI) darf man eines nicht vergessen: Die Raktenwissenschaftler von heute sind in der KI-Spitzenforschung zu finden. Sie alle folgen, neben den astronomischen Gehältern, vor allem der Aussicht, sich einen Platz in den Geschichtsbüchern zu sichern. In kaum einem anderen Forschungsgebiet ist die Dichte an Visionären und Universalgenies so hoch, wie hier. Sie alle sind Getriebene, die die Bedeutsamkeit ihrer Forschungsdisziplin verstanden haben. AGI ist die letzte Erfindung, die wir Menschen jemals machen werden müssen, ja werden können.


Die Zukunft ist vorgezeichnet – Machen wir das Beste daraus

Dem granularen Fortschrittsmechanismus der wissenschaftlichen Methode ist es zu verdanken, dass wir (von apokalyptischen Ereignissen einmal abgesehen) eine klar vorgezeichneten Weg beschreiten:

Fortschreitende Automatisierung der Wertschöpfungskette ==> AGI ==> ASI.

Über den Zeitraum dieser Entwicklung kann man sich streiten. Über die Zwischenstationen und den Endpunkt hingegen - meiner Meinung nach - nicht.

Zum Schluss lässt sich konstatieren: Frontier-Modelle wie GPT-4 übertreffen einen durchschnittlichen Menschen schon heute in vielerlei Hinsicht. Von AGI kann man zum derzeitigen Stand der Technik zwar noch nicht sprechen. Es werden noch einige Durchbrüche nötig sein, bis dieser Meilenstein erreicht ist. Multimodalität, also die Fähigkeit mit unterschiedlichen Inputs und Outputs (Text, Bild, Video, Audio etc.) umgehen zu können, ist mit Sicherheit ein wichtiger Bestandteil der Weiterentwicklung und wird bereits mit Hochdruck vorangetrieben (z.B. Gemini von Google).

2024 wird jedoch das erste Jahr sein, in welchem es sich lohnt, aufmerksam nach ersten Anzeichen von AGI Ausschau zu halten. Ihre Auswirkungen werden wir nämlich alle zu spüren bekommen. Entweder durch rapiden wissenschaftlichen und technologischen Fortschritt und eine globale Überflussgesellschaft, oder in Form schwerwiegender sozialer Verwerfungen, falls es nicht gelingen sollte, die zunehmend automatisierte Wertschöpfung gerecht zu verteilen.

Man kann nur hoffen, dass die Politik sich dieser Tatsache bewusst ist. Denn Aussagen wie die von SPD-Arbeitsminister Hubertus Heil, dass spätestens 2035 kein Arbeitsplatz ohne KI-Anwendungen mehr existieren wird, sind derart konservativ, dass sie meiner Meinung nach das Prädikat „Haltlos“ verdienen.
Wobei, mit einer kleinen Modifikation kann man seine Prognose durchaus noch retten: „2035 wird ein großer Teil der heutigen Arbeitsplätze nicht mehr existieren“
Wem diese Aussage zu radikal erscheint, der sei herzlich dazu eingeladen, sich in gut zehn Jahren bei mir zu melden und mir die hier niedergeschriebenen Worte um die Ohren zu hauen.

Zusammenfassung:

  • Investitionen in KI-Hardware und KI-Toptalente werden weiter steigen
  • KI-Toptalente werden zu den Gehältern von Spitzensportlern aufschließen
  • Sukzessive Implementation von maßgeschneiderten KI-Applikationen in die Wertschöpfungskette
  • Erste Arbeitsplätze werden wegrationalisiert, Arbeitslast wird auf weniger Schultern von KI-augmentierten Leistungsträgern verteilt werden
  • Mindestens ein Paradigmenwechsel im Bereich KI-Training, -Modellarchitektur und -Hardware ist zu erwarten
  • Frontier-Modelle werden zunehmend multimodaler
  • Neue emergente Fähigkeiten der Frontier-Modelle werden auftreten (Logik, Welt-Modell etc.)
  • Energieeffizienz von KI-Training und Inferenz sowie die Verlässlichkeit der Outputs werden steigen
  • Eine Vielzahl neuer Gesetze werden weltweit auf den Weg gebracht, erste Bemühungen zur Formierung einer internationalen KI-Governance-Struktur werden unternommen