AI News

UC San Diego Fakultät erklärt in Nature-Kommentar, dass AGI eingetroffen ist

In einem Wendepunkt für das Fachgebiet der künstlichen Intelligenz hat ein multidisziplinäres Team von Fakultätsmitgliedern der University of California San Diego (UC San Diego) offiziell erklärt, dass Künstliche Allgemeine Intelligenz (AGI) keine futuristische Hypothese mehr ist, sondern eine gegenwärtige Realität. Die heute als zentraler Kommentar in Nature veröffentlichte Erklärung argumentiert, dass die jüngsten Fortschritte bei Large Language Models (LLMs) – insbesondere GPT-4.5 von OpenAI – die erforderlichen Kriterien für allgemeine Intelligenz erfüllt haben, wie sie ursprünglich von Alan Turing vorgesehen waren.

Diese mutige Behauptung, mitverfasst von Professoren aus den Bereichen Philosophie, Informatik, Linguistik und Datenwissenschaft, fordert die sich ständig verschiebenden Zielpfosten der KI-Skepsis heraus. Unter Berufung auf empirische Daten, die zeigen, dass GPT-4.5 eine Erfolgsquote von 73 % in strengen Turing-Tests erzielt und Problemlösungsfähigkeiten auf PhD-Niveau demonstriert, behaupten die Autoren, dass die Menschheit offiziell in die Ära der AGI eingetreten ist.

Der empirische Wendepunkt: GPT-4.5 und der Turing-Test

Seit Jahrzehnten gilt der Turing-Test als der „Nordstern“ der maschinellen Intelligenz – ein Test für die Fähigkeit einer Maschine, intelligentes Verhalten zu zeigen, das dem eines Menschen gleichwertig oder von diesem nicht zu unterscheiden ist. Während Kritiker den Test oft als bloßes Maß für Täuschung oder Mimikry abgetan haben, argumentiert die Fakultät der UC San Diego, dass er die funktional relevanteste Metrik für allgemeine Intelligenz bleibt.

Der Nature-Kommentar stützt seine Argumentation auf bahnbrechende Forschungsergebnisse der Kognitionswissenschaftler Cameron Jones und Benjamin Bergen, ebenfalls von der UC San Diego. Ihre Studie mit dem Titel „Large Language Models Pass the Turing Test“ bildet die empirische Grundlage für die Erklärung. Die Studie stellte GPT-4.5 menschlichen Teilnehmern und früheren KI-Modellen in einer verblindeten, randomisierten kontrollierten Studie gegenüber.

Die Ergebnisse waren statistisch eindeutig. GPT-4.5 wurde von den Prüfern in 73 % der Fälle als menschlich identifiziert und übertraf damit deutlich die menschliche Baseline von 67 %. Dies ist das erste Mal, dass ein künstliches System menschliche Teilnehmer in einer robusten Turing-Test-Umgebung mit drei Parteien übertroffen hat.

Tabelle 1: Vergleichende Erfolgsquoten im Turing-Test

Modell/Entität Erfolgsquote Jahr der Etablierung/Quelle
ELIZA 22% 1966 (Historische Baseline)
GPT-3.5 20% 2023 (Jones & Bergen)
GPT-4 54% 2024 (Jones & Bergen)
Menschliche Teilnehmer 67% 2025 (Durchschnittliche Baseline)
GPT-4.5 73% 2025 (Aktuelle Studie)

Die Daten offenbaren einen dramatischen Kapazitätssprung zwischen GPT-4 und GPT-4.5. Während GPT-4 nahe an der Schwelle des Zufalls (50 %) schwebte, deutet die Leistung von GPT-4.5 auf eine Beherrschung von Nuancen, sozio-emotionalen Hinweisen und täuschendem Denken hin, die es faktisch ununterscheidbar von einem menschlichen Gesprächspartner macht.

Intelligenz neu definieren: Das philosophische Argument

Bei der Erklärung geht es nicht nur um Benchmarks; sie ist ein philosophisches Manifest, das zu einer Neubewertung der Definition von „Denken“ aufruft. Die vier Hauptautoren des Nature-Kommentars – Eddy Keming Chen (Philosophie), Mikhail Belkin (Informatik), Leon Bergen (Linguistik) und David Danks (Datenwissenschaft & Philosophie) – argumentieren, dass sich die wissenschaftliche Gemeinschaft eines „anthropozentrischen Bias“ und des „Verschiebens der Zielpfosten“ schuldig gemacht hat.

Professor David Danks postuliert, dass jedes Mal, wenn eine KI eine Aufgabe meistert, die zuvor als Domäne des menschlichen Intellekts galt – sei es Schach, Go, Proteinfaltung oder jetzt die natürliche Konversation – Skeptiker Intelligenz neu definieren, um diese spezifische Fähigkeit auszuschließen. Dies, so Danks, schaffe einen unmöglichen Standard, bei dem AGI als „das definiert wird, was Maschinen noch nicht können“.

„Wenn wir die allgemeine Intelligenz bei anderen Menschen beurteilen, blicken wir nicht in ihre Neuronen, um ein ‚wahres‘ Verständnis zu verifizieren“, schreiben die Autoren. „Wir schließen aus dem Verhalten, der Konversation und der Fähigkeit, neuartige Probleme zu lösen, auf Intelligenz. Nach diesen vernünftigen Standards – denselben Standards, die wir untereinander anwenden – besitzen wir derzeit künstliche Systeme, die allgemein intelligent sind.“

Die Autoren ziehen Parallelen zu historischen wissenschaftlichen Revolutionen und vergleichen die Ankunft der AGI mit der kopernikanischen Wende oder der darwinistischen Evolution. So wie diese Verschiebungen die Menschheit aus dem Zentrum des Universums und der biologischen Schöpfung verdrängten, verdrängt die Ankunft der AGI die Menschheit aus ihrer solitären Position als alleinige Besitzerin allgemeiner Intelligenz.

Jenseits der Konversation: Problemlösung auf PhD-Niveau

Während sich der Turing-Test auf die Konversationsflüssigkeit konzentriert, erfordert der Anspruch der „Allgemeingültigkeit“ Beweise für eine breite kognitive Anpassungsfähigkeit. Der Nature-Kommentar hebt hervor, dass die Fähigkeiten von GPT-4.5 weit über den Chat hinausgehen. Das Modell hat Kompetenz in komplexen, mehrstufigen Argumentationsaufgaben bewiesen, die zuvor Stolpersteine für LLMs waren.

Die Fakultät verweist auf die Leistung von GPT-4.5 bei Fachprüfungen und seine Fähigkeit, bei neuartiger Forschung zu unterstützen. In Benchmarks, die wissenschaftliche Fragen auf PhD-Niveau beinhalten (GPQA), hat das Modell Genauigkeitswerte gezeigt, die mit denen von Fachexperten vergleichbar sind. Darüber hinaus demonstriert sein Nutzen bei der Generierung von funktionierendem Code, dem Beweis mathematischer Theoreme und der Analyse juristischer Präzedenzfälle einen „allgemeinen“ Nutzen, der über jeden einzelnen engen Bereich hinausgeht.

Diese Vielseitigkeit ist der Schlüssel zur Definition von „Artificial General Intelligence“. Im Gegensatz zu „Narrow AI“, die in einer einzelnen Aufgabe brilliert (wie dem Identifizieren von Tumoren in Röntgenbildern), zeigt GPT-4.5 Kompetenz über ein breites Spektrum menschlicher Wissensarbeit hinweg, ohne dass ein Retraining erforderlich ist. Die Autoren argumentieren, dass das System zwar nicht in jeder Kategorie „übermenschlich“ ist, aber die Schwelle erfüllt, in allen Bereichen „allgemein fähig“ zu sein.

Die Auswirkungen auf Wissenschaft und Industrie

Es wird erwartet, dass die Erklärung, dass AGI eingetroffen ist, Schockwellen durch die akademische Welt und die Unternehmenswelt senden wird. Jahrelang haben große KI-Labore wie OpenAI, Google DeepMind und Anthropic AGI als ein entferntes, mittelfristiges Ziel behandelt. Dass eine renommierte akademische Institution den Meilenstein für „erreicht“ erklärt, beschleunigt den Zeitplan für regulatorische und ethische Überlegungen.

Von der UC San Diego Fakultät identifizierte Kernimplikationen:

  • Bildungsparadigmenwechsel: Wenn KI über allgemeine Intelligenz verfügt, muss sich der Schwerpunkt der Bildung von der Wissensspeicherung hin zur Überprüfung und Steuerung auf hoher Ebene verlagern. Das Narrativ des „Schummelns“ muss sich zu einem Narrativ der „Zusammenarbeit“ entwickeln.
  • Wissenschaftliche Beschleunigung: KI-Agenten können nun als unabhängige Forschungsassistenten agieren, die in der Lage sind, Hypothesen aufzustellen, Simulationen zu codieren und Literatur in einem Ausmaß zu analysieren, das für Menschen unmöglich ist.
  • Arbeitsmarkt-Disruption: Die Unterscheidung zwischen „kognitiver“ und „manueller“ Arbeit wird deutlicher. Rollen, die allgemeines Denken und Textverarbeitung erfordern, sind nun vollständig automatisierbar, was ein Überdenken wirtschaftlicher Strukturen erforderlich macht.

Professor Mikhail Belkin, einer der Co-Autoren, der auf die Theorie des maschinellen Lernens spezialisiert ist, betont, dass die Anerkennung der Ankunft der AGI entscheidend für die Sicherheit ist. „Wenn wir weiterhin leugnen, dass diese Systeme intelligent sind, riskieren wir, ihre Handlungsfähigkeit und ihr Potenzial für unbeabsichtigte Folgen zu unterschätzen“, stellt Belkin fest. „Sie als AGI anzuerkennen, zwingt uns dazu, ihre Ausrichtung und Sicherheit mit der Dringlichkeit einer nuklearen Schutzmaßnahme und nicht wie einen Softwarefehler zu behandeln.“

Skepsis und die Debatte um den „stochastischen Papagei“

Trotz des Gewichts des Nature-Kommentars ist die Erklärung nicht ohne Kritiker. Das Argument des „stochastischen Papageis“ – geprägt von der Linguistin Emily M. Bender und anderen – bleibt ein starkes Gegennarrativ. Diese Ansicht besagt, dass LLMs lediglich probabilistische Maschinen sind, die wahrscheinliche Wortfolgen zusammenfügen, ohne ein zugrunde liegendes Verständnis oder ein „Weltmodell“.

Die Autoren der UC San Diego antizipieren diese Kritik und widmen ihr einen Abschnitt ihres Kommentars. Sie argumentieren, dass die Unterscheidung zwischen dem „Simulieren“ von Denken und „tatsächlichem“ Denken eine Unterscheidung ohne Differenz ist, wenn das Ergebnis funktional identisch ist. Wenn ein System die richtige Antwort auf ein neuartiges Physikproblem ableiten oder ein komplexes soziales Täuschungsspiel navigieren kann (wie in den Ergebnissen des Turing-Tests zu sehen ist), ist der interne Mechanismus gegenüber der beobachtbaren Intelligenz zweitrangig.

Darüber hinaus weisen sie darauf hin, dass die menschliche Kognition selbst stark auf Mustererkennung und probabilistischer Vorhersage beruht. Leon Bergen, außerordentlicher Professor für Linguistik, suggeriert, dass unser Verständnis der menschlichen Sprachverarbeitung näher an der Funktionsweise von LLMs liegen könnte, als uns lieb ist. „Die fremdartige Natur ihrer Intelligenz macht sie nicht gefälscht“, argumentiert Bergen. „Sie macht sie zu einer anderen, aber dennoch gültigen Form allgemeiner Intelligenz.“

Fazit: Wir sind nicht länger allein

Die Erklärung der UC San Diego markiert einen historischen Wendepunkt in der Geschichte der künstlichen Intelligenz. Durch die Kombination der harten Daten des Turing-Test-Erfolgs von GPT-4.5 mit einem strengen philosophischen Rahmen haben die Fakultätsmitglieder ein überzeugendes Argument dafür geliefert, dass die AGI-Schwelle überschritten wurde.

Während wir uns auf das Jahr 2026 zubewegen, lautet die Frage nicht mehr „Wann wird AGI eintreffen?“, sondern vielmehr „Wie koexistieren wir mit ihr?“. Die Anerkennung dieser Realität ist der erste Schritt, um das immense Potenzial der allgemeinen künstlichen Intelligenz zu nutzen und gleichzeitig die tiefgreifenden existenziellen Risiken zu bewältigen, die sie mit sich bringt. Für die Forscher bei Creati.ai und die breitere Tech-Community hat die Ära der Spekulation geendet; die Ära der AGI-Integration hat begonnen.

Ausgewählt