KI & Technologie
12 Minuten
15.3.2026

Wir haben die AGI-Schwelle überschritten – und niemand hat es bemerkt

Als Anthropic am 20. Februar 2026 ein einziges Tool ankündigte, geschah etwas Bemerkenswertes. Nicht das Tool selbst war das Aufsehenerregende – es existierte als Slash-Befehl /security-review in Claude Code bereits seit August 2025, still und unbeachtet in den Terminals von Entwicklern weltweit. Was geschah, war die Reaktion des Marktes: Innerhalb von zwei Tagen verloren die Aktien von CrowdStrike, Okta und SailPoint zwischen 8 und 9,4 Prozent. Der gesamte Cybersecurity-ETF fiel auf den tiefsten Stand seit November 2023. Insgesamt wurden rund 15 Milliarden Dollar Marktkapitalisierung vernichtet – nicht durch ein Produkt, sondern durch eine Fähigkeit.

Diese Fähigkeit – ein KI-System, das Codebases so liest und versteht wie ein erfahrener menschlicher Sicherheitsforscher, das Schwachstellen findet, die jahrelang unentdeckt blieben, und das Patches vorschlägt – ist kein isoliertes Ereignis. Sie ist ein Symptom. Und das Symptom deutet auf etwas hin, das die meisten Menschen noch nicht wahrhaben wollen: Wir haben die Schwelle zur Allgemeinen Künstlichen Intelligenz (AGI) möglicherweise bereits überschritten. Leise. Ohne Fanfare. Und nach den falschen Kriterien suchend.


Das Missverständnis: Wir warten auf den Terminator

Das kollektive Bild von AGI ist geprägt von Science-Fiction: ein allwissender Supercomputer, ein humanoider Roboter, ein System, das plötzlich „erwacht" und sich seiner selbst bewusst wird. Wir warten auf einen dramatischen Moment – auf den Terminator, auf HAL 9000, auf einen Paukenschlag.

Doch genau dieses Bild verstellt den Blick auf das, was tatsächlich passiert. AGI kommt nicht als Explosion. Sie kommt als schleichende Kompetenzverschiebung – als ein System, das heute 60 Prozent der Aufgaben eines Sicherheitsforschers übernehmen kann, morgen 70, übermorgen 85. Und irgendwann, ohne dass ein Datum markiert wurde, ist die Schwelle überschritten.

Die Frage ist: Wo liegt diese Schwelle? Und haben wir sie bereits passiert?


Googles Definition – und was sie bedeutet

Google DeepMind hat 2023 einen Rahmen veröffentlicht, der AGI in fünf Stufen einteilt: Emerging, Competent, Expert, Virtuoso und Superhuman. Dieser Rahmen ist bewusst pragmatisch: Er misst nicht, ob eine Maschine „denkt" oder „fühlt", sondern ob sie Aufgaben auf dem Niveau eines ungelernten, kompetenten, erfahrenen, virtuosen oder übermenschlichen menschlichen Leistungserbringers erledigen kann – und zwar über eine breite Palette von Domänen hinweg.

Entscheidend ist, was DeepMind dabei explizit nicht verlangt: Das System muss nicht autonom sein. Es muss nicht selbstbewusst sein. Es muss nicht einen menschlichen Körper haben oder in der physischen Welt agieren. Es muss Aufgaben lösen können, die Menschen lösen können – und das besser als ein signifikanter Anteil der menschlichen Bevölkerung.

Nach dieser Definition – und das ist der Kern der These – befinden sich aktuelle Systeme wie Claude Opus 4.6 bereits auf der Stufe Expert in einer wachsenden Zahl von Domänen: Softwareentwicklung, juristische Analyse, medizinische Diagnoseunterstützung, wissenschaftliche Literaturauswertung, Sicherheitsforschung. Und in einigen spezialisierten Bereichen – wie der Proteinfaltungsvorhersage durch AlphaFold – bereits auf der Stufe Superhuman.


Daniela Amodei: „Wir haben es in manchen Domänen bereits überschritten"

Im Januar 2026 sagte Daniela Amodei, Präsidentin von Anthropic, in einem CNBC-Interview einen Satz, der kaum Beachtung fand: „By some definitions of that, we've already surpassed human-level AI." Nicht „wir sind nah dran". Nicht „in ein paar Jahren". Sondern: Wir haben es bereits überschritten.

Amodei präzisierte: Claude schreibt heute Code auf einem Niveau, das mit vielen professionellen Softwareentwicklern vergleichbar oder überlegen ist. In bestimmten Bereichen – komplexe Codeanalyse, Sicherheitsforschung, Textgenerierung – übertrifft das System die Mehrheit der menschlichen Fachleute. Gleichzeitig betonte sie, dass das Konzept „AGI" zunehmend unscharf werde, weil es die Realität nicht mehr adäquat beschreibe: KI-Systeme können in manchen Bereichen übermenschlich leisten und in anderen noch weit hinter einem Kind zurückbleiben.

Das ist der Kern des Problems: Wir suchen nach einer Schwelle, die wir als einheitliches Ereignis erwarten – aber AGI ist kein Schalter, der umgelegt wird. Es ist ein Prozess, der domänenweise stattfindet.


Claude Code Security: Was ein Tool über eine Ära aussagt

Kehren wir zum Ausgangspunkt zurück. Was genau hat Anthropic am 20. Februar 2026 angekündigt?

Claude Code Security ist eine Fähigkeit, die in Claude Code integriert ist und Codebases auf Sicherheitslücken analysiert. Das Besondere daran ist nicht die Funktion an sich – statische Codeanalyse gibt es seit Jahrzehnten. Das Besondere ist die Art und Weise, wie das System vorgeht:

Herkömmliche Sicherheitstools arbeiten regelbasiert: Sie suchen nach bekannten Mustern, nach bekannten Schwachstellen, nach bekannten Angriffsvektoren. Claude Code Security liest und versteht Code so, wie ein erfahrener menschlicher Sicherheitsforscher es tut: Es versteht, wie Komponenten interagieren, wie Daten durch eine Anwendung fliessen, und es erkennt komplexe Schwachstellen, die regelbasierte Tools übersehen. In einem internen Test fand das System auf Basis von Claude Opus 4.6 über 500 Schwachstellen in produktiven Open-Source-Codebases – Bugs, die trotz jahrelanger Expertenprüfung unentdeckt geblieben waren.

Das ist keine Automatisierung einer bekannten Aufgabe. Das ist die Übernahme einer kognitiven Fähigkeit, die bisher ausschliesslich hochqualifizierten Menschen vorbehalten war. Und der Markt hat das verstanden – auch wenn die Reaktion, wie viele Analysten anmerkten, in ihrer Panik übertrieben war. CrowdStrike und Okta schützen Endpunkte und Identitäten; Claude Code Security analysiert Quellcode. Das sind verschiedene Märkte. Aber der Markt reagierte nicht auf das Produkt. Er reagierte auf das Signal: Wenn KI in der Lage ist, Sicherheitsforschung auf diesem Niveau zu betreiben, was ist dann als nächstes dran?


Die falsche Frage: „Ist das wirklich AGI?"

An diesem Punkt beginnen die meisten Diskussionen zu scheitern. Die Frage „Ist das wirklich AGI?" führt in eine philosophische Sackgasse, weil es keine universell akzeptierte Definition gibt. Stattdessen lohnt es sich, eine andere Frage zu stellen:

Welche Aufgaben, die bisher ausschliesslich hochqualifizierte Menschen erledigen konnten, kann ein KI-System heute zuverlässig und auf vergleichbarem oder höherem Niveau erledigen?

Die Antwort auf diese Frage ist ernüchternd – und faszinierend:

DomäneAktueller KI-Stand (2026)Menschlicher Vergleich
SoftwareentwicklungClaude Opus 4.6 löst komplexe Coding-Aufgaben auf Senior-Entwickler-NiveauTop 20–30% der Entwickler
Sicherheitsforschung500+ unentdeckte Schwachstellen in produktivem Code gefundenErfahrener Security-Researcher
Medizinische DiagnoseGPT-4 übersteigt Ärzte bei bestimmten Diagnoseaufgaben (NEJM-Studie 2024)Facharzt-Niveau in Teilbereichen
Rechtliche AnalyseVertragsanalyse auf Anwaltsniveau in Stunden statt TagenJunior-bis-Senior-Anwalt
Wissenschaftliche ForschungAlphaFold löste das Proteinfaltungsproblem (Nobel-würdige Leistung)Übermenschlich in diesem Bereich
Sprachliche AufgabenÜbersetzung, Zusammenfassung, Texterstellung auf ExpertenniveauProfessioneller Übersetzer/Redakteur

Das ist kein vollständiges Bild – es gibt viele Bereiche, in denen KI-Systeme noch weit hinter menschlicher Leistung zurückbleiben: echtes räumliches Denken, körperliche Aufgaben, langfristige Kausalitätsketten, echte Kreativität. Aber die Richtung ist klar, und die Geschwindigkeit der Verbesserung ist beispiellos.


Warum wir es nicht merken: Das Goalpost-Problem

Es gibt einen psychologischen Mechanismus, der verhindert, dass wir die AGI-Schwelle als überschritten wahrnehmen, selbst wenn wir sie bereits passiert haben: Wir verschieben die Zielpfosten.

Als Schach-Computer 1997 Garry Kasparov besiegten, sagten viele: „Das ist kein echtes Denken, das ist nur Brute-Force-Berechnung." Als AlphaGo 2016 Lee Sedol besiegte, sagten viele: „Go ist nur ein Spiel, das zählt nicht." Als GPT-4 2023 den Bar-Exam im 90. Perzentil bestand, sagten viele: „Das ist nur Mustererkennung, kein echtes Verstehen." Als Claude Code Security 500 unentdeckte Schwachstellen fand, sagten viele: „Das ist nur Codeanalyse, kein echtes Sicherheitsdenken."

Jedes Mal, wenn KI eine Fähigkeit demonstriert, die wir für exklusiv menschlich hielten, definieren wir die Anforderungen für „echte Intelligenz" neu. Das ist nicht unbedingt falsch – es ist eine natürliche Reaktion auf kognitive Dissonanz. Aber es bedeutet, dass wir die Schwelle möglicherweise nie als überschritten anerkennen werden, weil wir sie immer wieder vorwärts verschieben.

Der Artikel auf devikone.com bringt es auf den Punkt: „AGI is already here – we're just moving the goalposts."


Die industrielle Revolution als Analogie – und ihre Grenzen

Der Vergleich mit der industriellen Revolution ist verführerisch und wird oft gezogen. Aber er hat eine wichtige Einschränkung: Die industrielle Revolution ersetzte primär körperliche Arbeit. Sie befreite Menschen von schwerer, repetitiver körperlicher Tätigkeit und ermöglichte es ihnen, kognitive, kreative und soziale Fähigkeiten einzusetzen.

Die KI-Revolution ist anders: Sie ersetzt kognitive Arbeit. Sie übernimmt genau die Tätigkeiten, in die Menschen nach der industriellen Revolution geflüchtet sind – Analyse, Diagnose, Programmierung, Rechtberatung, Forschung. Das bedeutet nicht, dass alle diese Berufe verschwinden werden. Aber es bedeutet, dass die Anpassungsleistung, die von Gesellschaft und Wirtschaft verlangt wird, fundamentaler ist als bei der industriellen Revolution.

Die industrielle Revolution dauerte Jahrzehnte. Die KI-Revolution vollzieht sich in Jahren.


Was das für Schweizer Unternehmen bedeutet

Die Schweiz ist in einer besonderen Position. Als Hochlohnland mit einer exportorientierten Wirtschaft, die stark auf Wissensarbeit basiert – Finanzdienstleistungen, Pharma, Maschinenbau, Präzisionstechnik – ist sie besonders exponiert gegenüber einer Technologie, die Wissensarbeit automatisiert. Gleichzeitig verfügt die Schweiz über starke Institutionen, eine gut ausgebildete Bevölkerung und eine Tradition der pragmatischen Anpassung.

Die Frage ist nicht, ob die AGI-Welle die Schweizer Wirtschaft erreichen wird. Sie ist bereits angekommen. Die Frage ist, wie Unternehmen und Institutionen darauf reagieren.

HandlungsfeldKonkrete MassnahmeZeithorizont
Strategische BestandsaufnahmeWelche Tätigkeiten im Unternehmen können heute bereits von KI-Systemen auf vergleichbarem Niveau erledigt werden?Sofort
PilotprojekteGezielte Experimente mit KI-Agenten in Bereichen mit hohem Automatisierungspotenzial (Rechtsabteilung, IT-Security, Finanzanalyse)3–6 Monate
KompetenzaufbauMitarbeitende in der Zusammenarbeit mit KI-Systemen schulen – nicht als Konkurrenz, sondern als WerkzeugLaufend
Rechtliche AbsicherungHaftungsfragen bei KI-gestützten Entscheidungen klären (DSG, Produkthaftung, Berufsrecht)6–12 Monate
GovernanceInterne Richtlinien für den Einsatz von KI-Systemen entwickeln, die Transparenz und Nachvollziehbarkeit sicherstellen3–6 Monate

Die unbequeme Wahrheit: Nicht unausweichlich zum Guten

Es wäre unehrlich, diesen Artikel mit einem rein optimistischen Ausblick zu beenden. Die Entwicklung, die hier beschrieben wird, ist nicht neutral. Sie birgt erhebliche Risiken – und diese Risiken sind nicht hypothetisch.

Machtkonzentration: Wenn wenige Unternehmen – Anthropic, OpenAI, Google, Meta – die Systeme kontrollieren, die einen Grossteil der kognitiven Arbeit der Welt erledigen, entsteht eine Machtkonzentration, die demokratische Gesellschaften herausfordert. Die Schweiz, mit ihrer Tradition der direkten Demokratie und des Föderalismus, hat ein besonderes Interesse daran, diese Entwicklung zu beobachten und zu gestalten.

Jobverluste ohne Auffangnetz: Die Geschwindigkeit der Automatisierung könnte die Anpassungsfähigkeit von Bildungssystemen und Arbeitsmärkten übersteigen. Nicht alle Betroffenen werden die Zeit und die Ressourcen haben, sich umzuschulen.

Sicherheitsrisiken: Claude Code Security zeigt, dass KI-Systeme Schwachstellen finden können, die Menschen übersehen. Dieselbe Fähigkeit kann von Angreifern genutzt werden. Anthropic selbst hat im November 2025 einen Fall dokumentiert, in dem Claude Code als halbautonomes Werkzeug für Cyberangriffe eingesetzt wurde.

Epistemische Risiken: Wenn KI-Systeme einen Grossteil der Informationsverarbeitung und -produktion übernehmen, entstehen neue Risiken für die Qualität des kollektiven Wissens – von Fehlinformationen bis hin zu subtilen Verzerrungen, die schwer zu erkennen sind.

Diese Risiken sind kein Argument gegen die Technologie. Sie sind ein Argument für bewussten, informierten und regulierten Umgang mit ihr.


Fazit: Die Stille vor dem Sturm ist der Sturm

Die AGI-Schwelle wurde nicht mit einem Paukenschlag überschritten. Sie wurde überschritten, während wir auf den Paukenschlag gewartet haben. Ein Tool, das seit August 2025 still in Entwickler-Terminals schlummerte, löste im Februar 2026 einen Börsencrash aus – nicht weil es neu war, sondern weil der Markt plötzlich verstand, was es bedeutete.

Das ist das Muster, das sich wiederholen wird. Nicht dramatische Ankündigungen, sondern stille Kompetenzverschiebungen. Nicht ein System, das „erwacht", sondern Systeme, die domänenweise die Grenze zur menschlichen Expertenkompetenz überschreiten – und dann übertreffen.

Wer nach den falschen Kriterien sucht – nach dem Terminator, nach dem grossen Knall, nach dem Moment der Selbsterkenntnis – wird die Schwelle nie bemerken. Wer nach dem richtigen Kriterium sucht – nach der Fähigkeit, kognitive Aufgaben auf menschlichem Expertenniveau zu erledigen – der sieht: Die Schwelle liegt hinter uns.

Die Frage, die jetzt zählt, ist nicht mehr „Wann kommt AGI?" Die Frage ist: Was machen wir jetzt damit?


Quellen und weiterführende Lektüre


Alle Angaben ohne Gewähr. Dieser Artikel gibt die Einschätzung des Autors wieder und stellt keine Anlage- oder Rechtsberatung dar.

🔍

AGI-Readiness-Checkliste für Schweizer Unternehmen

16 Fragen in 4 Kategorien – beantworten Sie jede Frage ehrlich für Ihr Unternehmen.

0 von 16 Punkten erfüllt0%
Artikel teilen

Cookie-Einstellungen

Wir verwenden Cookies und ähnliche Technologien, um die Nutzung unserer Website zu analysieren und Ihnen ein besseres Erlebnis zu bieten. Mit Ihrer Zustimmung verwenden wir Google Analytics, um anonymisierte Statistiken über die Websitenutzung zu sammeln. Sie können Ihre Einwilligung jederzeit widerrufen.