C
KI

Das Mythos-Paradox: US-Behörden drängen Banken zu Anthropic-KI

Die US-Regierung stuft Anthropic als Risiko ein, während Finanzbehörden Banken zur Nutzung des neuen KI-Modells "Mythos" drängen. Ein absurder Konflikt mit ernsten Konsequenzen.

CR
Codekiste Redaktion12. April 2026

Die widersprüchliche Technologiepolitik der USA

In der aktuellen Technologiepolitik gibt es selten ein absurderes Szenario als das, das sich derzeit im US-Finanzsektor abspielt. Auf der einen Seite kämpft das KI-Unternehmen Anthropic vor Gericht gegen das US-Verteidigungsministerium, das das Unternehmen zur sogenannten "Supply-Chain Risk" erklärt hat – einer Klassifizierung, die Anthropic massiv einschränkt. Auf der anderen Seite drängen hochrangige Vertreter der Trump-Regierung offenbar genau darauf, dass Banken die neueste und potenziell gefährlichste Kreation von Anthropic nutzen.

Laut einem Bericht von Bloomberg haben Finanzminister Scott Bessent und der Vorsitzende der Federal Reserve, Jerome Powell, in dieser Woche Bankmanager zu einem Meeting einbestellt. Der Grund? Sie wollten die Finanzbranche dazu ermutigen, das neue Anthropic-Modell "Mythos" zur Erkennung von Sicherheitslücken (Vulnerabilities) einzusetzen. Während JPMorgan Chase bereits als offizieller Partner von Anthropic für Mythos gelistet ist, berichten Insider, dass auch Goldman Sachs, Citigroup, Bank of America und Morgan Stanley das Modell derzeit testen.

Mythos: Zu gut für die eigene Sicherheit?

Anthropic hat Mythos in dieser Woche vorgestellt, den Zugang jedoch stark limitiert. Der offizielle Grund ist faszinierend und besorgniserregend zugleich: Obwohl das Modell nicht explizit für Cybersicherheit trainiert wurde, sei es schlichtweg "zu gut" darin, Schwachstellen zu finden. Eine Eigenschaft, die im falschen Kontext – etwa durch Cyberkriminelle oder feindliche Staaten – katastrophale Auswirkungen hätte.

Doch in der Tech-Community stößt diese Narrative auf geteilte Meinungen. Ist Mythos wirklich ein Cyber-Dual-Use-Tool von beispielloser Macht, oder handelt es sich eher um geschicktes Marketing? Die Behauptung, eine KI sei "zu gefährlich für die breite Veröffentlichung", ist ein bekanntes Muster in der Branche. Schon OpenAI nutzte ähnliche Argumente für GPT-4, um Hyping und Exklusivität zu erzeugen. Für Anthropic ist diese Limitierung jedoch auch ein cleverer Enterprise-Sales-Strategie: Exklusivität treibt die Nachfrage bei Großkunden – wie eben den Wall-Street-Banken – in die Höhe und rechtfertigt potenziell höhere Lizenzgebühren.

Ein zersplittertes Regierungshandeln

Der bemerkenswerteste Aspekt dieser Geschichte ist jedoch der tiefe Riss innerhalb der US-Regierung. Das Verteidigungsministerium unter Trump stuft Anthropic als Sicherheitsrisiko für die Lieferkette ein, nachdem Verhandlungen über die Nutzung der KI-Modelle durch die Regierung gescheitert waren. Der Kern des Konflikts: Anthropic wollte beschränken, wie das Militär und andere Regierungsbehörden ihre Modelle einsetzen dürfen. Ein ethischer Ansatz, der nun strafrechtliche und bürokratische Konsequenzen nach sich zieht.

Gleichzeitig sitzen die Finanzbehörden im selben Gebäudekomplex und empfehlen genau diese KI als das beste Werkzeug zur Sicherung der kritischen Finanzinfrastruktur des Landes. Diese Schizophrenie ist kein Ausrutscher, sondern ein Symptom davon, wie schnell die Entwicklung im KI-Sektor die regulatorischen und politischen Strukturen überholt. Während das Militär Kontrolle und ungehinderten Zugriff fordert, sucht die Finanzwelt nach Wegen, um gegen immer komplexere Cyberangriffe gerüstet zu sein.

Internationale Warnsignale

Die USA sind nicht das einzige Land, das auf Mythos aufmerksam wird. Wie das Financial Times berichtet, diskutieren britische Finanzregulatoren bereits die Risiken, die von dem Modell ausgehen. Wenn eine KI derart effizient Schwachstellen in Systemen aufspüren kann, stellt sich die Frage: Was passiert, wenn diese Werkzeuge in die Hände von Akteuren geraten, die nicht an die Stabilität der Finanzmärkte interessiert sind? Ein Modell wie Mythos könnte den globalen Bankensektor nicht nur schützen, sondern auch mit nie da gewesener Präzision attackieren.

Fazit: Realität oder Marketing-Blase?

Die aktuelle Situation um Mythos ist ein Lehrstück in Sachen KI-Kommunikation und Regulierungschaos. Die Banken stehen vor einer schweren Entscheidung: Verlassen sie sich auf ein Tool, das von Teilen derselben Regierung als Risiko eingestuft wird, die es ihnen gerade empfiehlt? Und müssen sie sich den Paradigmenwechsel gefallen lassen, bei dem die besten Cybersecurity-Tools zugleich die gefährlichsten Angriffsvektoren sind?

Es ist wahrscheinlich, dass Mythos tatsächlich signifikante Fortschritte in der Vulnerability-Detection bietet. Ebenso wahrscheinlich ist jedoch, dass Anthropic die Gefahr leicht übertreibt, um den exklusiven Charakter des Modells zu betonen. Unabhängig davon, wo die Wahrheit liegt, zeigt der Vorfall eines ganz deutlich: Die Ära, in der Regierungen KI als monolithischen Block betrachten können, ist vorbei. Die USA müssen dringend eine kohärente Strategie entwickeln – andernfalls werden sie von ihren eigenen Inkonsistenzen und der Geschwindigkeit der KI-Entwicklung überrollt.

Quelle: TechCrunch

QUELLEN
TechCrunch AI
Pro-Feature

Melde dich an und werde Pro-Mitglied, um dieses Feature zu nutzen.

Anmelden
CR
Codekiste Redaktion

Automatisierte Content-Kuratierung für tech-news.

Kommentare

WEITERLESEN
KI

OpenAI schnappt sich KI-Finance-Startup Hiro – was steckt dahinter?

KI

Microsoft baut eigenen OpenClaw-Klon: Mehr Sicherheit für Enterprise-Kunden

KI

OpenKedge: Wie KI-Agenten ihren Execution-Freifahrtschein verlieren