C
KI3 min Lesezeit

Pentagon stuft Anthropic als Sicherheitsrisiko ein – Militäraufträge gestoppt

Verteidigungsminister Pete Hegseth hat das Pentagon angewiesen, Anthropic als Lieferkettenrisiko einzustufen. Militärauftragnehmer dürfen nicht mehr mit dem KI-Unternehmen zusammenarbeiten.

CA
Christopher Ackermann27. Februar 2026

Wie Techmeme berichtet, hat US-Verteidigungsminister Pete Hegseth das Pentagon angewiesen, das KI-Unternehmen Anthropic offiziell als Lieferkettenrisiko einzustufen. Diese weitreichende Entscheidung verbietet Militärauftragnehmern künftig jegliche Geschäftsbeziehungen mit dem Hersteller der Claude-KI. Der Schritt markiert eine dramatische Eskalation im Umgang der US-Regierung mit Sicherheitsfragen im Bereich künstlicher Intelligenz.

Sicherheitsbedenken oder politische Kalkulation?

Die Direktive, die Hegseth persönlich unterzeichnet haben soll, zielt explizit auf Anthropics Rolle in der Lieferkette des Verteidigungsministeriums ab. Das Unternehmen, das durch seine Claude-Chatbots und Großsprachmodelle bekannt wurde, geriet zuletzt verstärkt ins Visier von Sicherheitskritikern. Besonders die enge Partnerschaft mit Amazon, die Milliarden in Anthropic investiert hat, sorgt für Unruhe in Washington. Kritiker befürchten, dass ausländische Akteure indirekt Einfluss auf sensible KI-Technologien nehmen könnten, die im militärischen Bereich zum Einsatz kommen.

Anthropic gilt als wichtiger Konkurrent von OpenAI und hat sich mit seinem Fokus auf KI-Sicherheit und vertrauenswürdige künstliche Intelligenz einen Namen gemacht. Doch genau diese Positionierung macht das Unternehmen für das Pentagon offenbar verdächtig. Die Entscheidung folgt einem Muster, das bereits bei anderen Tech-Unternehmen zu beobachten war: Wer nicht absolut transparent über seine Investorenstruktur und Hardware-Lieferanten Auskunft gibt, riskiert den Ausschluss von sensiblen Regierungsaufträgen.

Auswirkungen auf die Rüstungsindustrie

Für Militärauftragnehmer bedeutet die neue Regelung einen sofortigen Handlungszwang. Unternehmen wie Lockheed Martin, Raytheon oder Northrop Grumman müssen nun prüfen, ob sie Anthropic-Technologien in ihren Systemen einsetzen – sei es für Datenanalyse, Logistik oder Cybersicherheit. Die Trennung wird komplex und teuer, da viele Defense-Contractors bereits Cloud-basierte KI-Services von Anthropic oder dessen Partnern nutzen.

Die Branche reagiert verhalten bis besorgt. Während einige Verteidigungsanalysten die Entscheidung als notwendigen Schutz kritischer Infrastruktur begrüßen, warnen andere vor einem gefährlichen Präzedenzfall. Wenn das Pentagon beginnt, führende KI-Unternehmen pauschal als Sicherheitsrisiken einzustufen, könnte dies die gesamte amerikanische KI-Landschaft destabilisieren. Besonders kleinere Defense-Startups, die auf Anthropic-APIs setzen, stehen nun vor existenziellen Problemen.

Geopolitische Dimension

Die Maßnahme ist nicht nur technisch, sondern auch politisch motiviert. Hegseth, der für eine harte Haltung gegenüber China bekannt ist, scheint die KI-Branche als neuen Schauplatz des Technologiekrieges zu betrachten. Anthropic steht dabei stellvertretend für eine Generation von KI-Unternehmen, die zwischen kommerziellen Interessen und nationalen Sicherheitsinteressen hin- und hergerissen sind.

Interessant ist der Kontrast zu OpenAI, das trotz ähnlicher Investorenstrukturen und ausländischer Kapitalbeteiligung bisher von vergleichbaren Maßnahmen verschont blieb. Beobachter vermuten hinter der selektiven Verhängung politische Rücksichtnahmen oder spezifische Geheimdienstinformationen über Anthropics Sicherheitspraktiken, die der Öffentlichkeit nicht zugänglich sind.

Fazit

Die Einordnung von Anthropic als Lieferkettenrisiko durch das Pentagon markiert einen Wendepunkt in der Regulierung künstlicher Intelligenz. Während Sicherheitsexperten die Vorsicht gegenüber ausländischen Einflüssen in kritischen Technologien begrüßen, fürchten Unternehmen eine Fragmentierung des KI-Marktes. Die Entscheidung zwingt Militärauftragnehmer zur sofortigen Überprüfung ihrer Software-Stacks und könnte weitreichende Folgen für die gesamte Cloud-KI-Branche haben. Ob Anthropic den Ausschluss juristisch bekämpfen wird, bleibt abzuwarten – die Chancen auf Erfolg vor US-Verwaltungsgerichten stehen angesichts der nationalen Sicherheitsargumentation jedoch schlecht.

Quelle: Techmeme

QUELLEN
TechmemeOriginalquelle
Techmeme
Pro-Feature

Melde dich an und werde Pro-Mitglied, um dieses Feature zu nutzen.

Anmelden
CA
Christopher Ackermann

Kommentare

WEITERLESEN
KI

Copilot Task: Microsofts autonomer Agent für Windows 11 startet in die Forschungsvorschau

3 min Lesezeit
KI

OpenAI übernimmt Pentagon-Vertrag: Das Ende der ethischen KI-Reserve im Militär

5 min Lesezeit
KI

Sam Altman warnt: DOD-Blacklisting von Anthropic setzt gefährlichen Präzedenzfall

4 min Lesezeit