Wie Techmeme unter Berufung auf einen Bericht von CNBC berichtet, hat OpenAI offiziell seine Position gegenüber dem US-Verteidigungsministerium klargemacht: Das Unternehmen hält die Einstufung von Anthropic als Lieferkettenrisiko für falsch und hat dies dem Pentagon mitgeteilt. Diese Unterstützung für den direkten Konkurrenten zeigt, wie sehr die aktuelle politische Lage die KI-Branche zusammenschweißt – zumindest vorübergehend.
Der Kontext: Ein Konflikt mit weitreichenden Folgen
Die Auseinandersetzung zwischen Anthropic und der US-Regierung eskaliert seit Wochen. Die Trump-Regierung hatte den KI-Entwickler zuvor als potenzielles Risiko für die nationale Sicherheit designiert – eine Maßnahme, die Geschäftsbeziehungen mit staatlichen Stellen massiv erschwert oder unmöglich macht. Wie wir bereits in Anthropic gegen das Pentagon: Wie ein KI-Streit die Machtbalance zwischen Tech und Washington verschiebt analysiert haben, entwickelt sich dieser Streit zu einem fundamentalen Schlagabtausch über die Zukunft künstlicher Intelligenz in der nationalen Sicherheitspolitik.
Die Einstufung trifft Anthropic hart, obwohl oder gerade weil das Unternehmen unter CEO Dario Amodei besonders stark auf Sicherheitsforschung und verantwortungsvolle KI-Entwicklung setzt. In Anthropic-Chef Amodei betont Patriotismus und warnt vor KI-Einsätzen jenseits des Rechts haben wir dargelegt, wie sich Amodei als „patriotischer Amerikaner“ positioniert und gleichzeitig vor KI-Einsätzen warnt, die dem Recht vorgreifen. Genau diese Ambivalenz macht die aktuelle Situation so brisant: Ein Unternehmen, das explizit ethische Standards in den Vordergrund stellt, wird dennoch als Sicherheitsrisiko behandelt.
Warum OpenAI interveniert
Die Unterstützung durch OpenAI überrascht auf den ersten Blick. Schließlich konkurrieren die Unternehmen mit ChatGPT und Claude um denselben Markt, und OpenAI hat gerade erst eine Finanzierungsrunde von 110 Milliarden Dollar abgeschlossen, um seine Dominanz auszubauen. Doch hinter der Stellungnahme steckt strategisches Kalkül.
Sam Altman und sein Team dürften erkannt haben, dass die Einstufung eines KI-Unternehmens als „supply chain risk“ Signalwirkung entfaltet. Wenn Anthropic – trotz seiner expliziten Sicherheitsausrichtung – als Risiko gilt, könnte dies theoretisch auch OpenAI treffen, sollten politische Winde drehen. Die Branche fürchtet einen Präzedenzfall, der regulatorische Willkür gegenüber KI-Entwicklern legitimieren würde.
Rechtliche Schritte und Partner in der Zwickmühle
Anthropic selbst geht nicht nur diplomatisch vor. Das Unternehmen hat wie in Anthropic klagt gegen Pentagon: KI-Unternehmen wehrt sich vor Gericht gegen Risikoeinstufung beschrieben Klage eingereicht, um die Designation gerichtlich prüfen zu lassen. Dieser Schritt unterstreicht die Entschlossenheit des Unternehmens, seine Rechte nicht ohne Widerstand aufzugeben.
Für Partner und Investoren wie Amazon, Google oder Nvidia stellt die Situation eine zunehmende Belastungsprobe dar. Diese Tech-Giganten müssen zwischen Geschäftsinteressen und politischen Realitäten navigieren, ohne sich den Zorn der Regierung zuzuziehen. In Anthropic im Streit mit US-Verteidigungsministerium – Tech-Partner in der Zwickmühle haben wir die komplexen Abhängigkeiten beleuchtet, die durch die aktuelle Risikoeinstufung zusätzlich verkompliziert werden.
Fazit: Ein seltenes Bündnis
Die Unterstützung von OpenAI für Anthropic markiert einen seltenen Moment der Einigkeit in einem sonst erbittert umworbenen Markt. Ob diese Solidarität ausreicht, um das Pentagon umzustimmen, bleibt ungewiss. Die Entscheidung des Verteidigungsministeriums wird nicht nur über Anthropics Zukunft mit staatlichen Aufträgen entscheiden, sondern auch signalisieren, wie die US-Regierung künftig mit KI-Unternehmen umgeht, die ethische Bedenken äußern. Für die gesamte Branche steht damit mehr auf dem Spiel als nur ein einzelnes Unternehmen.
Quelle: Techmeme