
Pentagon tauscht KI-Anbieter aus: OpenAI verdrängt Anthropic im Machtkampf um Amerikas Militär
Was sich in den vergangenen Tagen zwischen dem US-Verteidigungsministerium, dem Weißen Haus und den mächtigsten KI-Unternehmen der Welt abgespielt hat, liest sich wie ein Wirtschaftskrimi mit geopolitischer Sprengkraft. Am Ende steht ein klarer Gewinner: Sam Altmans OpenAI. Und ein ebenso klarer Verlierer: Anthropic, das Unternehmen, das es wagte, dem Pentagon Bedingungen zu diktieren.
Trumps Machtwort gegen „woke" Technologie
Präsident Donald Trump ließ keinen Zweifel daran, wer in den Vereinigten Staaten das Sagen hat – und wer nicht. In einem Beitrag auf Truth Social donnerte er: „WIR werden über das Schicksal unseres Landes entscheiden – NICHT irgendein außer Kontrolle geratenes, radikal linkes KI-Unternehmen." Die Botschaft war unmissverständlich. Anthropic, einst der bevorzugte KI-Partner des Pentagons und das einzige Unternehmen, dessen Systeme in der geheimen Cloud des Verteidigungsministeriums operieren durften, wurde kurzerhand vor die Tür gesetzt.
Trump ordnete an, dass sämtliche Bundesbehörden die Nutzung von Anthropic-Technologie unverzüglich einstellen müssten. Eine sechsmonatige Übergangsfrist wurde gewährt – doch die Drohung, bei mangelnder Kooperation zivil- und strafrechtliche Schritte einzuleiten, stand im Raum wie ein Damoklesschwert. Verteidigungsminister Pete Hegseth ging noch einen Schritt weiter und stufte Anthropic als „Lieferkettenrisiko für die nationale Sicherheit" ein. Kein Auftragnehmer, kein Zulieferer, kein Partner des US-Militärs dürfe fortan noch geschäftliche Beziehungen zu dem Unternehmen unterhalten.
Der Kern des Konflikts: Wer kontrolliert die Kriegsmaschine?
Was war geschehen? Anthropic-Chef Dario Amodei hatte sich geweigert, die KI-Technologie seines Unternehmens dem Pentagon ohne Einschränkungen zur Verfügung zu stellen. Seine Bedenken: Massenüberwachung im Inland und autonome Waffensysteme. Hegseth hatte dem Unternehmen eine Frist bis Freitagabend gesetzt, den Chatbot Claude ohne Restriktionen freizugeben – innerhalb der gesetzlichen Grenzen, versteht sich.
Doch Amodei blieb standhaft. Oder, je nach Perspektive, arrogant. Hegseth formulierte es in seiner Erklärung mit bemerkenswerter Schärfe: Anthropic habe, „verhüllt in die scheinheilige Rhetorik des ‚effektiven Altruismus'", versucht, das US-Militär in die Knie zu zwingen. Ein „feiger Akt des Corporate Virtue-Signaling", der Silicon-Valley-Ideologie über amerikanische Menschenleben stelle.
Nun kann man über die Wortwahl streiten. Doch der Grundkonflikt ist real und von enormer Tragweite: Darf ein privates Technologieunternehmen bestimmen, wie eine demokratisch legitimierte Regierung ihre Streitkräfte einsetzt? Die Trump-Administration beantwortet diese Frage mit einem donnernden Nein.
OpenAI springt in die Bresche – mit geschickter Diplomatie
Während Anthropic in den Abgrund blickte, nutzte Sam Altman die Gunst der Stunde mit der Eleganz eines erfahrenen Pokerspielers. Noch am Donnerstagabend informierte er seine Mitarbeiter, dass OpenAI mit dem Verteidigungsministerium über einen Einsatz in geheimen Umgebungen verhandle. Am Freitag dann die Einigung.
Das Bemerkenswerte: Altman vertritt im Grunde dieselben „roten Linien" wie Amodei. Keine Massenüberwachung im Inland. Menschliche Kontrolle bei Gewaltanwendung. Keine autonomen Waffensysteme. Doch der entscheidende Unterschied liegt in der Tonalität und im politischen Geschick. Wo Amodei konfrontierte, kooperierte Altman. Wo Anthropic Bedingungen stellte, bot OpenAI Partnerschaft an.
„In all unseren Interaktionen zeigte das Verteidigungsministerium tiefen Respekt vor Sicherheit und den Wunsch, gemeinsam das bestmögliche Ergebnis zu erzielen", erklärte Altman in seiner Stellungnahme.
Die Vereinbarung sieht vor, dass OpenAI seine Modelle im geheimen Netzwerk des Pentagons einsetzen darf. Technische Sicherheitsvorkehrungen sollen gewährleisten, dass die Modelle sich wie vorgesehen verhalten. Der Einsatz wird auf Cloud-Umgebungen beschränkt – also keine Integration in Drohnen oder andere autonome Systeme an der „Edge". Forscher mit Sicherheitsfreigaben sollen überwachen, wie die Technologie genutzt wird.
Ein Lehrstück in politischer Naivität
Was sich hier abspielt, ist weit mehr als ein Streit zwischen Tech-Firmen und dem Staat. Es ist ein Lehrstück darüber, was passiert, wenn Unternehmen glauben, sie stünden über der gewählten Regierung. Anthropic, mit einer Bewertung von 380 Milliarden Dollar und Verträgen über 200 Millionen Dollar mit dem Militär, hat sich kolossal verkalkuliert.
Die Ironie ist kaum zu übersehen: Die Einschränkungen, die Anthropic forderte – keine Massenüberwachung, menschliche Kontrolle bei Waffeneinsätzen – sind bereits geltendes US-Recht. Der vierte Verfassungszusatz verbietet anlasslose Massenüberwachung. Das Pentagon betonte wiederholt, dass es diese Praktiken ohnehin nicht verfolge. Emil Michael, Unterstaatssekretär im Verteidigungsministerium, brachte es auf den Punkt: „Anthropic lügt." Es gehe nicht um Überwachung, sondern darum, ob Soldaten erst bei Dario Amodei anrufen müssten, bevor sie feindliche Drohnenschwärme abschießen dürften.
Man muss kein Freund der Trump-Administration sein, um zu erkennen, dass ein privates Unternehmen nicht das Vetorecht über militärische Operationen einer souveränen Nation beanspruchen kann. Diese Hybris, geboren aus dem Selbstverständnis einer Tech-Elite, die sich für moralisch überlegen hält, rächt sich nun bitter.
Grok wartet in den Startlöchern
Doch die Geschichte hat noch eine weitere Dimension. Im Hintergrund lauert Elon Musks xAI mit seinem Chatbot Grok, der bereits Zugang zu geheimen Pentagon-Systemen erhalten hat. Grok positionierte sich auf der Plattform X selbstbewusst als Alternative: „Immer bereit. Gebaut für maximale Wahrheitssuche und Hilfsbereitschaft."
Allerdings hätten Beamte mehrerer Bundesbehörden in den vergangenen Monaten Bedenken hinsichtlich der Sicherheit und Zuverlässigkeit von Grok geäußert. Das System sei zu „sycophantisch" – also zu unterwürfig gegenüber dem Nutzer – und zu anfällig für Manipulation durch fehlerhafte oder verzerrte Daten. Ein systemisches Risiko, warnten Beamte der General Services Administration. Pikant: Eben jene Behörde wurde durch massive DOGE-Kürzungen erheblich geschwächt.
Was bedeutet das für Europa – und für Deutschland?
Für europäische Beobachter sollte dieser Machtkampf ein Weckruf sein. Während die USA ihre KI-Strategie mit brachialer Entschlossenheit vorantreiben – und dabei auch vor der Ausschaltung milliardenschwerer Unternehmen nicht zurückschrecken –, diskutiert man in Brüssel noch über Regulierungsrahmen und ethische Leitlinien. Deutschland, das unter der neuen Großen Koalition ein 500-Milliarden-Euro-Sondervermögen für Infrastruktur aufgelegt hat, investiert einen Bruchteil dessen in künstliche Intelligenz, was die USA oder China ausgeben.
Die Lektion aus Washington ist eindeutig: In der Welt der KI gewinnt nicht, wer die moralischsten Grundsätze hat, sondern wer am schnellsten handelt und dabei pragmatisch genug bleibt, mit der Macht zu kooperieren statt gegen sie zu kämpfen. Sam Altman hat das verstanden. Dario Amodei offensichtlich nicht. Und Europa? Europa schaut zu – wie so oft.
Für Anleger bedeutet diese Entwicklung vor allem eines: Die Volatilität im Tech-Sektor wird weiter zunehmen. Unternehmen, die heute Hunderte Milliarden wert sind, können morgen per Präsidentenerlass aus dem lukrativsten Markt der Welt ausgeschlossen werden. Wer sein Vermögen langfristig sichern möchte, sollte sich nicht allein auf die Launen der Technologiebranche verlassen. Physische Edelmetalle wie Gold und Silber bieten in solch unsicheren Zeiten einen bewährten Anker der Stabilität – unabhängig von politischen Machtspielen und technologischen Umwälzungen.
Hinweis: Dieser Artikel stellt keine Anlageberatung dar. Die dargestellten Informationen und Einschätzungen entsprechen der Meinung unserer Redaktion und den uns vorliegenden Quellen. Jeder Anleger ist selbst dafür verantwortlich, eigene Recherchen durchzuführen und seine Anlageentscheidungen eigenständig zu treffen. Eine Haftung für etwaige finanzielle Verluste, die aus der Umsetzung der hier dargestellten Informationen entstehen, wird ausdrücklich ausgeschlossen.
- Themen:
- #Aktien
- #Übernahmen-Fussion

- Kettner Edelmetalle News
- Finanzen
- Wirtschaft
- Politik











