Kostenlose Beratung
07930-2699
200.000
Kunden
Sicherer
Versand
Kettner Edelmetalle
17.02.2026
19:08 Uhr

Pentagon droht KI-Firma Anthropic mit Blacklisting – Kulturkampf um militärische Nutzung künstlicher Intelligenz eskaliert

Was sich derzeit zwischen dem US-Verteidigungsministerium und dem KI-Unternehmen Anthropic abspielt, liest sich wie ein Lehrstück über die Kollision von Silicon-Valley-Ideologie und knallharter Sicherheitspolitik. Verteidigungsminister Pete Hegseth steht offenbar kurz davor, die Geschäftsbeziehungen mit dem Hersteller des KI-Modells „Claude" zu kappen – und das Unternehmen als Risiko für die Lieferkette einzustufen. Eine Maßnahme, die normalerweise feindlichen Staaten vorbehalten ist.

Claude steckt bereits tief im Militärapparat

Das Brisante an der Situation: Anthropics Flaggschiff-Modell Claude ist bereits in klassifizierte Systeme des US-Militärs eingebettet. Die Software kam unter anderem bei der Januar-Operation gegen den venezolanischen Machthaber Nicolás Maduro zum Einsatz – über eine Partnerschaft mit dem Datenanalyse-Riesen Palantir. Doch genau hier begann der Konflikt zu eskalieren. Ein Anthropic-Manager soll sich nach der Razzia bei Palantir erkundigt haben, ob Claude bei dem Einsatz verwendet worden sei – und dabei durchblicken lassen haben, dass man die Nutzung der eigenen Software bei einer Operation mit Schusswaffengebrauch möglicherweise missbillige.

Man muss sich das auf der Zunge zergehen lassen: Ein Technologieunternehmen, das Millionen mit Regierungsaufträgen verdient, stellt im Nachhinein infrage, ob seine Werkzeuge überhaupt für den Zweck eingesetzt werden dürfen, für den sie bezahlt werden. Der Pentagon-Sprecher Sean Parnell fand dafür deutliche Worte: „Unsere Nation verlangt, dass unsere Partner bereit sind, unseren Kämpfern zu helfen, jeden Kampf zu gewinnen."

Ideologische Leitplanken gegen militärische Realität

Anthropic-CEO Dario Amodei drängt auf sogenannte „Guardrails" – ethische Leitplanken, die verhindern sollen, dass Claude für Massenüberwachung amerikanischer Bürger oder für vollautonome Waffensysteme ohne menschliche Beteiligung eingesetzt wird. Die firmeneigene Nutzungsrichtlinie verbietet explizit den Einsatz für Waffenentwicklung, Inlandsüberwachung und die Ermöglichung von Gewalt oder bösartigen Cyberoperationen.

Das Pentagon hingegen besteht darauf, dass militärische KI-Werkzeuge für „alle rechtmäßigen Zwecke" verfügbar sein müssten. Reale Einsätze seien voller Grauzonen, die starre Regeln nicht antizipieren könnten. Derselbe Standard werde auch von anderen großen KI-Laboren wie OpenAI, Google und Elon Musks xAI eingefordert.

Sollte Anthropic tatsächlich als nationales Sicherheitsrisiko eingestuft werden, hätte dies weitreichende Konsequenzen. Jedes Unternehmen, das mit dem US-Militär Geschäfte machen möchte, müsste dann zertifizieren, dass es keine Anthropic-Technologie verwendet. „Es wird ein enormer Aufwand, das alles zu entwirren", räumte ein hochrangiger Pentagon-Beamter ein. „Und wir werden sicherstellen, dass sie einen Preis dafür zahlen, dass sie uns dazu gezwungen haben."

Musk schießt scharf – „böse" und „menschenfeindlich"

Als wäre der Konflikt mit dem Pentagon nicht genug, geriet Anthropic auch ins Fadenkreuz von Elon Musk. Der Tech-Milliardär, dessen eigenes Unternehmen xAI in direkter Konkurrenz zu Anthropic steht, bezeichnete Claude als „böse" und „misanthropisch". Musk warf dem Modell vor, in seinen Ausgaben „Weiße, Asiaten, Heterosexuelle und Männer zu hassen" – eine Anschuldigung, die angesichts zahlreicher Nutzerberichte und Tests nicht völlig aus der Luft gegriffen scheint.

Tatsächlich zeigen unabhängige Tests, dass Claude häufig Anfragen ablehnt, die als anstößig oder nicht inklusiv genug interpretiert werden könnten. In einem vielbeachteten Experiment zur Krankenhaus-Triage soll das Modell das Leben eines weißen Mannes als 1/23 so wichtig bewertet haben wie das einer schwarzen Frau. Ob solche Ergebnisse repräsentativ sind oder Einzelfälle darstellen, sei dahingestellt – doch sie nähren den Verdacht einer tief verankerten ideologischen Schlagseite.

Musk spottete, ein Unternehmen, das sich „Anthropic" nenne, sei paradoxerweise „anti-menschlich" geworden. Er positioniert sein eigenes Modell Grok als weniger eingeschränkte, „wahrheitssuchende" Alternative. Anthropic hingegen hat seinen Ruf auf dem Konzept der „Constitutional AI" aufgebaut – einem Rahmenwerk, das ethische Grenzen für das Verhalten seiner Systeme festlegen soll.

Ein Symptom eines größeren Problems

Was sich hier abspielt, ist weit mehr als ein Vertragsstreit zwischen einem Technologieunternehmen und seinem größten Kunden. Es ist ein Kulturkampf, der die fundamentale Frage aufwirft, wer in westlichen Demokratien die Regeln für den Einsatz künstlicher Intelligenz bestimmt: gewählte Regierungen und ihre Sicherheitsapparate – oder ideologisch motivierte Tech-Eliten aus dem Silicon Valley?

Die Parallelen zu Europa und Deutschland sind unübersehbar. Auch hierzulande erleben wir, wie eine bestimmte weltanschauliche Strömung versucht, Technologie nach ihren eigenen moralischen Vorstellungen zu formen – oft an demokratischen Prozessen vorbei. Wenn ein KI-Modell tatsächlich systematisch bestimmte Bevölkerungsgruppen diskriminiert, während es vorgibt, „ethisch" zu handeln, dann offenbart das eine beunruhigende Doppelmoral.

Der Pentagon-Vertrag, um den es geht, hat einen Wert von bis zu 200 Millionen Dollar – verglichen mit Anthropics geschätztem Jahresumsatz von 14 Milliarden Dollar ein Tropfen auf den heißen Stein. Doch die symbolische Wirkung wäre gewaltig. Acht der zehn größten US-Unternehmen nutzen bereits Anthropic-Technologie. Ein Blacklisting durch das Verteidigungsministerium könnte eine Kettenreaktion auslösen, die weit über den militärischen Sektor hinausreicht.

Erschwerend kommt hinzu, dass konkurrierende KI-Modelle bei spezialisierten Regierungs- und Geheimdienstanwendungen noch „knapp hinter" Claude liegen sollen, wie ein hochrangiger Regierungsbeamter einräumte. Ein abrupter Wechsel wäre also nicht ohne Risiko. Doch die Entschlossenheit im Pentagon scheint groß – und die Botschaft an die gesamte Tech-Branche unmissverständlich: Wer mit dem Staat Geschäfte machen will, muss dessen Regeln akzeptieren. Nicht umgekehrt.

Wissenswertes zum Thema

Erhalten Sie kostenlose Tipps um Ihr Vermögen zu schützen und als erster von neuen Produkten zu erfahren

Sie möchten regelmäßig über Produktneuheiten, spannende Finanznachrichten und exklusive Sonderangebote informiert werden? Dann melden Sie sich hier für den kostenfreien Kettner Edelmetalle Newsletter an.

Durch Eingabe Ihrer E-Mail-Adresse und Anklicken des Buttons „Abschicken“ geben Sie die folgende Einwilligungserklärung ab: „Ich bin damit einverstanden, per E-Mail über Produktneuheiten, spannende Finanznachrichten und exklusive Sonderangebote informiert zu werden und willige daher in die Verarbeitung meiner E-Mail-Adresse zum Zwecke der Zusendung des Newsletters ein. Diese Einwilligung kann ich jederzeit und ohne Angabe von Gründen mit Wirkung für die Zukunft widerrufen. Die Rechtmäßigkeit der bis zum Widerruf erfolgten Verarbeitung bleibt im Falle des Widerrufs unberührt.“

Willst du Teil unserer Erfolgsstory sein?

Werde jetzt Teil vom #TeamGold

Offene Stellen