Künstliche Intelligenz
KI-Firma Anthropic verklagt das Pentagon wegen Einstufung als "Sicherheitsrisiko"

Im Streit um die Nutzung Künstlicher Intelligenz für das US-Militär hat der KI-Entwickler Anthropic die Regierung in Washington verklagt.

    Das Logo der App „Claude by Anthropic“ erscheint auf dem Bildschirm eines Smartphones.
    Der KI-Entwickler Anthropic hat die US-Regierung verklagt. (picture alliance / NurPhoto / Jaque Silva)
    Der Konzern mit seinem Chatbot "Claude" war von Verteidigungsminister Hegseth als "Sicherheitsrisiko in der Lieferkette" eingestuft worden. Hintergrund ist, dass Anthropic die uneingeschränkte militärische Nutzung seiner Technologie verweigert hatte. Das US-Unternehmen wollte seine KI nicht wie von der Regierung gewünscht für die Massenüberwachung im Inland oder in vollautonomen Waffensystemen einsetzen lassen.
    Diese Nachricht wurde am 10.03.2026 im Programm Deutschlandfunk gesendet.