ifun.de — Apple News seit 2001. 45 805 Artikel

Rote Linien bei Überwachung und Waffen

Streit um KI-Einsatz im Militär: Anthropic bricht mit US-Kriegsministerium

Artikel auf Mastodon teilen.
36 Kommentare 36

Das US-Unternehmen Anthropic hat eine vorgeschlagene Anpassung seines Vertrags mit dem amerikanischen Verteidigungsministerium zurückgewiesen. Hintergrund ist ein Streit über die Einsatzgrenzen des KI-Systems Claude, das als erstes Modell dieser Art in entsprechenden Netzwerken der US-Regierung verwendet wird.

Anthropic

US-Verteidigungsminister Pete Hegseth hatte dem Unternehmen nahegelegt, den Einsatz der Software für alle rechtlich zulässigen Zwecke freizugeben. Andernfalls drohe die Kündigung eines rund 200 Millionen Dollar schweren Vertrags. Zudem stellte das Ministerium in Aussicht, Anthropic als Risiko für die Lieferkette einzustufen. Eine solche Einordnung wird üblicherweise bei Unternehmen mit Verbindungen zu ausländischen Gegnern vorgenommen.

Anthropic erklärte, die vorgeschlagenen Formulierungen würden bestehende Schutzmechanismen faktisch aushebeln. Man könne der Forderung aus Gewissensgründen nicht zustimmen.

Rote Linien bei Überwachung und Waffen

Firmenchef Dario Amodei betonte in einem Blogbeitrag, dass sein Unternehmen den Einsatz von Künstlicher Intelligenz zur Verteidigung demokratischer Staaten unterstütze. Claude werde bereits in verschiedenen Bereichen genutzt, etwa für Geheimdienstanalysen, Simulationen oder die Planung militärischer Operationen. Entscheidungen über konkrete Einsätze lägen beim Militär und nicht bei privaten Anbietern.

Claude Chat Bar

Gleichzeitig definiert Anthropic zwei klare Ausnahmen. Zum einen lehnt das Unternehmen den Einsatz seiner Systeme für umfassende inländische Massenüberwachung ab. Moderne KI könne große Mengen frei verfügbarer Daten automatisch zusammenführen und detaillierte Profile einzelner Personen erstellen. Dies berge erhebliche Risiken für Grundrechte.

Zum anderen verweigert Anthropic den Einsatz seiner Modelle in vollständig autonomen Waffensystemen, bei denen Maschinen eigenständig Ziele auswählen und angreifen. Nach Einschätzung des Unternehmens sind heutige KI-Systeme nicht verlässlich genug, um solche Aufgaben ohne menschliche Kontrolle zu übernehmen. Fehlentscheidungen könnten schwerwiegende Folgen für Soldaten und Zivilisten haben. Das US-Kriegsministerium reagierte mit Unverständnis.

27. Feb. 2026 um 06:49 Uhr von Nicolas Fehler gefunden?


    36 Kommentare bisher. Dieser Unterhaltung fehlt Deine Stimme.
  • Das schlimme ist: wenn die es nicht machen, dann macht er ein anderer. Nicht jeder hat die Eier hier „Nein“ zu sagen.

  • „Reagierten mit Unverständnis“ – ich vermute, weil dieser Teil in vielen Spielfilmen nicht so weit weg von der Wahrheit ist? Keine Ahnung von technischen Details aber derart großes Ego, dass im Grunde die ganze Welt nur zu doof ist das Licht zu sehen.

    Stark, dass ein KI Unternehmen im eigenen Land dem Militär erklärt, dass das, was aktuell als KI bezeichnet wird, NICHT ZUVERLÄSSIG ENTSCHEIDUNGEN treffen kann. Man könnte ausholen und erklären warum das Prinzip bedingt nicht möglich ist aber so lange will ja keiner zuhören.

  • Die KI Firmen geben nicht 700 Mrd im Jahr für image playground aus. Die können noch ein bisschen mehr. Im Moment stehen noch viele am Strand und überlegen. Wo ist das Wasser hin? Einige laufen Richtung Meer, andere Verharren am Strand. Die Klugen suchen sich höhere Positionen an Land. Der KI Tsunami kommt. Wo ist deine Position?

  • Ich weiß schon, warum ich Claude nutze und nicht ChatGPT

  • Deswegen wird ja jetzt wahrscheinlich auch Grok im Militär eingesetzt. Glaube der Elon hat da nicht solche Bedenken. Das Geld ist schon sehr gern gesehen hier.

  • eben, Apple hätte statt da mit Gemini rumzueiern einfach Anthropic und Claude kaufen sollen

  • Auch wenn jetzt einige denken,ich hab sie nicht alle.Aber wenn das Militär KI in Waffensysteme integrieren will,selbstständig entscheiden. kann..kennt jemand den Film Terminator oder Wargames???
    Respekt vor der Firma.
    Und wie dämlich ist das Militär…
    Wo KI immer besser wird,schwindet der IQ beim Menschen.

    • „… schwindet der IQ beim Menschen.“
      Nach meinem Sprachverständnis impliziert „schwinden“, dass zuvor etwas davon vorhanden war. Bei Pete Hegseth – hm …
      PS. Ich kann mir diese Anmerkung erlauben, weil ich nicht beabsichtigte, in absehbarer Zeit in die USA einzureisen ;-)

  • Pete Hegseth und Trump sind Geldgeil und dumm weil es könnte sie selber treffen

  • Man sollte davon gar nichts nutzen, aber wenn man nichts in der Birne hat

  • Hat das US-Militär keine eigene KI?

    Gut, ich verstehe schon dass man ein LLM evtl. als eine Art Benutzeroberfläche einsetzen möchte.

    Aber die eigentliche Arbeit, also das Steuern von bspw. Drohnen oder die Massenüberwachung von Menschen werden ja von KIs gemacht, die keine LLMs sind.

  • Geld ist Geld, nur klingen $200M für mich in der heutigen KI Zeit nach einem kleinen Auftrag, um dafür seine Prinzipien zu hintergehen. Starke Haltung.

  • anthropic
    /ăn-thrŏp′ĭk/

    adjective
    Of or relating to humans or the era of human life.
    Concerned primarily with humans; anthropocentric.
    Like or related to man; human.
    Similar: human

    Ich finde alleine mit dem Namen haben sie sich zu „etwas“ verpflichtet.

  • Redet mit. Seid nett zueinander!

    Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

    ifun.de ist das dienstälteste europäische Onlineportal rund um Apples Lifestyle-Produkte.
    Wir informieren täglich über Aktuelles und Interessantes aus der Welt rund um iPad, iPod, Mac und sonstige Dinge, die uns gefallen.
    Insgesamt haben wir 45805 Artikel in den vergangenen 8893 Tagen veröffentlicht. Und es werden täglich mehr.
    ifun.de — Love it or leave it   ·   Copyright © 2026 aketo GmbH   ·   Impressum   ·      ·   Datenschutz   ·   Safari-Push aketo GmbH Powered by SysEleven