Rote Linien bei Überwachung und Waffen
Streit um KI-Einsatz im Militär: Anthropic bricht mit US-Kriegsministerium
Das US-Unternehmen Anthropic hat eine vorgeschlagene Anpassung seines Vertrags mit dem amerikanischen Verteidigungsministerium zurückgewiesen. Hintergrund ist ein Streit über die Einsatzgrenzen des KI-Systems Claude, das als erstes Modell dieser Art in entsprechenden Netzwerken der US-Regierung verwendet wird.
US-Verteidigungsminister Pete Hegseth hatte dem Unternehmen nahegelegt, den Einsatz der Software für alle rechtlich zulässigen Zwecke freizugeben. Andernfalls drohe die Kündigung eines rund 200 Millionen Dollar schweren Vertrags. Zudem stellte das Ministerium in Aussicht, Anthropic als Risiko für die Lieferkette einzustufen. Eine solche Einordnung wird üblicherweise bei Unternehmen mit Verbindungen zu ausländischen Gegnern vorgenommen.
Anthropic erklärte, die vorgeschlagenen Formulierungen würden bestehende Schutzmechanismen faktisch aushebeln. Man könne der Forderung aus Gewissensgründen nicht zustimmen.
Rote Linien bei Überwachung und Waffen
Firmenchef Dario Amodei betonte in einem Blogbeitrag, dass sein Unternehmen den Einsatz von Künstlicher Intelligenz zur Verteidigung demokratischer Staaten unterstütze. Claude werde bereits in verschiedenen Bereichen genutzt, etwa für Geheimdienstanalysen, Simulationen oder die Planung militärischer Operationen. Entscheidungen über konkrete Einsätze lägen beim Militär und nicht bei privaten Anbietern.
Gleichzeitig definiert Anthropic zwei klare Ausnahmen. Zum einen lehnt das Unternehmen den Einsatz seiner Systeme für umfassende inländische Massenüberwachung ab. Moderne KI könne große Mengen frei verfügbarer Daten automatisch zusammenführen und detaillierte Profile einzelner Personen erstellen. Dies berge erhebliche Risiken für Grundrechte.
Zum anderen verweigert Anthropic den Einsatz seiner Modelle in vollständig autonomen Waffensystemen, bei denen Maschinen eigenständig Ziele auswählen und angreifen. Nach Einschätzung des Unternehmens sind heutige KI-Systeme nicht verlässlich genug, um solche Aufgaben ohne menschliche Kontrolle zu übernehmen. Fehlentscheidungen könnten schwerwiegende Folgen für Soldaten und Zivilisten haben. Das US-Kriegsministerium reagierte mit Unverständnis.


Hegseth. Ohne Worte.
Anthropics Haltung verdient höchsten Respekt!
Ja!
1+
+1
+1
Absolut <3
+1 – Hoffentlich bleiben sie standhaft und fallen nicht um wie Dominosteine. Wenn einer fällt, fallen sie alle.
Höchsten Respekt, Daumen hoch.
Die Regierung der Orange scheint ausschliesslich via Drohungen zu regieren…….schlimm schlimm.
+1 Super
Das schlimme ist: wenn die es nicht machen, dann macht er ein anderer. Nicht jeder hat die Eier hier „Nein“ zu sagen.
+1
Das ist immer so. Devoid sollte man zu seinen Grundprinzipien stehen. Andernfalls ist man schon verloren.
Dennoch – nicht „Devoid“
Mit dem Argument könnte mensch jeden (illegalen und unmoralischen) Dreck machen.
„Reagierten mit Unverständnis“ – ich vermute, weil dieser Teil in vielen Spielfilmen nicht so weit weg von der Wahrheit ist? Keine Ahnung von technischen Details aber derart großes Ego, dass im Grunde die ganze Welt nur zu doof ist das Licht zu sehen.
Stark, dass ein KI Unternehmen im eigenen Land dem Militär erklärt, dass das, was aktuell als KI bezeichnet wird, NICHT ZUVERLÄSSIG ENTSCHEIDUNGEN treffen kann. Man könnte ausholen und erklären warum das Prinzip bedingt nicht möglich ist aber so lange will ja keiner zuhören.
Das zeigt Rückgrat im Gegensatz zu Apple mit Tim Cook
Apple mit Birnen vergleichen
Du meinst Tim cock?
good one
Die KI Firmen geben nicht 700 Mrd im Jahr für image playground aus. Die können noch ein bisschen mehr. Im Moment stehen noch viele am Strand und überlegen. Wo ist das Wasser hin? Einige laufen Richtung Meer, andere Verharren am Strand. Die Klugen suchen sich höhere Positionen an Land. Der KI Tsunami kommt. Wo ist deine Position?
Claude Code mit 6 Subagents in den Rollen: Entwicklung, Produktion, Marketing, Verkauf, Kundenservice und Buchhaltung. Kostet dich massiv Token am Tag. Aber du zahlst 3000 € im Monat, statt 30000€ für Menschen. Und die arbeiten 24/7 für deine Firma.
KI ist so viel mehr als irgendwelche Dinger, die Text oder Bilder erzeugen können.
Ich weiß schon, warum ich Claude nutze und nicht ChatGPT
Aktuell nutze ich KI über Perplexity, aber ChatGPT ist meiner Meinung nicht mehr so gut.
Da bleibe ich lieber bei Kimi. Den proprietären imperialistischen Kram brauche ich nicht.
Deswegen wird ja jetzt wahrscheinlich auch Grok im Militär eingesetzt. Glaube der Elon hat da nicht solche Bedenken. Das Geld ist schon sehr gern gesehen hier.
eben, Apple hätte statt da mit Gemini rumzueiern einfach Anthropic und Claude kaufen sollen
Ehrlich gesagt: Gottseidank nicht. Apple hat ja bspw auch Siri gekauft und dann nichts mehr damit gemacht. Usw.
Auch wenn jetzt einige denken,ich hab sie nicht alle.Aber wenn das Militär KI in Waffensysteme integrieren will,selbstständig entscheiden. kann..kennt jemand den Film Terminator oder Wargames???
Respekt vor der Firma.
Und wie dämlich ist das Militär…
Wo KI immer besser wird,schwindet der IQ beim Menschen.
„… schwindet der IQ beim Menschen.“
Nach meinem Sprachverständnis impliziert „schwinden“, dass zuvor etwas davon vorhanden war. Bei Pete Hegseth – hm …
PS. Ich kann mir diese Anmerkung erlauben, weil ich nicht beabsichtigte, in absehbarer Zeit in die USA einzureisen ;-)
Pete Hegseth und Trump sind Geldgeil und dumm weil es könnte sie selber treffen
Man sollte davon gar nichts nutzen, aber wenn man nichts in der Birne hat
Hat das US-Militär keine eigene KI?
Gut, ich verstehe schon dass man ein LLM evtl. als eine Art Benutzeroberfläche einsetzen möchte.
Aber die eigentliche Arbeit, also das Steuern von bspw. Drohnen oder die Massenüberwachung von Menschen werden ja von KIs gemacht, die keine LLMs sind.
Geld ist Geld, nur klingen $200M für mich in der heutigen KI Zeit nach einem kleinen Auftrag, um dafür seine Prinzipien zu hintergehen. Starke Haltung.
anthropic
/ăn-thrŏp′ĭk/
adjective
Of or relating to humans or the era of human life.
Concerned primarily with humans; anthropocentric.
Like or related to man; human.
Similar: human
Ich finde alleine mit dem Namen haben sie sich zu „etwas“ verpflichtet.