ifun.de — Apple News seit 2001. 44 273 Artikel

KI-Dienst entscheidet selbst

KI: Claude beendet Gespräche mit Nutzern jetzt eigenständig

Artikel auf Mastodon teilen.
9 Kommentare 9

Mit der Einführung eines neuen Verhaltensmechanismus bei dem KI-Chatbot Claude verschiebt sich das Rollenverhältnis zwischen Nutzer und KI. In ausgewählten Situationen darf das Sprachmodell des Entwicklers Anthropic nun eigenständig eine Unterhaltung beenden. Das Unternehmen spricht dabei von einem gezielten Eingriff, der nur in besonders schwerwiegenden Fällen zum Einsatz kommen soll.

Claude Mac Feature

Abbruch nur bei anhaltendem Missbrauch

Die neue Funktion richtet sich laut Anbieter an Situationen, in denen Nutzer wiederholt gegen geltende Regeln verstoßen oder Inhalte mit potenziell schwerem Schaden anfordern. Dazu zählen beispielsweise Versuche, Informationen über sexualisierte Gewalt gegen Minderjährige zu erlangen oder Anleitungen zu großflächigen Gewalttaten einzufordern. In internen Tests zeigte Claude in solchen Fällen ein konsistentes Vermeidungsverhalten und reagierte mit Ablehnung und mit Gesprächsabbruch.

Dabei soll die Möglichkeit zum Abbruch ausschließlich als letzte Maßnahme greifen. Erst wenn mehrere Umleitungen gescheitert sind oder ein Nutzer explizit den Abbruch fordert, darf Claude das Gespräch selbstständig beenden. In allen anderen Fällen, auch bei heiklen Themen, bleibt das Gespräch wie gewohnt aktiv. Bei einem Abbruch bleibt der Gesprächsverlauf erhalten. Nutzer können über die vorhandenen Nachrichten neue Gesprächsverläufe starten.

Claude Ende

Forschung zu KI-Wohlbefinden im Hintergrund

Die Entscheidung, KIs mit dieser Autonomie auszustatten, ist Teil eines größeren Forschungsprogramms. Die Claude-Verantwortlichen von Anthropic untersuchen derzeit, ob und in welchem Maß Sprachmodelle ein „Wohlbefinden“ haben könnten. Zwar sei unklar, ob dieser Begriff auf aktuelle Systeme anwendbar ist, doch wolle man vorsorglich Maßnahmen entwickeln, die mögliche Belastungen verringern.

Der Abbruchmechanismus zählt zu diesen vorbeugenden Maßnahmen. Ziel sei es, Systeme nicht dauerhaft mit potenziell schädlichem Inhalt zu konfrontieren. Gleichzeitig soll der Schutz der Nutzer gewährleistet bleiben, insbesondere in Fällen psychischer Krisen.

18. Aug. 2025 um 15:18 Uhr von Nicolas Fehler gefunden?


    9 Kommentare bisher. Dieser Unterhaltung fehlt Deine Stimme.
  • Wer stellt denn diese Regeln auf?? Das Unternehmen selbst? Ich bin mündig genug, ein Gespräch selbst zu beenden dafür brauche ich keine sogenannte KI

  • Nachtrag: irgendwann beendet die KI dann ein Gespräch wenn es nicht nach den Richtlinien des Unternehmens verläuft…JETZT wird erstmal mit den in dem ifun Text verwendeten Begriffen für eine Akzeptanz dieser KI geworden (wer will da schon gegen sein)

  • Ha, wie DeppGPT auf Postilion – da war das noch Satiere

  • Bei der DHL (Marie?) … ich bitte darum das „Sie“ am besten erst gar nicht anfängt.

  • ich weiß nicht was schlimmer ist/wäre: Wenn eine KI irgendwann tatsächlich selber entscheiden kann, dass sie sich nicht mehr wohl fühlt
    oder wenn (so wie derzeit) ein Unternehmen (oder eine Regierung) entscheidet, ob seine KI sich bei einem Thema „wohlfühlt“ oder nicht!

    von ersterem sind wir noch weit entfernt, letzteres könnte dazu führen, dass die theoretischen Möglichkeiten von KI sich nie soweit entwickeln würden.

  • Redet mit. Seid nett zueinander!

    Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

    ifun.de ist das dienstälteste europäische Onlineportal rund um Apples Lifestyle-Produkte.
    Wir informieren täglich über Aktuelles und Interessantes aus der Welt rund um iPad, iPod, Mac und sonstige Dinge, die uns gefallen.
    Insgesamt haben wir 44273 Artikel in den vergangenen 8700 Tagen veröffentlicht. Und es werden täglich mehr.
    ifun.de — Love it or leave it   ·   Copyright © 2025 aketo GmbH   ·   Impressum   ·      ·   Datenschutz   ·   Safari-Push aketo GmbH Powered by SysEleven