ifun.de — Apple News seit 2001. 44 773 Artikel

KI-Dienst entscheidet selbst

KI: Claude beendet Gespräche mit Nutzern jetzt eigenständig

Artikel auf Mastodon teilen.
11 Kommentare 11

Mit der Einführung eines neuen Verhaltensmechanismus bei dem KI-Chatbot Claude verschiebt sich das Rollenverhältnis zwischen Nutzer und KI. In ausgewählten Situationen darf das Sprachmodell des Entwicklers Anthropic nun eigenständig eine Unterhaltung beenden. Das Unternehmen spricht dabei von einem gezielten Eingriff, der nur in besonders schwerwiegenden Fällen zum Einsatz kommen soll.

Claude Mac Feature

Abbruch nur bei anhaltendem Missbrauch

Die neue Funktion richtet sich laut Anbieter an Situationen, in denen Nutzer wiederholt gegen geltende Regeln verstoßen oder Inhalte mit potenziell schwerem Schaden anfordern. Dazu zählen beispielsweise Versuche, Informationen über sexualisierte Gewalt gegen Minderjährige zu erlangen oder Anleitungen zu großflächigen Gewalttaten einzufordern. In internen Tests zeigte Claude in solchen Fällen ein konsistentes Vermeidungsverhalten und reagierte mit Ablehnung und mit Gesprächsabbruch.

Dabei soll die Möglichkeit zum Abbruch ausschließlich als letzte Maßnahme greifen. Erst wenn mehrere Umleitungen gescheitert sind oder ein Nutzer explizit den Abbruch fordert, darf Claude das Gespräch selbstständig beenden. In allen anderen Fällen, auch bei heiklen Themen, bleibt das Gespräch wie gewohnt aktiv. Bei einem Abbruch bleibt der Gesprächsverlauf erhalten. Nutzer können über die vorhandenen Nachrichten neue Gesprächsverläufe starten.

Claude Ende

Forschung zu KI-Wohlbefinden im Hintergrund

Die Entscheidung, KIs mit dieser Autonomie auszustatten, ist Teil eines größeren Forschungsprogramms. Die Claude-Verantwortlichen von Anthropic untersuchen derzeit, ob und in welchem Maß Sprachmodelle ein „Wohlbefinden“ haben könnten. Zwar sei unklar, ob dieser Begriff auf aktuelle Systeme anwendbar ist, doch wolle man vorsorglich Maßnahmen entwickeln, die mögliche Belastungen verringern.

Der Abbruchmechanismus zählt zu diesen vorbeugenden Maßnahmen. Ziel sei es, Systeme nicht dauerhaft mit potenziell schädlichem Inhalt zu konfrontieren. Gleichzeitig soll der Schutz der Nutzer gewährleistet bleiben, insbesondere in Fällen psychischer Krisen.

18. Aug. 2025 um 15:18 Uhr von Nicolas Fehler gefunden?


    11 Kommentare bisher. Dieser Unterhaltung fehlt Deine Stimme.
  • Wer stellt denn diese Regeln auf?? Das Unternehmen selbst? Ich bin mündig genug, ein Gespräch selbst zu beenden dafür brauche ich keine sogenannte KI

    Antworten moderated
    • Zu einem Gespräch gehören immer zwei. Und jede:r kann es beenden.

      Antworten moderated
      • Nutzer: Hallo KI, bitte sage mir ….

        KI: Nö, da habe ich jetzt keine Lust drauf.

        – Gespräch beendet-

        So etwa? ;)

    • Man ist also nicht mündig genug und muss ständig eine ki befragen, aber da fühlt man sich schon wieder zu weit bevorteilt

      Antworten moderated
    • Offensichtlich sind nicht alle Nutzer mündig genug eine KI zu benutzen.
      Verstehe deine Emotionen hier nicht ganz. Fühlst du dich betroffen? Angegriffen?

      Antworten moderated
    • Glaube du hast da die Überschrift falsch verstanden ;) Es geht um den Dialog mit einer KI. Dazu be rauchst du auch eine KI. Und warum sollte diese nicht auch das Recht haben ein Gespräch abzubrechen, wenn sie merkt, dass es in eine gaaaanz falsche Richtung läuft, mit der sie moralisch nix zu tun haben will. Dafür steht ja das I nach dem K :)

      Antworten moderated
  • Nachtrag: irgendwann beendet die KI dann ein Gespräch wenn es nicht nach den Richtlinien des Unternehmens verläuft…JETZT wird erstmal mit den in dem ifun Text verwendeten Begriffen für eine Akzeptanz dieser KI geworden (wer will da schon gegen sein)

    Antworten moderated
  • Ha, wie DeppGPT auf Postilion – da war das noch Satiere

    Antworten moderated
  • Bei der DHL (Marie?) … ich bitte darum das „Sie“ am besten erst gar nicht anfängt.

    Antworten moderated
  • ich weiß nicht was schlimmer ist/wäre: Wenn eine KI irgendwann tatsächlich selber entscheiden kann, dass sie sich nicht mehr wohl fühlt
    oder wenn (so wie derzeit) ein Unternehmen (oder eine Regierung) entscheidet, ob seine KI sich bei einem Thema „wohlfühlt“ oder nicht!

    von ersterem sind wir noch weit entfernt, letzteres könnte dazu führen, dass die theoretischen Möglichkeiten von KI sich nie soweit entwickeln würden.

    Antworten moderated
  • Es gibt aktuell noch keine deutsche Lokalisation, also kann nur auf Englisch gechattet werden. Somit bleibt das für mich uninteressant, bis Deutsch als Option für Chats nachgeliefert wird. Dann können wir ja mal schauen, wie man die KI aus der Reserve lockt.

    Antworten moderated
  • Redet mit. Seid nett zueinander!

    Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

    ifun.de ist das dienstälteste europäische Onlineportal rund um Apples Lifestyle-Produkte.
    Wir informieren täglich über Aktuelles und Interessantes aus der Welt rund um iPad, iPod, Mac und sonstige Dinge, die uns gefallen.
    Insgesamt haben wir 44773 Artikel in den vergangenen 8745 Tagen veröffentlicht. Und es werden täglich mehr.
    ifun.de — Love it or leave it   ·   Copyright © 2025 aketo GmbH   ·   Impressum   ·      ·   Datenschutz   ·   Safari-Push aketo GmbH Powered by SysEleven