KI-Dienst entscheidet selbst
KI: Claude beendet Gespräche mit Nutzern jetzt eigenständig
Mit der Einführung eines neuen Verhaltensmechanismus bei dem KI-Chatbot Claude verschiebt sich das Rollenverhältnis zwischen Nutzer und KI. In ausgewählten Situationen darf das Sprachmodell des Entwicklers Anthropic nun eigenständig eine Unterhaltung beenden. Das Unternehmen spricht dabei von einem gezielten Eingriff, der nur in besonders schwerwiegenden Fällen zum Einsatz kommen soll.
Abbruch nur bei anhaltendem Missbrauch
Die neue Funktion richtet sich laut Anbieter an Situationen, in denen Nutzer wiederholt gegen geltende Regeln verstoßen oder Inhalte mit potenziell schwerem Schaden anfordern. Dazu zählen beispielsweise Versuche, Informationen über sexualisierte Gewalt gegen Minderjährige zu erlangen oder Anleitungen zu großflächigen Gewalttaten einzufordern. In internen Tests zeigte Claude in solchen Fällen ein konsistentes Vermeidungsverhalten und reagierte mit Ablehnung und mit Gesprächsabbruch.
Dabei soll die Möglichkeit zum Abbruch ausschließlich als letzte Maßnahme greifen. Erst wenn mehrere Umleitungen gescheitert sind oder ein Nutzer explizit den Abbruch fordert, darf Claude das Gespräch selbstständig beenden. In allen anderen Fällen, auch bei heiklen Themen, bleibt das Gespräch wie gewohnt aktiv. Bei einem Abbruch bleibt der Gesprächsverlauf erhalten. Nutzer können über die vorhandenen Nachrichten neue Gesprächsverläufe starten.
Forschung zu KI-Wohlbefinden im Hintergrund
Die Entscheidung, KIs mit dieser Autonomie auszustatten, ist Teil eines größeren Forschungsprogramms. Die Claude-Verantwortlichen von Anthropic untersuchen derzeit, ob und in welchem Maß Sprachmodelle ein „Wohlbefinden“ haben könnten. Zwar sei unklar, ob dieser Begriff auf aktuelle Systeme anwendbar ist, doch wolle man vorsorglich Maßnahmen entwickeln, die mögliche Belastungen verringern.
Der Abbruchmechanismus zählt zu diesen vorbeugenden Maßnahmen. Ziel sei es, Systeme nicht dauerhaft mit potenziell schädlichem Inhalt zu konfrontieren. Gleichzeitig soll der Schutz der Nutzer gewährleistet bleiben, insbesondere in Fällen psychischer Krisen.
Wer stellt denn diese Regeln auf?? Das Unternehmen selbst? Ich bin mündig genug, ein Gespräch selbst zu beenden dafür brauche ich keine sogenannte KI
Zu einem Gespräch gehören immer zwei. Und jede:r kann es beenden.
Nutzer: Hallo KI, bitte sage mir ….
KI: Nö, da habe ich jetzt keine Lust drauf.
– Gespräch beendet-
So etwa? ;)
Man ist also nicht mündig genug und muss ständig eine ki befragen, aber da fühlt man sich schon wieder zu weit bevorteilt
Offensichtlich sind nicht alle Nutzer mündig genug eine KI zu benutzen.
Verstehe deine Emotionen hier nicht ganz. Fühlst du dich betroffen? Angegriffen?
Nachtrag: irgendwann beendet die KI dann ein Gespräch wenn es nicht nach den Richtlinien des Unternehmens verläuft…JETZT wird erstmal mit den in dem ifun Text verwendeten Begriffen für eine Akzeptanz dieser KI geworden (wer will da schon gegen sein)
Ha, wie DeppGPT auf Postilion – da war das noch Satiere
Bei der DHL (Marie?) … ich bitte darum das „Sie“ am besten erst gar nicht anfängt.
ich weiß nicht was schlimmer ist/wäre: Wenn eine KI irgendwann tatsächlich selber entscheiden kann, dass sie sich nicht mehr wohl fühlt
oder wenn (so wie derzeit) ein Unternehmen (oder eine Regierung) entscheidet, ob seine KI sich bei einem Thema „wohlfühlt“ oder nicht!
von ersterem sind wir noch weit entfernt, letzteres könnte dazu führen, dass die theoretischen Möglichkeiten von KI sich nie soweit entwickeln würden.