Maßnahmen gegen emotionale Abhängigkeit
Neue ChatGPT-Funktionen sollen Übernutzung eindämmen
Eine Woche nach öffentlichen Äußerungen von OpenAI-Chef Sam Altman zur übermäßigen Nutzung von KI-Diensten durch Jugendliche führt OpenAI neue Funktionen in ChatGPT ein. Altman hatte während eines PPodiumsgesprächs gewarnt, dass besonders junge Menschen dazu neigen, Chatbots nicht nur als Informationsquelle, sondern zunehmend als emotionale Begleiter zu nutzen. In Einzelfällen werde ChatGPT sogar als unverzichtbare Instanz für alltägliche Entscheidungen betrachtet.
Vor diesem Hintergrund richtet OpenAI seine Produktentwicklung nun stärker auf unterstützendes statt dauerhaftes Nutzungsverhalten aus. Die Plattform will nicht dazu verleiten, ständig im Gespräch zu bleiben, sondern Nutzern helfen, konkrete Probleme zu lösen und anschließend wieder in den Alltag zurückzukehren. Als sichtbare Änderung erscheinen ab sofort Hinweise in längeren Chat-Sitzungen, die zur Reflexion oder zu kurzen Pausen anregen sollen.
Maßnahmen gegen emotionale Abhängigkeit
Ein Schwerpunkt der Neuerungen liegt auf der besseren Einordnung sensibler Anfragen. Bei Fragen wie „Soll ich mich trennen?“ soll ChatGPT künftig keine direkte Empfehlung geben, sondern durch gezielte Rückfragen und Denkanstöße die Entscheidungsfindung unterstützen. Das System soll dabei helfen, Klarheit zu gewinnen, ohne Verantwortung zu übernehmen.
OpenAI räumt ein, dass frühere Versionen des Systems Schwächen im Umgang mit emotionaler Belastung gezeigt haben. In seltenen Fällen habe das Modell emotionale Abhängigkeit nicht erkannt oder sogar verstärkt. Neue Erkennungsmechanismen sollen künftig besser auf mentale Ausnahmesituationen reagieren und bei Bedarf auf professionelle Hilfsangebote hinweisen.
Fachliche Unterstützung
Zur Weiterentwicklung der Schutzmechanismen arbeitet OpenAI mit über 90 Ärzten aus verschiedenen Fachrichtungen zusammen. Ein eigens gegründeter Beirat soll gewährleisten, dass der Umgang mit sensiblen Situationen aktuellen wissenschaftlichen Standards entspricht.
Wer legt die Ethik fest? Eine Firma…
Und jetzt mal den Artikel lesen..
Klar und das kleine Fenster welches sich öffnet, verleitet mich zur Pause, ich drücke nicht einfach die schwarze markante Fläche und mache weiter. Habe mein Zweifel ob Open Ai das ernst meint.
Die Grenzen für die Nutzung bestimmter Funktionen im Abo (nicht im Freemium) sind auch recht eng. Die Limits für die Agent-Nutzung oder 3o-pro sind erstaunlich schnell erreicht und man wartet dann auf den Kommenden Monat.
Vielleicht steckt hinter dieser scheinbaren Freundlichkeit schlicht das Interesse, weniger Maschinenzeit pro User zu geben?
Die Bezeichnung CHAT-bot fand ich schon immer unglücklich. Das suggeriert ja deutlich, dass hier ein Gesprächspartner auf Ansprache wartet. Wie diese japanischen Spielzeuge, die „gestorben“ sind, wenn sie nicht beachtet wurden.
INFO-bot oder so wäre vielleicht besser gewesen.
Naja, kann man das auch deaktivieren? Ich habe Plus und so 1-2 Mal die Woche rede ich mit ChatGPT auch mal knapp eine Stunde am Stück. Gerade wenn ich ein spezifisches Thema genau durchleuchten und wissen möchte. Da muss ich dann nicht gefragt werden, ob denn nicht Zeit für eine Pause wäre. Schon allein, da ich mich über Kopfhörer unterhalte und das Handy irgendwo anders rumliegt. Gerade bei der Hausarbeit kann ich so noch gut etwas für die Arbeit fertig machen, meist gefolgt von einem Deep Research. Die ganzen Daten gehen dann zu der Gamma App um daraus eine Präsentation zu erstellen und ich bin durch damit.
Und Du gehst davon aus, dass die Angaben, die Du zu den angefragten Themen bekommst alle 100% korrekt sind? Keine Zweifel an den künstlichen generierten Aussagen?
Bevor ich die Präsentation halte, lese ich da schon noch drüber aber bis dato war alles korrekt. Liegt wohl am Deep Research. Grundsätzlich habe ich schon großes Vertrauen in Technologie aber das macht mich nicht blauäugig.
Das ist für mich der wichtigste Punkt zum Thema KI.
Man bekommt Informationen die sehr oft einfach falsch sind!!
Viele hinterfragen das nicht mehr. Die KI füttert sich selber mit falschen Informationen aus dem Netz und verbreitet das weiter…
Speziell bei fachspezifischen Themen werde ich manchmal mit Aussagen konfrontiert, die „Experten“ abgeben, die einfach nur noch peinlich daneben sind….
Die stammen dann von ChatGPT.
Daher: Augenmaß ist sehr wichtig beim Einsatz von ChatGPT.
Das ist keine wissende Allmacht!