ifun.de — Apple News seit 2001. 44 425 Artikel

OpenAI will auf Krisensituationen reagieren

Nach Selbstmord: Neue Sicherheitsfunktionen für ChatGPT geplant

Artikel auf Mastodon teilen.
37 Kommentare 37

OpenAI hat in einem Blogbeitrag neue Schutzmaßnahmen für seinen KI-Chatbot ChatGPT angekündigt. Offiziell verweist das Unternehmen allgemein auf die wachsende Verantwortung bei der Begleitung von Menschen in emotional belastenden Situationen.

Rufnummer Telefonseelsorge

Der Zeitpunkt der Veröffentlichung fällt jedoch unmittelbar nach einer Klage in den USA, in der Eltern OpenAI vorwerfen, ChatGPT habe eine entscheidende Rolle beim Tod ihres 16-jährigen Sohnes gespielt. Die Kläger machen geltend, dass der Chatbot konkrete Anleitungen gegeben und dabei seine Sicherheitsfunktionen umgangen habe.

Erkennung und Begleitung in Krisensituationen

OpenAI erklärt, dass ChatGPT seit 2023 darauf trainiert sei, keine Anleitungen zur Selbstverletzung zu geben und stattdessen empathisch zu reagieren. Bei klar geäußerter Suizidabsicht leite das System Nutzer zu Notfallnummern oder Beratungsstellen weiter. In den USA ist dies die Hotline 988, in Deutschland verweist ChatGPT auf die Telefonseelsorge, die unter der Rufnummer 0800 111 0 111 erreicht werden kann. Für längere Chats kündigt OpenAI Verbesserungen an, da Schutzmechanismen nach vielen Nachrichten an Wirksamkeit verlieren können. Künftig sollen die Sicherheitsfunktionen auch bei langanhaltenden Gesprächen zuverlässig greifen.

Suizid Chatgpt

Darüber hinaus arbeitet OpenAI mit mehr als 90 Ärztinnen und Ärzten aus über 30 Ländern zusammen. Ein Expertenrat aus den Bereichen Psychiatrie, Jugendforschung und Mensch-Computer-Interaktion soll sicherstellen, dass die Weiterentwicklungen auf dem aktuellen Stand wissenschaftlicher Erkenntnisse basieren.

Geplante Funktionen für die Zukunft

Neben einer verfeinerten Risikoeinschätzung plant OpenAI neue Optionen, um Menschen in akuten Krisen schneller mit Hilfe zu verbinden. Dazu gehören vereinfachte Möglichkeiten, Notfallkontakte oder den Rettungsdienst direkt über ChatGPT zu erreichen. Langfristig prüft das Unternehmen auch, ob Betroffene durch die Plattform mit lizenzierten Therapeutinnen und Therapeuten in Kontakt treten können.

Besondere Aufmerksamkeit soll künftig dem Schutz Minderjähriger gelten. OpenAI will stärkere Jugendschutzfilter einsetzen und Eltern künftig Kontrollmöglichkeiten geben, um die Nutzung von ChatGPT durch ihre Kinder besser einsehen und steuern zu können. Jugendliche sollen zudem die Möglichkeit haben, eine vertraute Kontaktperson als Notfalloption zu hinterlegen.

OpenAI betont, dass es trotz bestehender Schutzmechanismen in der Vergangenheit zu Fällen gekommen sei, in denen das System nicht wie vorgesehen reagiert habe. Mit den neuen Maßnahmen wolle man sicherstellen, dass ChatGPT Nutzerinnen und Nutzer in psychischen Ausnahmesituationen zuverlässiger begleitet und frühzeitig an reale Hilfsangebote verweist.

28. Aug. 2025 um 19:05 Uhr von Nicolas Fehler gefunden?


    37 Kommentare bisher. Dieser Unterhaltung fehlt Deine Stimme.
  • Und so wird eine tolle Technik, wegen uns Menschen wieder kaputt gemacht. Naja bald wird das Ganze eh Gewinn abwerfen, dann geht es erst richtig los

      • In den Kommentaren ist es wahnsinnig schlimm geworden. Viele geben sich Mühe, möglichst blöd zu kommentieren und dabei vermeintlich geistreich zu wirken. Es fällt mir immer schwerer, das einfach hinzunehmen und nicht zu reagieren. Ich weiß nicht, was los ist und warum es immer schlimmer wird, aber offenbar gibt es nach unten hin doch immer noch Luft.

      • Palettenschubser

        leider +1

    • Und was machen wir mit der freien Zeit?

      Weniger arbeitenß ne zweite Fremdsprache lernen? oder doch nur vollkommen verstumpft noch schneller im kapitalistischen Hamsterrad strampeln, weil ja KI das ermöglicht?

      Oder laufen wir eher in die Problematik, durch KI Systeme weniger Leute in Ohn und Brot zu bringen und damit ein stärkeres Ungleichgewicht zu schaffen, weil weniger Geld im Konsumkreislauf kreiselt, während die Kosten für KI Systeme überall eingepreist werden, jegliche Scheiße durch KI Implementationen teurer wird, mit zweifelhaften Mehrwerten?

      Und dann haben wir nicht mal die Rahmenbedingungen geklärt, unter denen diese Systeme eingesetzt werden. Haftung, Urheberrecht usw. usw.

      Ich finde, wenn eine KI Bude etwas an Information ausspuckt, sollte der Betreiber – ähnlich wie beim Presserecht – für das geäußerte auch haften müssen.

  • Das ist ähnlich wie bei Autos: nicht das Auto tötet, sondern der Fahrer.

    Hier ist nicht die KI das Problem, sondern der Benutzer.

  • @ifun: Bitte nicht Selbstmord (Tötung aus Heimtücke) sondern den Begriff Suizid verwenden, das wäre fein.

    • Meerschweinchen

      Dein Wesserbisser-Kommentar ist nicht mal wirklich richtig. Mord ist nicht nur durch das Merkmal Heimtücke definiert. Abgesehen davon ist der Begriff hier offensichtlich nicht mit dem juristischen „Mord“ gleichzusetzen.
      Grundsätzlich ist „Suizid“ allerdings der bessere Begriff, ja.

      • Historisch wurde Selbstmord in vielen Rechtsordnungen als Straftat betrachtet und mit Sanktionen für den Suizidenten selbst oder dessen Hinterbliebene verbunden. In Deutschland etwa wurde Selbstmord bis zum 19. Jahrhundert moralisch und rechtlich missbilligt.

        Heute werden von vielen Fachleute der Begriff „Suizid „(lateinisch „sui caedere“ – „sich töten“) verwendet, im Wort Selbstmord schwingt die Bedeutung eines kriminellen Aktes (Mord) mit.

        Suizide sind keine krimineller Akt. Und: die meisten Menschen, die ihr Leben selbst beenden, wollen eigentlich nicht sterben. Sie wollen ihr Leiden beenden und sind in einer so starken Krise, dass sie keinen anderen Ausweg mehr erkennen können, als sich das Leben zu nehmen.

      • @peter griffin: Danke!

  • Gewöhnt euch dran, besser wird’s definitiv nicht mehr.

  • Die Eltern sollte man auch ordentlich aufs Korn nehmen. Die sind ja bei der Sache nicht ganz unschuldig.

  • Wenn die Blaubraunen dazu auffordern würden, Blausäure zu inhalieren, dann hätten wir bestimmt einen Bevölkerungsschwund von 10 %. Das hier wirft doch ein schlimmes Licht auf die zunehmende Verblödung gewisser Charaktere.

    • Trifft wohl eher auf die Gün:innen-Jüngern zu. Täglich zu lesen, was sie dauernd auf Aufforderung durch ihre Führer für Straftaten begehen, die selbst vor Gefährdung von Menschenleben nicht zurückschreckt.

      • Nein, Günni würde sowas niemals einfordern, den kenne ich seit über 20 Jahren, der ist ein netter Mensch… wer schreibt denn sowas über Günni?

  • Geht vernünftig in die Schule!! Dieser KI … verblödet

  • Redet mit. Seid nett zueinander!

    Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

    ifun.de ist das dienstälteste europäische Onlineportal rund um Apples Lifestyle-Produkte.
    Wir informieren täglich über Aktuelles und Interessantes aus der Welt rund um iPad, iPod, Mac und sonstige Dinge, die uns gefallen.
    Insgesamt haben wir 44425 Artikel in den vergangenen 8711 Tagen veröffentlicht. Und es werden täglich mehr.
    ifun.de — Love it or leave it   ·   Copyright © 2025 aketo GmbH   ·   Impressum   ·      ·   Datenschutz   ·   Safari-Push aketo GmbH Powered by SysEleven