OpenAI will auf Krisensituationen reagieren
Nach Suizid: Neue Sicherheitsfunktionen für ChatGPT geplant
OpenAI hat in einem Blogbeitrag neue Schutzmaßnahmen für seinen KI-Chatbot ChatGPT angekündigt. Offiziell verweist das Unternehmen allgemein auf die wachsende Verantwortung bei der Begleitung von Menschen in emotional belastenden Situationen.
Der Zeitpunkt der Veröffentlichung fällt jedoch unmittelbar nach einer Klage in den USA, in der Eltern OpenAI vorwerfen, ChatGPT habe eine entscheidende Rolle beim Tod ihres 16-jährigen Sohnes gespielt. Die Kläger machen geltend, dass der Chatbot konkrete Anleitungen gegeben und dabei seine Sicherheitsfunktionen umgangen habe.
Erkennung und Begleitung in Krisensituationen
OpenAI erklärt, dass ChatGPT seit 2023 darauf trainiert sei, keine Anleitungen zur Selbstverletzung zu geben und stattdessen empathisch zu reagieren. Bei klar geäußerter Suizidabsicht leite das System Nutzer zu Notfallnummern oder Beratungsstellen weiter. In den USA ist dies die Hotline 988, in Deutschland verweist ChatGPT auf die Telefonseelsorge, die unter der Rufnummer 0800 111 0 111 erreicht werden kann. Für längere Chats kündigt OpenAI Verbesserungen an, da Schutzmechanismen nach vielen Nachrichten an Wirksamkeit verlieren können. Künftig sollen die Sicherheitsfunktionen auch bei langanhaltenden Gesprächen zuverlässig greifen.
Darüber hinaus arbeitet OpenAI mit mehr als 90 Ärztinnen und Ärzten aus über 30 Ländern zusammen. Ein Expertenrat aus den Bereichen Psychiatrie, Jugendforschung und Mensch-Computer-Interaktion soll sicherstellen, dass die Weiterentwicklungen auf dem aktuellen Stand wissenschaftlicher Erkenntnisse basieren.
Geplante Funktionen für die Zukunft
Neben einer verfeinerten Risikoeinschätzung plant OpenAI neue Optionen, um Menschen in akuten Krisen schneller mit Hilfe zu verbinden. Dazu gehören vereinfachte Möglichkeiten, Notfallkontakte oder den Rettungsdienst direkt über ChatGPT zu erreichen. Langfristig prüft das Unternehmen auch, ob Betroffene durch die Plattform mit lizenzierten Therapeutinnen und Therapeuten in Kontakt treten können.
Besondere Aufmerksamkeit soll künftig dem Schutz Minderjähriger gelten. OpenAI will stärkere Jugendschutzfilter einsetzen und Eltern künftig Kontrollmöglichkeiten geben, um die Nutzung von ChatGPT durch ihre Kinder besser einsehen und steuern zu können. Jugendliche sollen zudem die Möglichkeit haben, eine vertraute Kontaktperson als Notfalloption zu hinterlegen.
- PDF-Download: Klageschrift Raine vs. Open AI
OpenAI betont, dass es trotz bestehender Schutzmechanismen in der Vergangenheit zu Fällen gekommen sei, in denen das System nicht wie vorgesehen reagiert habe. Mit den neuen Maßnahmen wolle man sicherstellen, dass ChatGPT Nutzerinnen und Nutzer in psychischen Ausnahmesituationen zuverlässiger begleitet und frühzeitig an reale Hilfsangebote verweist.
Und so wird eine tolle Technik, wegen uns Menschen wieder kaputt gemacht. Naja bald wird das Ganze eh Gewinn abwerfen, dann geht es erst richtig los
Seid ihr hier echt alle 12…?
In den Kommentaren ist es wahnsinnig schlimm geworden. Viele geben sich Mühe, möglichst blöd zu kommentieren und dabei vermeintlich geistreich zu wirken. Es fällt mir immer schwerer, das einfach hinzunehmen und nicht zu reagieren. Ich weiß nicht, was los ist und warum es immer schlimmer wird, aber offenbar gibt es nach unten hin doch immer noch Luft.
+1
leider +1
+ 1
+100
@Volle, liegt daran, dass hier erstmal jede/r seinen Müll loswerden kann und der bleibt auch erstmal liegen – ohne Registrierung. In anderen „Foren“ wären einige von diesen Kandidaten schon gesperrt worden.
Einige werden wohl vor Veröffentlichung „kontrolliert“, aber dennoch viele „unterirdische“ gehen unkontrolliert durch.
Und was machen wir mit der freien Zeit?
Weniger arbeitenß ne zweite Fremdsprache lernen? oder doch nur vollkommen verstumpft noch schneller im kapitalistischen Hamsterrad strampeln, weil ja KI das ermöglicht?
Oder laufen wir eher in die Problematik, durch KI Systeme weniger Leute in Ohn und Brot zu bringen und damit ein stärkeres Ungleichgewicht zu schaffen, weil weniger Geld im Konsumkreislauf kreiselt, während die Kosten für KI Systeme überall eingepreist werden, jegliche Scheiße durch KI Implementationen teurer wird, mit zweifelhaften Mehrwerten?
Und dann haben wir nicht mal die Rahmenbedingungen geklärt, unter denen diese Systeme eingesetzt werden. Haftung, Urheberrecht usw. usw.
Ich finde, wenn eine KI Bude etwas an Information ausspuckt, sollte der Betreiber – ähnlich wie beim Presserecht – für das geäußerte auch haften müssen.
Das ist ähnlich wie bei Autos: nicht das Auto tötet, sondern der Fahrer.
Hier ist nicht die KI das Problem, sondern der Benutzer.
Artikel gelesen?
Empathie abgeschaltet?
Der Benutzer ist nicht das Problem, er hat eines!
Besser vor dem posten mal etwas nachdenken!
Genau, nicht Waffen töten, sondern die die sie benutzen. Was für ein dummer Kommentar!
Natürlich ist das „Werkzeug“ schuld!
Hab mich lange gefragt, was diese völlig inhaltslose Aussage mit den Autos eigentlich meint. Ich glaube, gemeint ist: „Ich finde Autos geil und aufgrund meiner kognitiven Einschränkungen sind mir Menschen, die ich nicht kenne, egal.“
Danke! Das empfinde ich auch so.
+1
Richtig! Aber es ist immer leichter der KI die Schuld zu geben. Wenn es danach geht, müssen wir auch alle Messer, Feuerzeuge und Hammer verbieten. Von Alkohol ganz zu schweigen.
Dein Kommentar ist defekt.
Verbietet Waffen. Und KI. Und Seile. Föhn, Messer, Steine, Bäume etc. etc.
Bäume hatte ich bisher nicht auf dem Schirm :-) Vielen Dank. BTW, deswegen auch Kommentare verbieten!
Der Poster hätte besser ein anderes Beispiel genommen: das Küchenmesser. Nicht das Küchenmesser ist Schuld, sondern der Stecher, der es dem anderen in den Bauch gestochen hat.
Das veranschaulicht vielleicht besser die Problematik. Oftmals werden gute Dinge mit einem guten Hintergedanken erfunden, dann aber von anderen Menschen „mißbraucht“. Das passt m.E. auf die Problematik mit der KI, obwohl hier in dem Sonderfall der Mensch, der Selbstmordgedanken hat, die KI nicht mißbraucht. In seinem Zustand dürfte er die KI gar nicht „gebrauchen“, aber wer will das rechtzeitig feststellen wollen.
Die Beispiele „Autos“ und „Waffen“ passen auch nicht.
Bei Autos sind schon mal durch Verkehrsgesetze und die Führerscheinprüfung Hürden aufgestellt – aber auch das schützt die Umgebung nicht absolut.
Bei Waffen ist das was völlig anderes: Waffen werden nur zu einem einzigen Zweck hergestellt – zum Töten.
Und trotzdem wird ihr Kind nicht wieder lebendig.
@ifun: Bitte nicht Selbstmord (Tötung aus Heimtücke) sondern den Begriff Suizid verwenden, das wäre fein.
Dein Wesserbisser-Kommentar ist nicht mal wirklich richtig. Mord ist nicht nur durch das Merkmal Heimtücke definiert. Abgesehen davon ist der Begriff hier offensichtlich nicht mit dem juristischen „Mord“ gleichzusetzen.
Grundsätzlich ist „Suizid“ allerdings der bessere Begriff, ja.
Historisch wurde Selbstmord in vielen Rechtsordnungen als Straftat betrachtet und mit Sanktionen für den Suizidenten selbst oder dessen Hinterbliebene verbunden. In Deutschland etwa wurde Selbstmord bis zum 19. Jahrhundert moralisch und rechtlich missbilligt.
Heute werden von vielen Fachleute der Begriff „Suizid „(lateinisch „sui caedere“ – „sich töten“) verwendet, im Wort Selbstmord schwingt die Bedeutung eines kriminellen Aktes (Mord) mit.
Suizide sind keine krimineller Akt. Und: die meisten Menschen, die ihr Leben selbst beenden, wollen eigentlich nicht sterben. Sie wollen ihr Leiden beenden und sind in einer so starken Krise, dass sie keinen anderen Ausweg mehr erkennen können, als sich das Leben zu nehmen.
@peter griffin: Danke!
Auch von mir:
Danke, @Peter Griffin.
So ist es leider ….
Yep! So ist es!
Aber wer Suizid begeht, begeht doch einen kriminellen Akt, man ermordet sich ja selbst. Also ist ja nichts an dem Begriff falsch, Suizid bedeutet zwar das gleiche, verharmlost das ganze meiner Meinung nach aber sehr.
Gewöhnt euch dran, besser wird’s definitiv nicht mehr.
Wenn die Blaubraunen dazu auffordern würden, Blausäure zu inhalieren, dann hätten wir bestimmt einen Bevölkerungsschwund von 10 %. Das hier wirft doch ein schlimmes Licht auf die zunehmende Verblödung gewisser Charaktere.
Trifft wohl eher auf die Gün:innen-Jüngern zu. Täglich zu lesen, was sie dauernd auf Aufforderung durch ihre Führer für Straftaten begehen, die selbst vor Gefährdung von Menschenleben nicht zurückschreckt.
Nein, Günni würde sowas niemals einfordern, den kenne ich seit über 20 Jahren, der ist ein netter Mensch… wer schreibt denn sowas über Günni?
Wäre eine win win situation wenn das sowohl blau und grün betreffen würde.
Geht vernünftig in die Schule!! Dieser KI … verblödet
Thema komplett verfehlt.
Soviel zur eigenen Aussage…
KI dekliniert immerhin richtig.
Vielleicht versteht ihr Ironie und Sarkasmus nicht.
*Suizid
+1.
Auch wenn der Umstand traurig ist. Die Erfindung des Autos hat auch dazu geführt, dass viele Menschen gestorben sind. Wir müssen also den Umgang mit KI lernen. Das ist neben sicherlich helfenden Funktionen seitens der KI wohl das Wichtigste.
Aber für Autos gibt es zumindest Regeln, damit es sicherer wird: StVO, Führerschein, Sicherheitsgurte, Kontrollen (Blitzer), Ampeln, Autos brauchen eine Zulassung, müssen viele Sicherheitskontrollen bestehen etc.
Bei der KI gibts derzeit nichts davon. Die Hersteller können derzeit machen was sie wollen (und tun das auch). Nach einem Vorfall tun zwar alle betroffen und geloben Besserung, aber im Grunde weiß jeder, es wird kaum besser werden.
Und wenn Regierungen versuchen, Regelungen für KI einzuführen, meckern auch alle, da die derzeitige Anarchie viele Freiheiten lässt, die viele nicht verlieren möchten, auch wenn das für andere gefährlich ist. Aktuell ist KI finanziell wie ein schwarzes Loch, die KI-Anbieter suchen dringend nach Möglichkeiten, das Geld wieder reinzubekommen. Da kommen Regulierungen und Sicherheit dann nicht gut an, denn das schränkt ein und kostet (zahlende) Nutzer.
Leider wurden seinerzeit keine Statistiken geführt wieviele Menschen bei kutschfahrten oder beim reiten umgekommen sind.
Wahrscheinlich wird man demnächst eine darkness ki einführen, die alles das kann, was man sich wünscht ohne Restriktionen von Politik und Unternehmen.
Hans, dafür gibt es die unzähligen lokalen Modelle. Die kannst du selbst trainieren und alle Restriktionen rausnehmen. Musst halt allerdings selbst betreiben.