Neue Formulierungen in den Nutzungsrichtlinien
ChatGPT-Nutzung eingeschränkt: Keine Rechts- oder Gesundheitsberatung
OpenAI hat die Regeln zur Nutzung von ChatGPT konkretisiert. Nutzerinnen und Nutzer dürfen den Dienst nicht für individuelle medizinische oder juristische Beratung verwenden, wenn diese eine Lizenz erfordert und nicht von einer entsprechend qualifizierten Fachkraft begleitet wird.
Nutzungsrichtlinien aktualisiert
Die aktualisierten Formulierungen wurden zum Monatswechsel in den Nutzungsrichtlinien festgehalten und sollen die bestehenden Vorgaben verdeutlichen. Bereits seit Januar untersagt OpenAI den Einsatz von ChatGPT, wenn dieser sich erheblich auf Sicherheit, Wohlergehen oder Rechte Dritter auswirken könnte. Dazu gehört unter anderem auch die personalisierte Beratung in Gesundheits-, Rechts- oder Finanzfragen.
Gegenüber den kanadischen Fernsehsender CTV National News betont OpenAI zwar, dass diese Einschränkungen als solche nicht neu seien. Allerdings habe man nun klargestellt, dass ChatGPT kein Ersatz für eine professionelle Beratung sei. Der Chatbot könne helfen, Zusammenhänge verständlich zu machen, dürfe jedoch nicht als endgültige Entscheidungsgrundlage verwendet werden.
Medizinische Fragen teils problematisch
Hintergrund der Klarstellung dürften auch aktuelle Studien sein, die aufzeigen, wie ChatGPT bereits in der Gesundheitskommunikation genutzt wird. So untersuchte eine Forschergruppe der University of Waterloo die Qualität von Antworten auf medizinische Prüfungsfragen. Dabei stellte sich heraus, dass nur knapp ein Drittel der gegebenen Antworten vollständig korrekt war. Etwa ein weiteres Drittel wurde als verständlich eingestuft, während die restlichen Antworten entweder unklar oder sachlich fehlerhaft ausfielen.
Eine weitere Untersuchung an der University of British Columbia untersuchte den Einfluss der Sprachgestaltung von KI-Systemen auf das Verhalten von Patientinnen und Patienten. Die Forscher kamen zu dem Schluss, dass ChatGPT mit seinem selbstbewussten und zustimmenden Sprachstil besonders überzeugend wirkt. Dies kann dazu führen, dass medizinische Fehlinformationen glaubwürdig erscheinen und Betroffene sich bereits vor einem Arztbesuch festlegen.


Dann gibt es demnächst den LawGPT für 999€ im Monat, angepasst an die Anwaltsgebühren.
Schade, fand es immer gut mir damit rechtliche Aspekte für die Arbeit auszuarbeiten. Für vieles braucht man einen Rechtsanwalt nicht. Das konnte ChatGPT bis jetzt sehr gut machen, z.B. Kündigung säumiger Mieter oder Betrug im Zuge von Insolvenzverfahren. Wenn das nicht mehr geht ist zumindest der Preis noch weniger gerechtfertigt.
Versuch es bei Grok. Ich finde die Aussagen von Grok zuverlässiger und besser aufgearbeitet. Vorgestern hat mir ChatGPT z.B. gesagt, dass Black Friday dieses Jahr am Freitag den 29.11.2025 ist…
So lange man einfach nur fragt, bekommt man teilweise kuriose Antworten. Wenn man aber Links einfordert oder zunächst nach Fachliteratur fragt und diese dann als Quelle für die Antworten einbezieht wird ChatGPT brauchbar.
Sofern sich ChatGPT die Fachliteratur nicht ausdenkt.^^
+ 1
Nein, Du hast es falsch verstanden:
Du kannst es weiter nutzen, Du darfst es nur nicht. Das bedeutet schlichtweg, dass es nicht durch OpenAI gesperrt wird ABER Du später dann nicht sagen kannst: „Aber das hat ChatGPT gesagt also sind die verantwortlich! Es hat mich schlecht beraten!“…
Das geht dann nicht mehr, denn OpenAI kann dann einfach sagen: „Hey, Du darfst das doch gar nicht also wenn Du Dich irgendwie beraten lässt, dann ist es Dein Problem denn Du hast es nicht gemäß der Bedingungen, denen Du zugestimmt hast, verwendet!“
Das ist alles. Es macht also spätere Rechtsstreitigkeiten einfacher abschmetterbar.
Den ärztlichen Kollegen empfehle ich an dieser Stelle ein Amboss Abonnement und dazugehörig das GPT Plugin. Auch sehr interessant ist das Werkzeug von OpenEvidence aus den USA – beides leider keine zertifizierten Medizinprodukte in Deutschland.
Wo kommen wir auch hin, wenn am Ende sogar der betrogene und mittellose Unterschichtenbürger auf sein Recht pochen kann.
Was haben mir meine Eltern gesagt: Auf drei Ärzte kommen vier verschiedene Diagnosen. Tja…
Ist ja auch viel besser, wenn Höchstbeitragszahler trotzdem weiter noch zusätzlich Sprechstunden bar bezahlen, um Hilfe zu bekommen. Den Tümpel würde das Angebot von OpenAi am Ende noch zu großen Teilen austrocknen.
Nutzt wirklich irgendjemand diese App für Gesundheitsberatung??
Meine Nachbarin bekam den Rat nach einer ZahnOp keine Eier und andere Milchprodukte zu essen.
Eher im Bereich Justiz könnte die Antwort auf die Frage „Wer ist Papst“ sein……Leo könnte klagen.
Ich würde nicht sagen zur Gesundheitsberatung, aber zum Verständnis von Befunden allemal gut nutzbar. Über ChatGPT hab ich schon etliche Themen adressieren können, die mir ein Arzt nur zwischen Tür und Angel und unter Stress hingeworfen hat.
Allerdings würde ich ChatGPT nie einem Arzt vorziehen, aber ich hab ab und an harmlose (vom Arzt bestätigt) Symptome die ChatGPT gut in den allgemeinen Kontext setzt. Das hilft zu verstehen warum der Körper was macht.
Und was das Thema mit Milchprodukten nach Zahn OP angeht, da hat ChatGPT recht. Mein Zahnarzt sagte das gleich nachdem ich die Weisheitszähne gezogen bekam. Irgendwie haben Milchprodukte wohl ne ungünstige Wirkung auf den heilungsprozess.
Naja es ging wohl um die Formulierung „Eier und andere Milchprodukte“.
Ich nutze einen selbstentwickelten Prompt, bei dem sich Dr. GPT in die Rolle eines Hausarztes versetzt und mir solange Fragen zu einer bestimmten gesundheitlichen Situation stellen soll, bis er zu einer wahrscheinlichen Diagnose kommt. Sollte Dr. GPT in die Rolle eines Facharztes wechseln müssen, soll er mir das kurz mitteilen und mit der Befragung fortsetzen. Was ich nach dem ersten Versuch anpassen musste, war die Beschränkung auf die Diagnose. Er darf mir keine Empfehlungen geben, weitere Unterlagen einfordern etc. Ich möchte lediglich das Arztgespräch.
So viel Zeit kann sich kein Arzt nehmen, weil er nicht so schnell parallel recherchieren kann.
So weiß ich, was ich meinem Hausarzt dann beim Termin für Informationen mitteilen muss, sodass er zu einer treffsicheren Diagnose und Behandlung kommt. Ich spare ihm damit also Zeit und mir stochern im Dunkel.
Für die Zukunft wünsche ich mir genau so ein echtes Arztgespräch:
Der Arzt gibt meine Symptome an Dr. GPT, stellt die daraus resultierenden Fragen, bleibt aber der Fachkundige, der die Richtigkeit beurteilt und die Behandlung festlegt.
Finde ich völlig richtig so. Es gab ja mehrere Studien zu anderen Themen, die ähnliches gezeigt haben. Generell hat ein Arzt tendenziell mehr Ahnung als eine KI.
Ich bin Anwalt, benutze ChatGPT öfter beruflich, meist aber nur um einfache Fakten zu recherchieren (Ersatz für Google). Die bei Medizinthemen genannte Fehlerquote gilt auch bei juristischen Themen: Ein Drittel korrekt, ein Drittel grob brauchbar aber lückenhaft, ein Drittel gefährlicher Vollschrott. Erstellte Dokumente von ChatGPT sind nur zu 20% ohne Nachbesserung verwendbar. 80% der angeblichen Gerichtsurteile, die als „Quelle“ angegeben werden, existieren in Wirklichkeit gar nicht – ChatGPT denkt sich diese einfach aus. Es gibt nichts Schlimmeres als einen Mandanten, der sich bei ChatGPT „schlau“ gemacht hat bevor er zum Anwalt geht. Noch schlimmer ist es nur, wenn der Mandant schon selber Briefe verschickt hat die von ChatGPT erstellt wurden. Solche Mandate lehne ich meistens direkt ab.