Neue Formulierungen in den Nutzungsrichtlinien
ChatGPT-Nutzung eingeschränkt: Keine Rechts- oder Gesundheitsberatung
OpenAI hat die Regeln zur Nutzung von ChatGPT konkretisiert. Nutzerinnen und Nutzer dürfen den Dienst nicht für individuelle medizinische oder juristische Beratung verwenden, wenn diese eine Lizenz erfordert und nicht von einer entsprechend qualifizierten Fachkraft begleitet wird.
Nutzungsrichtlinien aktualisiert
Die aktualisierten Formulierungen wurden zum Monatswechsel in den Nutzungsrichtlinien festgehalten und sollen die bestehenden Vorgaben verdeutlichen. Bereits seit Januar untersagt OpenAI den Einsatz von ChatGPT, wenn dieser sich erheblich auf Sicherheit, Wohlergehen oder Rechte Dritter auswirken könnte. Dazu gehört unter anderem auch die personalisierte Beratung in Gesundheits-, Rechts- oder Finanzfragen.
Gegenüber den kanadischen Fernsehsender CTV National News betont OpenAI zwar, dass diese Einschränkungen als solche nicht neu seien. Allerdings habe man nun klargestellt, dass ChatGPT kein Ersatz für eine professionelle Beratung sei. Der Chatbot könne helfen, Zusammenhänge verständlich zu machen, dürfe jedoch nicht als endgültige Entscheidungsgrundlage verwendet werden.
Medizinische Fragen teils problematisch
Hintergrund der Klarstellung dürften auch aktuelle Studien sein, die aufzeigen, wie ChatGPT bereits in der Gesundheitskommunikation genutzt wird. So untersuchte eine Forschergruppe der University of Waterloo die Qualität von Antworten auf medizinische Prüfungsfragen. Dabei stellte sich heraus, dass nur knapp ein Drittel der gegebenen Antworten vollständig korrekt war. Etwa ein weiteres Drittel wurde als verständlich eingestuft, während die restlichen Antworten entweder unklar oder sachlich fehlerhaft ausfielen.
Eine weitere Untersuchung an der University of British Columbia untersuchte den Einfluss der Sprachgestaltung von KI-Systemen auf das Verhalten von Patientinnen und Patienten. Die Forscher kamen zu dem Schluss, dass ChatGPT mit seinem selbstbewussten und zustimmenden Sprachstil besonders überzeugend wirkt. Dies kann dazu führen, dass medizinische Fehlinformationen glaubwürdig erscheinen und Betroffene sich bereits vor einem Arztbesuch festlegen.


Dann gibt es demnächst den LawGPT für 999€ im Monat, angepasst an die Anwaltsgebühren.
Schade, fand es immer gut mir damit rechtliche Aspekte für die Arbeit auszuarbeiten. Für vieles braucht man einen Rechtsanwalt nicht. Das konnte ChatGPT bis jetzt sehr gut machen, z.B. Kündigung säumiger Mieter oder Betrug im Zuge von Insolvenzverfahren. Wenn das nicht mehr geht ist zumindest der Preis noch weniger gerechtfertigt.
Versuch es bei Grok. Ich finde die Aussagen von Grok zuverlässiger und besser aufgearbeitet. Vorgestern hat mir ChatGPT z.B. gesagt, dass Black Friday dieses Jahr am Freitag den 29.11.2025 ist…
+ 1
Den ärztlichen Kollegen empfehle ich an dieser Stelle ein Amboss Abonnement und dazugehörig das GPT Plugin. Auch sehr interessant ist das Werkzeug von OpenEvidence aus den USA – beides leider keine zertifizierten Medizinprodukte in Deutschland.