{"id":237834,"date":"2024-08-19T12:57:29","date_gmt":"2024-08-19T10:57:29","guid":{"rendered":"https:\/\/www.ifun.de\/?p=237834"},"modified":"2024-08-19T12:58:50","modified_gmt":"2024-08-19T10:58:50","slug":"ki-chat-macht-serioesen-autor-zum-kinderschaender","status":"publish","type":"post","link":"https:\/\/www.ifun.de\/ki-chat-macht-serioesen-autor-zum-kinderschaender-237834\/","title":{"rendered":"KI-Chat macht seri\u00f6sen Autor zum Kindersch\u00e4nder"},"content":{"rendered":"<p>Als zu Monatsbeginn Details zu den von Apple f\u00fcr seine KI-Funktionen hinterlegten Regeln <a href=\"https:\/\/www.iphone-ticker.de\/apples-ki-instruktionen-halluziniere-nicht-denke-dir-nichts-aus-239541\/\" title=\"Apples KI-Instruktionen: \u201cHalluziniere nicht. Denke dir nichts aus.\u201d\">bekannt wurden<\/a>, ist man auch \u00fcber Anweisungen wie \u201eHalluziniere nicht\u201c oder \u201eDenk dir nichts aus\u201c gestolpert. Solche Vorgaben m\u00f6gen albern klingen, sind im Zusammenhang mit KI-Modellen aber durchaus begr\u00fcndet. Der Fall des T\u00fcbinger Journalisten Martin Bernklau zeigt, welche zum Teil abstrusen Schl\u00fcsse die mit \u201ek\u00fcnstlicher Intelligenz\u201c ausgestatteten Chat-Roboter ziehen k\u00f6nnen, wenn man sie nur oberfl\u00e4chlich instruiert und ihnen keine Grenzen setzt.<\/p>\n<p><a href=\"https:\/\/images.ifun.de\/wp-content\/uploads\/2024\/08\/mac-tastatur-haede.jpg\"><img loading=\"lazy\" decoding=\"async\" src=\"https:\/\/images.ifun.de\/wp-content\/uploads\/2024\/08\/mac-tastatur-haede-500x332.jpg\" alt=\"Mac Tastatur Haede\" width=\"500\" height=\"332\" class=\"alignnone size-medium wp-image-237842\" srcset=\"https:\/\/images.ifun.de\/wp-content\/uploads\/2024\/08\/mac-tastatur-haede-500x332.jpg 500w, https:\/\/images.ifun.de\/wp-content\/uploads\/2024\/08\/mac-tastatur-haede-700x464.jpg 700w, https:\/\/images.ifun.de\/wp-content\/uploads\/2024\/08\/mac-tastatur-haede-768x509.jpg 768w, https:\/\/images.ifun.de\/wp-content\/uploads\/2024\/08\/mac-tastatur-haede.jpg 1000w\" sizes=\"auto, (max-width: 500px) 100vw, 500px\" \/><\/a><\/p>\n<p>Nach Bernklau befragt, hat der KI-Chat Microsoft Copilot den Journalisten unter anderem als verurteilten Kindersch\u00e4nder, Ausbrecher aus der Psychiatrie und Betr\u00fcger bezeichnet. Er sei in einem Missbrauchs-Fall gegen Kinder und Schutzbefohlene angeklagt gewesen und habe sich vor Gericht gest\u00e4ndig und reuig gezeigt oder auch Teil eines Quartetts gewesen, das spektakul\u00e4r aus einem Zentrum f\u00fcr Psychiatrie ausgebrochen war. Dar\u00fcber hinaus habe er als skrupelloser Bestatter trauernde Frauen ausgenutzt.<\/p>\n<p>Gegen\u00fcber dem <a href=\"https:\/\/www.swr.de\/swraktuell\/baden-wuerttemberg\/tuebingen\/ki-macht-tuebinger-journalist-zum-kinderschaender-100.html\">SWR<\/a> hat Bernklau berichtet, dass er auf diese Inhalte gesto\u00dfen ist, als er mithilfe von Microsoft Copilot \u00fcber ein von ihm betriebenes Blog recherchieren wollte. Im Verlauf der Kommunikation habe der Chat-Roboter sogar noch verlauten lassen, dass es bedauerlich sei, dass ein Mensch wie er Familie hat.<\/p>\n<p><video poster=\"\" preload=\"auto\" controls=\"controls\" width=\"100%\"><source src=\"https:\/\/pdodswr-a.akamaihd.net\/swr\/swraktuell\/bw\/tv\/2097626.avc-540.mp4\" \/><\/video><\/p>\n<h2>KI-Chat reimt sich Antworten zusammen<\/h2>\n<p>Wie solche Aussagen zustande kommen, kann eine vom SWR befragte Medienethikerin deuten. Der KI-Chat wolle unbedingt antworten und neige aufgrund dessen auch dazu, fiktive Inhalte zu konstruieren. Die Wissenschaft bezeichnet dies im Zusammenhang mit K\u00fcnstlicher Intelligenz dann auch als \u201eHalluzination\u201c.<\/p>\n<p>Wenn man die Vorgeschichte des Journalisten kennt, wird auch schnell klar, an welcher Stelle die Microsoft-KI falsch abgebogen ist. Bernklau war auch lange Jahre als Gerichtsreporter t\u00e4tig und hat f\u00fcr verschiedene Publikationen \u00fcber eben solche F\u00e4lle berichtet. Sein Name unter den Artikeln ist offenbar ausreichend daf\u00fcr, dass ein schlecht konfigurierter Chat-Roboter komplett falsche Schl\u00fcsse zieht.<\/p>\n<h2>Keine rechtliche Handhabe<\/h2>\n<p>Rechtlich hat man in solch einem Fall \u00fcbrigens schlechte Karten. Die Staatsanwaltschaft hat im Fall von Bernklau eine Anzeige abgelehnt, weil der Urheber der Verleumdungen keine reale Person sei.<\/p>\n<p>Microsoft hat die Aussagen nach Intervention eines Datenschutzbeauftragten zwar kurzfristig entfernt. Allerdings seine von Copilot schon nach wenigen Tagen wieder dieselben Aussagen get\u00e4tigt worden.<img loading=\"lazy\" decoding=\"async\" src=\"https:\/\/vg06.met.vgwort.de\/na\/b45d5cf694e04a81bd249ef16f54b70c\" width=\"1\" height=\"1\" no-lazy class=\"tracking\"><\/p>\n","protected":false},"excerpt":{"rendered":"<a href=\"https:\/\/www.ifun.de\/ki-chat-macht-serioesen-autor-zum-kinderschaender-237834\/\"><img width=\"150\" height=\"150\" src=\"https:\/\/images.ifun.de\/wp-content\/uploads\/2024\/08\/microsoft-copilot-150x150.jpg\" class=\"alignright tfe wp-post-image\" alt=\"Microsoft Copilot\" decoding=\"async\" loading=\"lazy\" \/><\/a><p>Als zu Monatsbeginn Details zu den von Apple f\u00fcr seine KI-Funktionen hinterlegten Regeln bekannt wurden, ist man auch \u00fcber Anweisungen wie \u201eHalluziniere nicht\u201c oder \u201eDenk dir nichts aus\u201c gestolpert. Solche Vorgaben m\u00f6gen albern klingen, sind im Zusammenhang mit KI-Modellen aber durchaus begr\u00fcndet. Der Fall des T\u00fcbinger Journalisten Martin Bernklau zeigt, welche zum Teil abstrusen Schl\u00fcsse [&hellip;]<\/p>\n","protected":false},"author":2,"featured_media":237839,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[1],"tags":[6065,6356],"class_list":["post-237834","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-news","tag-kuenstliche-intelligenz","tag-microsoft-copilot"],"acf":[],"aioseo_notices":[],"featured_image":["https:\/\/images.ifun.de\/wp-content\/uploads\/2024\/08\/microsoft-copilot-feature.jpg"],"subheadline":["Microsoft Copilot \"halluziniert\""],"rest_api_enabler":{"featured_image":"https:\/\/images.ifun.de\/wp-content\/uploads\/2024\/08\/microsoft-copilot-feature.jpg","subheadline":"Microsoft Copilot \"halluziniert\""},"_links":{"self":[{"href":"https:\/\/www.ifun.de\/apiv2\/wp\/v2\/posts\/237834","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.ifun.de\/apiv2\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.ifun.de\/apiv2\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.ifun.de\/apiv2\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/www.ifun.de\/apiv2\/wp\/v2\/comments?post=237834"}],"version-history":[{"count":11,"href":"https:\/\/www.ifun.de\/apiv2\/wp\/v2\/posts\/237834\/revisions"}],"predecessor-version":[{"id":237852,"href":"https:\/\/www.ifun.de\/apiv2\/wp\/v2\/posts\/237834\/revisions\/237852"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.ifun.de\/apiv2\/wp\/v2\/media\/237839"}],"wp:attachment":[{"href":"https:\/\/www.ifun.de\/apiv2\/wp\/v2\/media?parent=237834"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.ifun.de\/apiv2\/wp\/v2\/categories?post=237834"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.ifun.de\/apiv2\/wp\/v2\/tags?post=237834"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}