{"id":267111,"date":"2025-10-15T14:37:18","date_gmt":"2025-10-15T12:37:18","guid":{"rendered":"https:\/\/www.ifun.de\/?p=267111"},"modified":"2025-10-15T14:37:18","modified_gmt":"2025-10-15T12:37:18","slug":"ki-forschung-apple-intelligence-verfasst-lange-texte-besonders-schnell","status":"publish","type":"post","link":"https:\/\/www.ifun.de\/ki-forschung-apple-intelligence-verfasst-lange-texte-besonders-schnell-267111\/","title":{"rendered":"KI-Forschung: Apple Intelligence verfasst lange Texte besonders schnell"},"content":{"rendered":"<p>In <a href=\"https:\/\/machinelearning.apple.com\/research\/fs-dfm\">einer aktuellen Ver\u00f6ffentlichung<\/a> haben Forscher von Apple ein neues Sprachmodell vorgestellt, das l\u00e4ngere Texte deutlich schneller generieren soll als bisherige Verfahren.<\/p>\n<p><a href=\"https:\/\/images.ifun.de\/wp-content\/uploads\/2025\/10\/token-apple.png\"><img loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-medium wp-image-267112\" src=\"https:\/\/images.ifun.de\/wp-content\/uploads\/2025\/10\/token-apple-500x500.png\" alt=\"Token Apple\" width=\"500\" height=\"500\" srcset=\"https:\/\/images.ifun.de\/wp-content\/uploads\/2025\/10\/token-apple-500x500.png 500w, https:\/\/images.ifun.de\/wp-content\/uploads\/2025\/10\/token-apple-700x700.png 700w, https:\/\/images.ifun.de\/wp-content\/uploads\/2025\/10\/token-apple-150x150.png 150w, https:\/\/images.ifun.de\/wp-content\/uploads\/2025\/10\/token-apple-768x768.png 768w, https:\/\/images.ifun.de\/wp-content\/uploads\/2025\/10\/token-apple-1536x1536.png 1536w, https:\/\/images.ifun.de\/wp-content\/uploads\/2025\/10\/token-apple-2048x2048.png 2048w\" sizes=\"auto, (max-width: 500px) 100vw, 500px\" \/><\/a><\/p>\n<p>W\u00e4hrend g\u00e4ngige KI-Sprachmodelle wie ChatGPT sogenannte autoregressive Modelle verwenden, die Token f\u00fcr Token in einer festen Reihenfolge erzeugen, verfolgt das neue Modell einen anderen Ansatz. Es basiert auf der sogenannten Diffusionstechnik, bei der mehrere Textbausteine parallel erstellt und anschlie\u00dfend \u00fcber mehrere Rechenschritte hinweg verfeinert werden.<\/p>\n<p>Diffusionsmodelle gelten als vielversprechend, sind bislang jedoch rechenintensiv. Teilweise werden mehrere hundert bis tausend Rechenschritte ben\u00f6tigt, um ein qualitativ hochwertiges Ergebnis zu erzielen. Das neue Modell mit dem Namen FS-DFM (\u201eFew-Step Discrete Flow-Matching\u201c) reduziert diesen Aufwand deutlich. Statt \u00fcber tausend Durchl\u00e4ufe reichen dem System laut Studie acht Schritte aus, um eine mit ChatGPT vergleichbare Textqualit\u00e4t zu erreichen.<\/p>\n<h2>Neue Trainingsmethode verbessert Textqualit\u00e4t<\/h2>\n<p>Die zentrale Neuerung bei FS-DFM liegt in der Art und Weise, wie das Modell trainiert wurde. Es wurde darauf ausgelegt, auch bei wenigen Bearbeitungsschritten stabile und pr\u00e4zise Ergebnisse zu liefern. Dazu lernt es, die Wahrscheinlichkeit f\u00fcr passende W\u00f6rter effizient zu verschieben, ohne dabei zu stark vom Zieltext abzuweichen. Unterst\u00fctzt wird es durch ein sogenanntes \u201eTeacher Model\u201c, das als Referenz f\u00fcr die Textentwicklung dient. Auf diese Weise sollen sich auch gr\u00f6\u00dfere Spr\u00fcnge im Textverst\u00e4ndnis mit weniger Rechenaufwand zuverl\u00e4ssig umsetzen lassen.<\/p>\n<p><a href=\"https:\/\/images.ifun.de\/wp-content\/uploads\/2025\/10\/8-schritt-token-apple.png\"><img loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-large wp-image-267113\" src=\"https:\/\/images.ifun.de\/wp-content\/uploads\/2025\/10\/8-schritt-token-apple-700x431.png\" alt=\"8 Schritt Token Apple\" width=\"700\" height=\"431\" srcset=\"https:\/\/images.ifun.de\/wp-content\/uploads\/2025\/10\/8-schritt-token-apple-700x431.png 700w, https:\/\/images.ifun.de\/wp-content\/uploads\/2025\/10\/8-schritt-token-apple-500x308.png 500w, https:\/\/images.ifun.de\/wp-content\/uploads\/2025\/10\/8-schritt-token-apple-768x472.png 768w, https:\/\/images.ifun.de\/wp-content\/uploads\/2025\/10\/8-schritt-token-apple-1536x945.png 1536w, https:\/\/images.ifun.de\/wp-content\/uploads\/2025\/10\/8-schritt-token-apple.png 1580w\" sizes=\"auto, (max-width: 700px) 100vw, 700px\" \/><\/a><\/p>\n<p>Bei Tests auf g\u00e4ngigen Sprachmodell-Benchmarks schnitt FS-DFM bei zwei Kennzahlen besonders gut ab: Perplexity und Entropie. Ein niedriger Perplexity-Wert weist auf eine bessere Vorhersagegenauigkeit des Modells hin. Eine kontrollierte Entropie sorgt daf\u00fcr, dass der generierte Text weder zu monoton noch zu zuf\u00e4llig erscheint. Trotz deutlich geringerer Modellgr\u00f6\u00dfen konnte FS-DFM hier mit gr\u00f6\u00dferen Vergleichsmodellen mithalten oder diese sogar \u00fcbertreffen.<\/p>\n<p>Die Forscher planen, den Code und die Modellvarianten zu ver\u00f6ffentlichen, um weiterf\u00fchrende Analysen und Reproduktionen zu erm\u00f6glichen. Das Paper &#8222;FS-DFM: Fast and Accurate Long Text Generation with Few-Step Diffusion Language Models&#8220; <a href=\"https:\/\/arxiv.org\/abs\/2509.20624\">l\u00e4sst sich hier einsehen<\/a>.<\/p>\n<p><img loading=\"lazy\" decoding=\"async\" src=\"https:\/\/vg01.met.vgwort.de\/na\/1f8518ec148d483b8db10391a2a243a0\" width=\"1\" height=\"1\"  no-lazy class=\"tracking\"><\/p>\n","protected":false},"excerpt":{"rendered":"<a href=\"https:\/\/www.ifun.de\/ki-forschung-apple-intelligence-verfasst-lange-texte-besonders-schnell-267111\/\"><img width=\"150\" height=\"150\" src=\"https:\/\/images.ifun.de\/wp-content\/uploads\/2025\/10\/ki-forschung-apple-150x150.jpg\" class=\"alignright tfe wp-post-image\" alt=\"Ki Forschung Apple\" decoding=\"async\" loading=\"lazy\" \/><\/a><p>In einer aktuellen Ver\u00f6ffentlichung haben Forscher von Apple ein neues Sprachmodell vorgestellt, das l\u00e4ngere Texte deutlich schneller generieren soll als bisherige Verfahren. W\u00e4hrend g\u00e4ngige KI-Sprachmodelle wie ChatGPT sogenannte autoregressive Modelle verwenden, die Token f\u00fcr Token in einer festen Reihenfolge erzeugen, verfolgt das neue Modell einen anderen Ansatz. Es basiert auf der sogenannten Diffusionstechnik, bei der [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":267114,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[3],"tags":[4736,436,3536,6065],"class_list":["post-267111","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-apple","tag-apple","tag-forschung","tag-ki","tag-kuenstliche-intelligenz"],"acf":[],"aioseo_notices":[],"featured_image":["https:\/\/images.ifun.de\/wp-content\/uploads\/2025\/10\/ki-forschung-apple.jpg"],"subheadline":["Neue Trainingsmethode verbessert Textqualit\u00e4t"],"rest_api_enabler":{"featured_image":"https:\/\/images.ifun.de\/wp-content\/uploads\/2025\/10\/ki-forschung-apple.jpg","subheadline":"Neue Trainingsmethode verbessert Textqualit\u00e4t"},"_links":{"self":[{"href":"https:\/\/www.ifun.de\/apiv2\/wp\/v2\/posts\/267111","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.ifun.de\/apiv2\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.ifun.de\/apiv2\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.ifun.de\/apiv2\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/www.ifun.de\/apiv2\/wp\/v2\/comments?post=267111"}],"version-history":[{"count":1,"href":"https:\/\/www.ifun.de\/apiv2\/wp\/v2\/posts\/267111\/revisions"}],"predecessor-version":[{"id":267115,"href":"https:\/\/www.ifun.de\/apiv2\/wp\/v2\/posts\/267111\/revisions\/267115"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.ifun.de\/apiv2\/wp\/v2\/media\/267114"}],"wp:attachment":[{"href":"https:\/\/www.ifun.de\/apiv2\/wp\/v2\/media?parent=267111"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.ifun.de\/apiv2\/wp\/v2\/categories?post=267111"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.ifun.de\/apiv2\/wp\/v2\/tags?post=267111"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}