{"id":278385,"date":"2026-04-22T07:29:20","date_gmt":"2026-04-22T05:29:20","guid":{"rendered":"https:\/\/www.ifun.de\/?p=278385"},"modified":"2026-04-22T07:41:02","modified_gmt":"2026-04-22T05:41:02","slug":"chatgpt-images-2-0-ki-bilder-werden-praeziser-und-vielseitiger","status":"publish","type":"post","link":"https:\/\/www.ifun.de\/chatgpt-images-2-0-ki-bilder-werden-praeziser-und-vielseitiger-278385\/","title":{"rendered":"ChatGPT Images 2.0: KI-Bilder werden pr\u00e4ziser und vielseitiger"},"content":{"rendered":"<p>Ein Jahr nach der <a href=\"https:\/\/www.ifun.de\/chatgpt-kann-jetzt-auch-bilder-konsistent-und-im-kontext-251361\/\">Einf\u00fchrung der ersten Bildfunktionen<\/a> erweitert OpenAI die M\u00f6glichkeiten zur Erstellung visueller Inhalte in ChatGPT deutlich. Mit \u201e<a href=\"https:\/\/openai.com\/index\/introducing-chatgpt-images-2-0\">Images 2.0<\/a>\u201c stellt das Unternehmen ein neues Modell vor, das komplexe Bildaufgaben zuverl\u00e4ssiger umsetzen soll. Im Mittelpunkt steht eine genauere Verarbeitung von Anweisungen.<\/p>\n<p><a href=\"https:\/\/images.ifun.de\/wp-content\/uploads\/2026\/04\/chatgpt-images-2-visual-polyglot.jpg\"><img loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-medium wp-image-278387\" src=\"https:\/\/images.ifun.de\/wp-content\/uploads\/2026\/04\/chatgpt-images-2-visual-polyglot-500x424.jpg\" alt=\"Chatgpt Images 2 Visual Polyglot\" width=\"500\" height=\"424\" srcset=\"https:\/\/images.ifun.de\/wp-content\/uploads\/2026\/04\/chatgpt-images-2-visual-polyglot-500x424.jpg 500w, https:\/\/images.ifun.de\/wp-content\/uploads\/2026\/04\/chatgpt-images-2-visual-polyglot-700x594.jpg 700w, https:\/\/images.ifun.de\/wp-content\/uploads\/2026\/04\/chatgpt-images-2-visual-polyglot-768x652.jpg 768w, https:\/\/images.ifun.de\/wp-content\/uploads\/2026\/04\/chatgpt-images-2-visual-polyglot.jpg 1200w\" sizes=\"auto, (max-width: 500px) 100vw, 500px\" \/><\/a><\/p>\n<p>Ob Text, Symbole oder Benutzeroberfl\u00e4chen, die Inhalte sollen pr\u00e4ziser platziert und nachvollziehbar dargestellt werden.<\/p>\n<p>Das Modell kann auch umfangreiche Bildkompositionen besser strukturieren und Details wie kleine Beschriftungen oder grafische Elemente klarer ausgeben. Damit sollen Ergebnisse entstehen, die sich direkt weiterverwenden lassen, etwa f\u00fcr Pr\u00e4sentationen, Infografiken oder Marketingmaterialien. Unterst\u00fctzt werden verschiedene Bildformate, von breiten Bannern bis zu hochformatigen Darstellungen f\u00fcr mobile Anwendungen.<\/p>\n<p><div class=\"responsive-video\"><iframe src=\"https:\/\/www.ifun.de\/yt\/index.html?v=-7JSa_luc6k\" allow=\"autoplay; fullscreen; picture-in-picture; encrypted-media\" referrerpolicy=\"strict-origin-when-cross-origin\" allowfullscreen><\/iframe><\/div><\/p>\n<p>Neu ist zudem die M\u00f6glichkeit, mehrere Bildvarianten auf einmal zu erzeugen. Nutzer k\u00f6nnen so unterschiedliche Entw\u00fcrfe vergleichen, ohne jeden Vorschlag einzeln anfordern zu m\u00fcssen. In Kombination mit sogenannten \u201eThinking\u201c-Modellen kann die Bildfunktion auch aktuelle Informationen aus dem Internet einbeziehen und ihre Ergebnisse eigenst\u00e4ndig pr\u00fcfen.<\/p>\n<h2>Verbesserungen bei Sprache und Stil<\/h2>\n<p>Ein Schwerpunkt der neuen Version liegt auf der Verarbeitung von Sprache innerhalb von Bildern. W\u00e4hrend fr\u00fchere Modelle vor allem bei englischen Texten zuverl\u00e4ssig arbeiteten, wurde die Darstellung anderer Schriftsysteme oft fehlerhaft umgesetzt. Images 2.0 soll hier Fortschritte bieten und auch komplexe Inhalte in Sprachen wie Japanisch, Koreanisch, Chinesisch oder Hindi korrekt darstellen k\u00f6nnen.<\/p>\n<p>Dar\u00fcber hinaus wurde die stilistische Bandbreite erweitert. Das Modell kann unterschiedliche visuelle Stile, etwa Fotografie, Comics oder grafische Layouts, genauer nachbilden. Dabei ber\u00fccksichtigt es auch typische Eigenschaften wie Lichtstimmung, Bildrauschen oder Materialstrukturen, um realistisch wirkende Ergebnisse zu erzeugen.<\/p>\n<p><div class=\"responsive-video\"><iframe src=\"https:\/\/www.ifun.de\/yt\/index.html?v=6SIDwCQZkU8\" allow=\"autoplay; fullscreen; picture-in-picture; encrypted-media\" referrerpolicy=\"strict-origin-when-cross-origin\" allowfullscreen><\/iframe><\/div><\/p>\n<p>Technisch greift das System auf ein erweitertes Wissen um aktuelle Ereignisse mit Stand Ende 2025 zur\u00fcck. Dadurch sollen Inhalte aktueller und kontextuell passender sein, insbesondere bei erkl\u00e4renden Darstellungen oder Infografiken. Trotz dieser Fortschritte gibt es weiterhin Einschr\u00e4nkungen. Komplexe r\u00e4umliche Aufgaben oder sehr feine, sich wiederholende Details k\u00f6nnen weiterhin zu Fehlern f\u00fchren.<\/p>\n<p><a href=\"https:\/\/openai.com\/index\/introducing-chatgpt-images-2-0\">Images 2.0<\/a> ist ab sofort in ChatGPT sowie in der <a href=\"https:\/\/www.ifun.de\/openai-erweitert-entwickler-app-codex-erhaelt-plugin-system-277127\/\">Entwicklungsumgebung Codex<\/a> verf\u00fcgbar.<\/p>\n<p><img loading=\"lazy\" decoding=\"async\" src=\"https:\/\/vg07.met.vgwort.de\/na\/ba37bc7fd7fc4059a3099f011fbcd496\" width=\"1\" height=\"1\"  no-lazy class=\"tracking\"><\/p>\n","protected":false},"excerpt":{"rendered":"<a href=\"https:\/\/www.ifun.de\/chatgpt-images-2-0-ki-bilder-werden-praeziser-und-vielseitiger-278385\/\"><img width=\"150\" height=\"150\" src=\"https:\/\/images.ifun.de\/wp-content\/uploads\/2026\/04\/chatgpt-images-2-0-feature-150x150.jpg\" class=\"alignright tfe wp-post-image\" alt=\"Chatgpt Images 2 0 Feature\" decoding=\"async\" loading=\"lazy\" \/><\/a><p>Ein Jahr nach der Einf\u00fchrung der ersten Bildfunktionen erweitert OpenAI die M\u00f6glichkeiten zur Erstellung visueller Inhalte in ChatGPT deutlich. Mit \u201eImages 2.0\u201c stellt das Unternehmen ein neues Modell vor, das komplexe Bildaufgaben zuverl\u00e4ssiger umsetzen soll. Im Mittelpunkt steht eine genauere Verarbeitung von Anweisungen. Ob Text, Symbole oder Benutzeroberfl\u00e4chen, die Inhalte sollen pr\u00e4ziser platziert und nachvollziehbar [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":278388,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[1],"tags":[415,6006,3536,6317],"class_list":["post-278385","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-news","tag-bilder","tag-chatgpt","tag-ki","tag-openai"],"acf":[],"aioseo_notices":[],"featured_image":["https:\/\/images.ifun.de\/wp-content\/uploads\/2026\/04\/chatgpt-images-2-0-feature.jpg"],"subheadline":["Mehr Kontrolle bei der Bildgenerierung"],"rest_api_enabler":{"featured_image":"https:\/\/images.ifun.de\/wp-content\/uploads\/2026\/04\/chatgpt-images-2-0-feature.jpg","subheadline":"Mehr Kontrolle bei der Bildgenerierung"},"_links":{"self":[{"href":"https:\/\/www.ifun.de\/apiv2\/wp\/v2\/posts\/278385","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.ifun.de\/apiv2\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.ifun.de\/apiv2\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.ifun.de\/apiv2\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/www.ifun.de\/apiv2\/wp\/v2\/comments?post=278385"}],"version-history":[{"count":2,"href":"https:\/\/www.ifun.de\/apiv2\/wp\/v2\/posts\/278385\/revisions"}],"predecessor-version":[{"id":278395,"href":"https:\/\/www.ifun.de\/apiv2\/wp\/v2\/posts\/278385\/revisions\/278395"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.ifun.de\/apiv2\/wp\/v2\/media\/278388"}],"wp:attachment":[{"href":"https:\/\/www.ifun.de\/apiv2\/wp\/v2\/media?parent=278385"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.ifun.de\/apiv2\/wp\/v2\/categories?post=278385"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.ifun.de\/apiv2\/wp\/v2\/tags?post=278385"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}