Einfache Nutzung wird möglich
Stable Diffusion 2.0: KI-Bildgenerator macht großen Sprung
Seit mehreren Monaten verfolgen wir die Entwicklungen rund um den KI-Bildgenerator Stable Diffusion mit großen Interesse. Nicht nur, weil uns die grafisch beeindruckenden Ergebnisse faszinieren, die nach Eingabe kurzer Textbeschreibungen quasi aus dem Nichts erstehen, sondern auch, weil mittlerweile endlich die ersten einfachen Implementierungen für jedermann bereitstehen.
Stable Diffusion 2.0: Generiert Bilder aus dem Nichts
Einfache Nutzung wird möglich
Mit Mac-Anwendungen wie Diffusion Bee oder CHARL-E und iPhone-Applikationen wie dem jüngst auf ifun.de vorgestellten Freeware-Download Draw Things braucht es inzwischen weder einen Informatik-Abschluss um eigene Experimente mit Stable Diffusion anzustellen, noch muss das Grundvertrauen in eine der zahlreichen Online-Plattformen aufgebracht werden, die die Nutzung von Stable Diffusion im Netz ermöglichen.
- Stable Diffusion für den Mac: Bildgeneration CHARL-E
- Stable Diffusion für den Mac: Bildgeneration Diffusion Bee
- Stable Diffusion auf dem iPhone: App-Tipp Draw Things
Mit den Downloads für macOS und iOS lässt sich die Bild-Erstellung durch intelligente Algorithmen lokal auf den eigenen Maschinen ausprobieren. Account- und kostenfrei, ohne irgendwelche Datenspuren zu hinterlassen. Und es kann nur besser werden.
Stable Diffusion 2.0: Grafik-Ergebnisse sollen hochwertiger sein
Stable Diffusion 2.0
So wurde heute Version 2.0 des Stable-Diffusion-Modells auf der Code-Plattform GitHub veröffentlicht. Die neue Version bietet viele große Verbesserungen an. So stehen neue Text-to-Image-Modelle bereit, die Bilder mit deutlichen Qualitätsverbesserungen in Auflösungen von 512 px x 512 px und 768 px x 768 px generieren können.
Super-Resolution-Upscaler wertet Auflösungen auf
Ein neuer Super-Resolution-Upscaler kann kleine Bilder zudem auf Auflösungen von bis zu 2048 px x 2048 px hochskalieren. Das ebenfalls neue Depth-to-Image-Modell erweitert die sogenannte Image-to-Image-Funktion dahingehend, dass Bildeingaben mit Text- und Tiefen-Informationen kombiniert werden können.
Stable Diffusion 2.0: Das Depth-to-Image-Modell
Damit lassen sich Bilder inhaltlich komplett umgestalten, behalten aber die vorhandenen Tiefen-Informationen und entsprechend auch ihre Komposition. Das Auswechseln von Bildbestandteilen soll durch das neue Inpainting-Modul zudem deutlich verbessert worden sein.
Depth-to-Image-Modell in Aktion
Wir melden uns erneut, sobald Stable Diffusion 2.0 wieder in einfach bedienbaren Mac- und iPhone-Apps angeboten wird.