0.4.0 bringt neue Serverfunktionen
LM Studio: KI-Alleskönner mit frischer Oberfläche und neuen Funktionen
Mit Version 0.4.0 hat das Entwicklerteam von LM Studio eine neue Ausbaustufe seiner lokalen KI-Umgebung veröffentlicht. Im Mittelpunkt stehen Änderungen an der technischen Architektur, neue Schnittstellen für Entwickler sowie Anpassungen an der Bedienoberfläche.
Ziel ist es, den Einsatz lokaler Sprachmodelle stärker über einzelne Desktop-Installationen hinaus zu öffnen und zugleich effizienter zu gestalten.
Trennung von Oberfläche und Kernsystem
Eine zentrale Neuerung ist der sogenannte Daemon-Modus. Der bisher eng mit der grafischen Oberfläche verbundene Kern von LM Studio kann nun als eigenständiger Hintergrunddienst betrieben werden. Damit lässt sich die Software ohne Benutzeroberfläche auf Servern, in Cloud-Umgebungen oder in automatisierten Test- und Build-Prozessen einsetzen. Die Steuerung erfolgt über Terminal-Befehle, mit denen Modelle geladen, Server gestartet oder interaktive Sitzungen geöffnet werden können. Die Desktop-App bleibt weiterhin nutzbar, ist technisch jedoch klar vom eigentlichen Ausführungssystem getrennt.
Parallel dazu wurde die interne Verarbeitung von Anfragen erweitert. Mehrere Anfragen an dasselbe Modell können nun gleichzeitig bearbeitet werden. Statt jede Anfrage strikt nacheinander abzuarbeiten, fasst das System Rechenoperationen zusammen und verteilt Ressourcen dynamisch. Nutzer können festlegen, wie viele parallele Berechnungen zugelassen sind und ob der verfügbare Speicher flexibel zwischen den Anfragen aufgeteilt wird.
Neue Schnittstellen und Werkzeuge für Entwickler
Für die Anbindung externer Anwendungen führt LM Studio eine neue REST-Schnittstelle ein. Diese arbeitet zustandsbehaftet und erlaubt es, längere Dialoge fortzuführen, ohne bei jeder Anfrage den kompletten Gesprächsverlauf zu übertragen. Ergänzend liefert die Schnittstelle technische Kennzahlen wie Token-Mengen und Antwortzeiten, die bei der Leistungsanalyse helfen. Der Zugriff lässt sich über Schlüssel absichern, um festzulegen, welche Clients den lokalen Server nutzen dürfen.
Auch die Benutzeroberfläche wurde überarbeitet. Chats lassen sich nun exportieren, mehrere Gespräche können nebeneinander angezeigt werden und ein spezieller Entwicklermodus schaltet zusätzliche Optionen frei. Eine integrierte Dokumentation erläutert neue Befehle und Schnittstellen direkt in der Anwendung. Damit richtet sich Version 0.4.0 sowohl an technisch versierte Nutzer als auch an Entwickler, die lokale KI-Modelle in eigene Arbeitsabläufe integrieren möchten.
LM Studio wird weiterhin komplett kostenlos angeboten.




Klingt super.
Was läuft eigentlich besser/schneller auf Macs Ollama oder LM-Studio (Was ist empfehlenswerter)? Ich habe bisher nur Erfahrungen Ollama. Ollama war mir sympathischer weil es open source ist. Für beide gibt es PlugIns für VS-Code. Wobei ich bisher nur eines mal ausprobiert habe.