{"id":264090,"date":"2025-09-02T08:28:27","date_gmt":"2025-09-02T06:28:27","guid":{"rendered":"https:\/\/www.ifun.de\/?p=264090"},"modified":"2025-09-09T17:04:31","modified_gmt":"2025-09-09T15:04:31","slug":"ollama-alternative-osaurus-bringt-lokale-ki-modelle-auf-den-mac","status":"publish","type":"post","link":"https:\/\/www.ifun.de\/ollama-alternative-osaurus-bringt-lokale-ki-modelle-auf-den-mac-264090\/","title":{"rendered":"Ollama-Alternative: Osaurus bringt lokale KI-Modelle auf den Mac"},"content":{"rendered":"<p>Mit Osaurus steht ab sofort ein <a href=\"https:\/\/github.com\/dinoki-ai\/osaurus\">quelloffener KI-Server<\/a> zur Verf\u00fcgung, der speziell f\u00fcr Macs mit Apple-Prozessoren entwickelt wurde und sich als performante Ollama-Alternative bewirbt. Die Anwendung ist kompakt, ben\u00f6tigt lediglich wenige Megabyte Speicherplatz und soll es Anwendern erm\u00f6glichen, KI-Sprachmodelle direkt auf ihren Ger\u00e4ten auszuf\u00fchren.<\/p>\n<p><a href=\"https:\/\/images.ifun.de\/wp-content\/uploads\/2025\/09\/osaurus.png\"><img decoding=\"async\" class=\"aligncenter size-full wp-image-264091\" src=\"https:\/\/images.ifun.de\/wp-content\/uploads\/2025\/09\/osaurus.png\" alt=\"Osaurus\" width=\"500\" \/><\/a><\/p>\n<p>Also ein Projekt auf Nutzer, die Wert auf Datensicherheit legen und ihre Arbeit nicht von Cloud-Diensten abh\u00e4ngig machen wollen.<\/p>\n<h2>Optimiert f\u00fcr Apples M-Prozessoren<\/h2>\n<p>Osaurus nutzt die Architektur der aktuellen M-Chips, die neben CPU und GPU auch \u00fcber eine eigene Neural Engine verf\u00fcgen. Durch die Integration in Apples MLX-Framework kann die Software diese Komponenten direkt ansprechen. Dies soll zu einer h\u00f6heren Geschwindigkeit und einem geringeren Ressourcenverbrauch f\u00fchren als vergleichbare L\u00f6sungen, die auf plattform\u00fcbergreifende Laufzeitumgebungen setzen. Entwickelt wurde Osaurus in Swift, die grafische Oberfl\u00e4che basiert auf SwiftUI. Eine einfache Anzeige f\u00fcr CPU- und Speicherverbrauch ist integriert, sodass Nutzer den laufenden Betrieb einfach \u00fcberwachen k\u00f6nnen.<\/p>\n<p>Neben der App wird ein eigener Server gestartet, der \u00fcber Programmierschnittstellen erreichbar ist. Diese Schnittstellen sind kompatibel mit dem OpenAI-Standard, wodurch sich Osaurus in bestehende Anwendungen und Werkzeuge einbinden l\u00e4sst. <a href=\"https:\/\/dinoki.ai\/blog\/introducing-osaurus-personal-ai-reimagined-for-apple-silicon\">Erste Tests zeigen<\/a>, dass die Software beim Arbeiten mit g\u00e4ngigen Modellen eine sp\u00fcrbare Leistungssteigerung gegen\u00fcber vergleichbaren Programmen bieten kann.<\/p>\n<p><a href=\"https:\/\/images.ifun.de\/wp-content\/uploads\/2025\/08\/ollama-openai.png\"><img loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-large wp-image-262326\" src=\"https:\/\/images.ifun.de\/wp-content\/uploads\/2025\/08\/ollama-openai-700x607.png\" alt=\"Ollama Openai\" width=\"700\" height=\"607\" srcset=\"https:\/\/images.ifun.de\/wp-content\/uploads\/2025\/08\/ollama-openai-700x607.png 700w, https:\/\/images.ifun.de\/wp-content\/uploads\/2025\/08\/ollama-openai-500x434.png 500w, https:\/\/images.ifun.de\/wp-content\/uploads\/2025\/08\/ollama-openai-768x666.png 768w, https:\/\/images.ifun.de\/wp-content\/uploads\/2025\/08\/ollama-openai-1536x1332.png 1536w, https:\/\/images.ifun.de\/wp-content\/uploads\/2025\/08\/ollama-openai-2048x1776.png 2048w\" sizes=\"auto, (max-width: 700px) 100vw, 700px\" \/><\/a><\/p>\n<h6>Osaurus bietet im Gegensatz zu Ollama keine eigene Chat-Oberfl\u00e4che<\/h6>\n<h2>Funktionen und Einsatzm\u00f6glichkeiten<\/h2>\n<p>Osaurus erlaubt den Zugriff auf Modelle, die auf Plattformen wie Hugging Face bereitgestellt werden. \u00dcber die Benutzeroberfl\u00e4che lassen sich diese herunterladen und verwalten. Unterst\u00fctzt werden bekannte Modellreihen wie Llama, Qwen, Gemma oder Mistral.<\/p>\n<p>Voraussetzung f\u00fcr den Einsatz sind macOS 15.5 oder neuer sowie ein Mac mit Apple-Prozessor. Der Quellcode steht auf GitHub bereit, hier l\u00e4sst sich Osaurus auch in einer direkt <a href=\"https:\/\/github.com\/dinoki-ai\/osaurus\">einsetzbaren Version aus dem Netz laden<\/a>. Eine Kommandozeilensteuerung ist angek\u00fcndigt, um Osaurus k\u00fcnftig auch in automatisierten Arbeitsabl\u00e4ufen einsetzen zu k\u00f6nnen.<\/p>\n<h2>Passend zum Thema:<\/h2>\n<ul>\n<li><strong>Mac-App Jan:<\/strong> <a href=\"https:\/\/www.ifun.de\/mac-app-jan-fuehrt-freie-ki-modellen-von-openai-lokal-aus-262756\/\">F\u00fchrt freie KI-Modelle von OpenAI lokal aus<\/a><\/li>\n<li><strong>Ollama mit neuer Mac-App:<\/strong> <a title=\"Ollama mit neuer Mac-App: KI-Sprachmodelle lokal ausf\u00fchren\" href=\"https:\/\/www.ifun.de\/ollama-mit-neuer-mac-app-ki-sprachmodelle-lokal-ausfuehren-261908\/\">KI-Sprachmodelle lokal ausf\u00fchren<\/a><\/li>\n<\/ul>\n<p><img loading=\"lazy\" decoding=\"async\" src=\"https:\/\/vg08.met.vgwort.de\/na\/2a9bb823997c4f00be42261b96584175\" width=\"1\" height=\"1\"  no-lazy class=\"tracking\"><\/p>\n","protected":false},"excerpt":{"rendered":"<a href=\"https:\/\/www.ifun.de\/ollama-alternative-osaurus-bringt-lokale-ki-modelle-auf-den-mac-264090\/\"><img width=\"150\" height=\"150\" src=\"https:\/\/images.ifun.de\/wp-content\/uploads\/2025\/09\/osaurus-app-150x150.jpg\" class=\"alignright tfe wp-post-image\" alt=\"Osaurus App\" decoding=\"async\" loading=\"lazy\" \/><\/a><p>Mit Osaurus steht ab sofort ein quelloffener KI-Server zur Verf\u00fcgung, der speziell f\u00fcr Macs mit Apple-Prozessoren entwickelt wurde und sich als performante Ollama-Alternative bewirbt. Die Anwendung ist kompakt, ben\u00f6tigt lediglich wenige Megabyte Speicherplatz und soll es Anwendern erm\u00f6glichen, KI-Sprachmodelle direkt auf ihren Ger\u00e4ten auszuf\u00fchren. Also ein Projekt auf Nutzer, die Wert auf Datensicherheit legen und [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":264092,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[5,1783],"tags":[4737,6935,6321,6426,52],"class_list":["post-264090","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-apps","category-feature","tag-apps","tag-lokal","tag-mac","tag-ollama","tag-software"],"acf":[],"aioseo_notices":[],"featured_image":["https:\/\/images.ifun.de\/wp-content\/uploads\/2025\/09\/osaurus-app.jpg"],"subheadline":["Optimiert f\u00fcr Apples M-Prozessoren"],"rest_api_enabler":{"featured_image":"https:\/\/images.ifun.de\/wp-content\/uploads\/2025\/09\/osaurus-app.jpg","subheadline":"Optimiert f\u00fcr Apples M-Prozessoren"},"_links":{"self":[{"href":"https:\/\/www.ifun.de\/apiv2\/wp\/v2\/posts\/264090","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.ifun.de\/apiv2\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.ifun.de\/apiv2\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.ifun.de\/apiv2\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/www.ifun.de\/apiv2\/wp\/v2\/comments?post=264090"}],"version-history":[{"count":1,"href":"https:\/\/www.ifun.de\/apiv2\/wp\/v2\/posts\/264090\/revisions"}],"predecessor-version":[{"id":264094,"href":"https:\/\/www.ifun.de\/apiv2\/wp\/v2\/posts\/264090\/revisions\/264094"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.ifun.de\/apiv2\/wp\/v2\/media\/264092"}],"wp:attachment":[{"href":"https:\/\/www.ifun.de\/apiv2\/wp\/v2\/media?parent=264090"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.ifun.de\/apiv2\/wp\/v2\/categories?post=264090"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.ifun.de\/apiv2\/wp\/v2\/tags?post=264090"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}