{"id":261908,"date":"2025-07-31T08:24:15","date_gmt":"2025-07-31T06:24:15","guid":{"rendered":"https:\/\/www.ifun.de\/?p=261908"},"modified":"2025-07-31T08:24:15","modified_gmt":"2025-07-31T06:24:15","slug":"ollama-mit-neuer-mac-app-ki-sprachmodelle-lokal-ausfuehren","status":"publish","type":"post","link":"https:\/\/www.ifun.de\/ollama-mit-neuer-mac-app-ki-sprachmodelle-lokal-ausfuehren-261908\/","title":{"rendered":"Ollama mit neuer Mac-App: KI-Sprachmodelle lokal ausf\u00fchren"},"content":{"rendered":"<p><a href=\"https:\/\/ollama.com\/\">Ollama<\/a> ist ein quelloffenes Werkzeug zur Ausf\u00fchrung gro\u00dfer Sprachmodelle auf dem eigenen Rechner. ifun.de-Leser kennen das Tool <a href=\"https:\/\/www.ifun.de\/ollama-mac-app-fuehrt-ki-chatbot-von-meta-lokal-aus-219790\/\">seit Herbst 2023<\/a>. Im Gegensatz zu cloudbasierten Angeboten verlassen dabei weder Eingaben noch Ausgaben das genutzte System.<\/p>\n<p><a href=\"https:\/\/images.ifun.de\/wp-content\/uploads\/2025\/07\/modalpartikel-1.png\"><img loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-medium wp-image-261910\" src=\"https:\/\/images.ifun.de\/wp-content\/uploads\/2025\/07\/modalpartikel-1-500x390.png\" alt=\"Modalpartikel\" width=\"500\" height=\"390\" srcset=\"https:\/\/images.ifun.de\/wp-content\/uploads\/2025\/07\/modalpartikel-1-500x390.png 500w, https:\/\/images.ifun.de\/wp-content\/uploads\/2025\/07\/modalpartikel-1-700x546.png 700w, https:\/\/images.ifun.de\/wp-content\/uploads\/2025\/07\/modalpartikel-1-768x600.png 768w, https:\/\/images.ifun.de\/wp-content\/uploads\/2025\/07\/modalpartikel-1-1536x1199.png 1536w, https:\/\/images.ifun.de\/wp-content\/uploads\/2025\/07\/modalpartikel-1.png 1824w\" sizes=\"auto, (max-width: 500px) 100vw, 500px\" \/><\/a><\/p>\n<h2>Ollama macht lokale KI-Modelle nutzbar<\/h2>\n<p>Das macht Ollama vor allem f\u00fcr Entwickler, Hobbyisten, Bildungseinrichtungen und  datenschutzsensible Unternehmen interessant. Neben der schon l\u00e4nger verf\u00fcgbaren Kommandozeilensteuerung steht seit Kurzem auch eine grafische Oberfl\u00e4che zur Verf\u00fcgung, die den Einstieg und die Nutzung erleichtert.<\/p>\n<p><video poster=\"\" preload=\"auto\" controls=\"controls\" width=\"100%\" ><source src=\"https:\/\/files.ollama.com\/ollama_chat.mp4#t=0.01\" \/><\/video><\/p>\n<p>Mit der jetzt <a href=\"https:\/\/ollama.com\/download\">neu ver\u00f6ffentlichten Mac-Anwendung<\/a> \u00f6ffnet sich das Projekt einer breiteren Zielgruppe. Die neue Applikation erm\u00f6glicht die lokale Interaktion mit Sprachmodellen \u00fcber eine Benutzeroberfl\u00e4che, ohne dass zus\u00e4tzliche Tools oder Terminalkenntnisse erforderlich sind. KI-Modelle lassen sich direkt aus der Anwendung laden und starten, Gespr\u00e4che laufen in einem klassischen Chatfenster ab.<\/p>\n<h2>Dateiverarbeitung und Bilderkennung<\/h2>\n<p>Die neue Mac-App erlaubt dar\u00fcber hinaus das Einbinden eigener Dateien. Per Drag-and-drop lassen sich PDFs oder Textdokumente direkt in das Chatfenster ziehen, um deren Inhalte analysieren oder zusammenfassen zu lassen. Auch Quellcode-Dateien lassen sich verarbeiten, was sich etwa f\u00fcr die Erstellung technischer Dokumentationen nutzen l\u00e4sst.<\/p>\n<p><video poster=\"\" preload=\"auto\" controls=\"controls\" width=\"100%\" ><source src=\"https:\/\/files.ollama.com\/pdf_reading.mp4#t=0.01\" \/><\/video><\/p>\n<p>Erg\u00e4nzend dazu unterst\u00fctzt Ollama nun auch sogenannte multimodale Modelle, die neben Text auch Bilder interpretieren k\u00f6nnen. Dies gilt etwa f\u00fcr das Google-Modell &#8222;Gemma 3&#8220;. Nutzer k\u00f6nnen Bilder zur Auswertung \u00fcbergeben, sofern das jeweils aktive Modell entsprechende Funktionen unterst\u00fctzt.<\/p>\n<p>F\u00fcr komplexere Aufgaben l\u00e4sst sich in den Einstellungen die sogenannte Kontextl\u00e4nge anpassen. Dies erweitert den f\u00fcr das Modell sichtbaren Eingabebereich und verbessert dadurch die Verarbeitung umfangreicher Texte. Der erh\u00f6hte Speicherbedarf erfordert allerdings ausreichend leistungsf\u00e4hige Hardware. Die klassische Kommandozeilenversion von Ollama bleibt weiterhin verf\u00fcgbar.<\/p>\n<p><a href=\"https:\/\/images.ifun.de\/wp-content\/uploads\/2025\/07\/context_length.png\"><img loading=\"lazy\" decoding=\"async\" src=\"https:\/\/images.ifun.de\/wp-content\/uploads\/2025\/07\/context_length-700x164.png\" alt=\"Context Length\" width=\"700\" height=\"164\" class=\"aligncenter size-large wp-image-261911\" srcset=\"https:\/\/images.ifun.de\/wp-content\/uploads\/2025\/07\/context_length-700x164.png 700w, https:\/\/images.ifun.de\/wp-content\/uploads\/2025\/07\/context_length-500x117.png 500w, https:\/\/images.ifun.de\/wp-content\/uploads\/2025\/07\/context_length-768x180.png 768w, https:\/\/images.ifun.de\/wp-content\/uploads\/2025\/07\/context_length.png 1360w\" sizes=\"auto, (max-width: 700px) 100vw, 700px\" \/><\/a><\/p>\n<p><img loading=\"lazy\" decoding=\"async\" src=\"https:\/\/vg06.met.vgwort.de\/na\/85937ae836e249ae8e5327b4ea622846\" width=\"1\" height=\"1\"  no-lazy class=\"tracking\"><\/p>\n","protected":false},"excerpt":{"rendered":"<a href=\"https:\/\/www.ifun.de\/ollama-mit-neuer-mac-app-ki-sprachmodelle-lokal-ausfuehren-261908\/\"><img width=\"150\" height=\"150\" src=\"https:\/\/images.ifun.de\/wp-content\/uploads\/2025\/07\/context_length-150x150.png\" class=\"alignright tfe wp-post-image\" alt=\"Context Length\" decoding=\"async\" loading=\"lazy\" \/><\/a><p>Ollama ist ein quelloffenes Werkzeug zur Ausf\u00fchrung gro\u00dfer Sprachmodelle auf dem eigenen Rechner. ifun.de-Leser kennen das Tool seit Herbst 2023. Im Gegensatz zu cloudbasierten Angeboten verlassen dabei weder Eingaben noch Ausgaben das genutzte System. Ollama macht lokale KI-Modelle nutzbar Das macht Ollama vor allem f\u00fcr Entwickler, Hobbyisten, Bildungseinrichtungen und datenschutzsensible Unternehmen interessant. Neben der schon [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":261911,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[5],"tags":[4737,3536,6065,6321,6426],"class_list":["post-261908","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-apps","tag-apps","tag-ki","tag-kuenstliche-intelligenz","tag-mac","tag-ollama"],"acf":[],"aioseo_notices":[],"featured_image":["https:\/\/images.ifun.de\/wp-content\/uploads\/2025\/07\/ollama-mac.jpg"],"subheadline":["Lokale KI-Modelle ohne Cloud-Anbindung"],"rest_api_enabler":{"featured_image":"https:\/\/images.ifun.de\/wp-content\/uploads\/2025\/07\/ollama-mac.jpg","subheadline":"Lokale KI-Modelle ohne Cloud-Anbindung"},"_links":{"self":[{"href":"https:\/\/www.ifun.de\/apiv2\/wp\/v2\/posts\/261908","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.ifun.de\/apiv2\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.ifun.de\/apiv2\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.ifun.de\/apiv2\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/www.ifun.de\/apiv2\/wp\/v2\/comments?post=261908"}],"version-history":[{"count":1,"href":"https:\/\/www.ifun.de\/apiv2\/wp\/v2\/posts\/261908\/revisions"}],"predecessor-version":[{"id":261912,"href":"https:\/\/www.ifun.de\/apiv2\/wp\/v2\/posts\/261908\/revisions\/261912"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.ifun.de\/apiv2\/wp\/v2\/media\/261911"}],"wp:attachment":[{"href":"https:\/\/www.ifun.de\/apiv2\/wp\/v2\/media?parent=261908"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.ifun.de\/apiv2\/wp\/v2\/categories?post=261908"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.ifun.de\/apiv2\/wp\/v2\/tags?post=261908"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}