{"id":236920,"date":"2024-07-31T12:29:48","date_gmt":"2024-07-31T10:29:48","guid":{"rendered":"https:\/\/www.ifun.de\/?p=236920"},"modified":"2024-07-31T15:55:36","modified_gmt":"2024-07-31T13:55:36","slug":"meta-ki-auf-dem-mac-nutzen-lokal-offline-gratis-und-auf-chatgpt-niveau","status":"publish","type":"post","link":"https:\/\/www.ifun.de\/meta-ki-auf-dem-mac-nutzen-lokal-offline-gratis-und-auf-chatgpt-niveau-236920\/","title":{"rendered":"Meta-KI auf dem Mac nutzen: Lokal, offline, gratis und auf ChatGPT-Niveau"},"content":{"rendered":"<p class=\"p1\">Da wir gerade noch mal \u00fcber das neue, kostenfrei erh\u00e4ltliche KI-Modell des Facebook-Mutterkonzerns Meta geschrieben haben, wollen wir an dieser Stelle noch einmal darauf eingehen, wie sich &#8222;Llama 3.1&#8220; lokal auf dem eigenen Mac nutzen l\u00e4sst.<\/p>\n<p><a href=\"https:\/\/images.ifun.de\/wp-content\/uploads\/2023\/10\/ollama-app.jpg\"><img loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-medium wp-image-219791\" src=\"https:\/\/images.ifun.de\/wp-content\/uploads\/2023\/10\/ollama-app-500x500.jpg\" alt=\"Ollama App\" width=\"500\" height=\"500\" srcset=\"https:\/\/images.ifun.de\/wp-content\/uploads\/2023\/10\/ollama-app-500x500.jpg 500w, https:\/\/images.ifun.de\/wp-content\/uploads\/2023\/10\/ollama-app-700x700.jpg 700w, https:\/\/images.ifun.de\/wp-content\/uploads\/2023\/10\/ollama-app-150x150.jpg 150w, https:\/\/images.ifun.de\/wp-content\/uploads\/2023\/10\/ollama-app-768x768.jpg 768w, https:\/\/images.ifun.de\/wp-content\/uploads\/2023\/10\/ollama-app.jpg 1196w\" sizes=\"auto, (max-width: 500px) 100vw, 500px\" \/><\/a><\/p>\n<h6>Ollama l\u00e4dt Metas KI-Modell auf euren Mac<\/h6>\n<h2>Llama 3.1 auf macOS ausf\u00fchren<\/h2>\n<p class=\"p1\">Zum Hintergrund: Meta hat mit Llama 3.1 ein KI-Modell ver\u00f6ffentlicht, das Anwender kostenfrei aus dem Netz laden und ohne Limitierungen auf ihren lokalen Maschinen nutzen k\u00f6nnen. Die Antworten des KI-Modells sind mit denen von ChatGPT vergleichbar, allerdings ben\u00f6tigt das KI-Modell keine Internetverbindung.<\/p>\n<p class=\"p1\">Vorausgesetzt wird lediglich ein Mac mit performantem Apple-Prozessor, mindestens 8 Gigabyte Arbeitsspeicher und das Wissen darum, wie sich das KI-Modell am besten herunterladen und auf dem Mac ausf\u00fchren und einsetzen l\u00e4sst.<\/p>\n<p><a href=\"https:\/\/images.ifun.de\/wp-content\/uploads\/2024\/07\/ollamac-chat.png\"><img loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-large wp-image-236923\" src=\"https:\/\/images.ifun.de\/wp-content\/uploads\/2024\/07\/ollamac-chat-700x480.png\" alt=\"Ollamac Chat\" width=\"700\" height=\"480\" srcset=\"https:\/\/images.ifun.de\/wp-content\/uploads\/2024\/07\/ollamac-chat-700x480.png 700w, https:\/\/images.ifun.de\/wp-content\/uploads\/2024\/07\/ollamac-chat-500x343.png 500w, https:\/\/images.ifun.de\/wp-content\/uploads\/2024\/07\/ollamac-chat-768x527.png 768w, https:\/\/images.ifun.de\/wp-content\/uploads\/2024\/07\/ollamac-chat-1536x1054.png 1536w, https:\/\/images.ifun.de\/wp-content\/uploads\/2024\/07\/ollamac-chat.png 1638w\" sizes=\"auto, (max-width: 700px) 100vw, 700px\" \/><\/a><\/p>\n<h6>Ollamac bietet eine schlichte Chat-Oberfl\u00e4che<\/h6>\n<h2>Ollama und Ollamac helfen<\/h2>\n<p class=\"p1\">F\u00fcr die maximal einfache Nutzung Llama 3.1 stehen mehrere Helfer bereit, die alle kostenlos verf\u00fcgbar sind und in wenigen Minuten installiert werden k\u00f6nnen.<\/p>\n<h3>Ollama<\/h3>\n<p class=\"p1\">Die kleine <a href=\"https:\/\/ollama.com\/\">Ollama-Anwendung<\/a> k\u00fcmmert sich um den Download und das Update des aktuellen Modells und arbeitet als aktiver Server im Hintergrund, um Anfragen an das Modell weiterzureichen und dessen Antworten auszugeben. Ollama kann <a href=\"https:\/\/ollama.com\/download\">hier geladen werden<\/a>.<\/p>\n<p class=\"p1\">Habt ihr Ollama installiert, dann k\u00f6nnt ihr mit dem Terminal-Kommando <code>ollama run llama3.1<\/code> das aktuelle KI-Modell von Meta aus dem Netz laden. Dieses ben\u00f6tigt etwa 5 Gigabyte freien Festplattenspeicher.<\/p>\n<p><a href=\"https:\/\/images.ifun.de\/wp-content\/uploads\/2024\/07\/ollama.png\"><img loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-large wp-image-236921\" src=\"https:\/\/images.ifun.de\/wp-content\/uploads\/2024\/07\/ollama-700x371.png\" alt=\"Ollama\" width=\"700\" height=\"371\" srcset=\"https:\/\/images.ifun.de\/wp-content\/uploads\/2024\/07\/ollama-700x371.png 700w, https:\/\/images.ifun.de\/wp-content\/uploads\/2024\/07\/ollama-500x265.png 500w, https:\/\/images.ifun.de\/wp-content\/uploads\/2024\/07\/ollama-768x407.png 768w, https:\/\/images.ifun.de\/wp-content\/uploads\/2024\/07\/ollama.png 1504w\" sizes=\"auto, (max-width: 700px) 100vw, 700px\" \/><\/a><\/p>\n<h6>llama3.1 ben\u00f6tigt etwa 5 GB freien Platz auf der Platte<\/h6>\n<h3>Ollamac<\/h3>\n<p class=\"p1\">Ihr k\u00f6nntet nach der Installation von Ollama bereits im Terminal mit dem KI-Modell von Meta kommunizieren. Die ebenfalls kostenfreie Mac-Anwendung <a href=\"https:\/\/github.com\/kevinhermawan\/Ollamac\">Ollamac<\/a> macht die Gespr\u00e4che jedoch deutlich komfortabler.<\/p>\n<p class=\"p1\">Verf\u00fcgbar auf dem <a href=\"https:\/\/github.com\/ollama\/ollama\/releases\">Code-Portal GitHub<\/a>, k\u00f6nnt ihr euch Ollamac kostenlos aus dem Netz laden und die Anwendung ausf\u00fchren, sobald ihr den Server durch die Ausf\u00fchrung von Ollama gestartet habt. Jetzt steht euch eine native Benutzeroberfl\u00e4che f\u00fcr neue Chats zur Verf\u00fcgung.<\/p>\n<p><a href=\"https:\/\/images.ifun.de\/wp-content\/uploads\/2024\/07\/ollamac.png\"><img loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-large wp-image-236922\" src=\"https:\/\/images.ifun.de\/wp-content\/uploads\/2024\/07\/ollamac-700x544.png\" alt=\"Ollamac\" width=\"700\" height=\"544\" srcset=\"https:\/\/images.ifun.de\/wp-content\/uploads\/2024\/07\/ollamac-700x544.png 700w, https:\/\/images.ifun.de\/wp-content\/uploads\/2024\/07\/ollamac-500x389.png 500w, https:\/\/images.ifun.de\/wp-content\/uploads\/2024\/07\/ollamac-768x597.png 768w, https:\/\/images.ifun.de\/wp-content\/uploads\/2024\/07\/ollamac-1536x1194.png 1536w, https:\/\/images.ifun.de\/wp-content\/uploads\/2024\/07\/ollamac.png 1842w\" sizes=\"auto, (max-width: 700px) 100vw, 700px\" \/><\/a><\/p>\n<h6>Ollamac mit llama3.1: Offline, kostenlos, ohne Limits<\/h6>\n<p class=\"p1\">Viel mehr gibt es eigentlich nicht zu wissen. Sind Ollama und Ollamac installiert, k\u00f6nnt ihr das von Meta angebotene KI-Modell ohne Beschr\u00e4nkungen offline, so h\u00e4ufig in Anspruch nehmen, wie ihr m\u00f6chtet, und dies ohne, dass Daten abflie\u00dfen und ohne, dass auch nur ein Euro an Meta \u00fcberwiesen werden m\u00fcsste.<\/p>\n<p><img loading=\"lazy\" decoding=\"async\" src=\"https:\/\/vg09.met.vgwort.de\/na\/f007522659824d478febdcac920eb969\" width=\"1\" height=\"1\" no-lazy class=\"tracking\"><\/p>\n","protected":false},"excerpt":{"rendered":"<a href=\"https:\/\/www.ifun.de\/meta-ki-auf-dem-mac-nutzen-lokal-offline-gratis-und-auf-chatgpt-niveau-236920\/\"><img width=\"150\" height=\"150\" src=\"https:\/\/images.ifun.de\/wp-content\/uploads\/2024\/07\/llama3-1-mac-1-150x150.jpg\" class=\"alignright tfe wp-post-image\" alt=\"Llama3 1 Mac\" decoding=\"async\" loading=\"lazy\" \/><\/a><p>Da wir gerade noch mal \u00fcber das neue, kostenfrei erh\u00e4ltliche KI-Modell des Facebook-Mutterkonzerns Meta geschrieben haben, wollen wir an dieser Stelle noch einmal darauf eingehen, wie sich &#8222;Llama 3.1&#8220; lokal auf dem eigenen Mac nutzen l\u00e4sst. Ollama l\u00e4dt Metas KI-Modell auf euren Mac Llama 3.1 auf macOS ausf\u00fchren Zum Hintergrund: Meta hat mit Llama 3.1 [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":236925,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[1],"tags":[],"class_list":["post-236920","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-news"],"acf":[],"aioseo_notices":[],"featured_image":["https:\/\/images.ifun.de\/wp-content\/uploads\/2024\/07\/llama3-1-mac.jpg"],"subheadline":["Llama 3.1 unter macOS"],"rest_api_enabler":{"featured_image":"https:\/\/images.ifun.de\/wp-content\/uploads\/2024\/07\/llama3-1-mac.jpg","subheadline":"Llama 3.1 unter macOS"},"_links":{"self":[{"href":"https:\/\/www.ifun.de\/apiv2\/wp\/v2\/posts\/236920","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.ifun.de\/apiv2\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.ifun.de\/apiv2\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.ifun.de\/apiv2\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/www.ifun.de\/apiv2\/wp\/v2\/comments?post=236920"}],"version-history":[{"count":4,"href":"https:\/\/www.ifun.de\/apiv2\/wp\/v2\/posts\/236920\/revisions"}],"predecessor-version":[{"id":236939,"href":"https:\/\/www.ifun.de\/apiv2\/wp\/v2\/posts\/236920\/revisions\/236939"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.ifun.de\/apiv2\/wp\/v2\/media\/236925"}],"wp:attachment":[{"href":"https:\/\/www.ifun.de\/apiv2\/wp\/v2\/media?parent=236920"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.ifun.de\/apiv2\/wp\/v2\/categories?post=236920"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.ifun.de\/apiv2\/wp\/v2\/tags?post=236920"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}