Nachrichten, Kurzbefehle, ChatGPT
Apple Intelligence auf dem Mac: Lokale KI wird Teil des Systems
Apple verzahnt sein KI-Angebot „Apple Intelligence“ zukünftig noch stärker mit dem Mac-Betriebssystem macOS 26 Tahoe. Was bislang vor allem auf dem iPhone im Mittelpunkt stand, soll künftig auch auf Apples Rechnern präsenter werden.
Übersetzte Nachrichten: Ab Herbst auch auf dem Mac
Dabei setzt der Konzern aus Cupertino konsequent auf lokale Rechenprozesse, die ohne ständige Internetverbindung auskommen. Entwickler erhalten Zugriff auf das zugrunde liegende Sprachmodell direkt auf dem Gerät. Dies erlaubt neue Anwendungsfälle, ohne dass Nutzerdaten die Hardware verlassen müssen – ein Ansatz, den Apple mit Blick auf den Datenschutz deutlich betont.
Für macOS bedeutet das unter anderem: Die Kurzbefehle-App wird durch KI-Modelle erweitert. Nutzer können komplexere Abläufe automatisieren, etwa Texte zusammenfassen oder Bilder generieren. Auch andere Apple-Programme wie Mail, Notizen und Safari erhalten Unterstützung durch kontextbezogene Vorschläge, etwa zur Erstellung von Erinnerungen. Diese entstehen automatisch aus relevanten Informationen im angezeigten Inhalt.
Apple Intelligence auch für die Kurzbefehle-App
Vielfältige Funktionen im Alltag
Ein zentrales Beispiel ist die visuelle Intelligenz: Nutzer können per Tastenkombination Inhalte auf ihrem Bildschirm analysieren lassen, etwa um Produktbilder zu erkennen oder Kalendereinträge automatisch anzulegen. In Kombination mit ChatGPT können Fragen zu angezeigten Inhalten gestellt werden – etwa zu einem abgebildeten Objekt oder einer geöffneten Webseite.
Auch kreative Werkzeuge wurden weiterentwickelt. Mit „Image Playground“ lassen sich Bilder nach Textvorgabe erstellen, auf Wunsch im Stil von Illustrationen oder Gemälden. In der Nachrichten-App können zudem personalisierte Emojis aus Beschreibungen entstehen – mit individuell kombinierbaren Eigenschaften.
„Image Playground“: Apples Bildgenerator erhält ChatGPT-Anbindung
Kurzbefehle profitieren ebenfalls: Studierende könnten etwa ein Transkript mit eigenen Notizen kombinieren lassen, um eine strukturierte Zusammenfassung zu erhalten. Wer häufig mit Lieferungen zu tun hat, erhält in Apple Wallet automatisch strukturierte Sendungsübersichten auf Basis eingehender E-Mails. In Gruppenchats schlägt Apple Intelligence zukünftig passende Umfragen vor, wenn es die Konversation erfordert.
Ein Modell, viele Anwendungen
Mit dem neuen Foundation Models Framework gibt Apple Entwicklern die Möglichkeit, das zentrale Sprachmodell von Apple Intelligence direkt in ihren Apps zu nutzen – lokal auf dem Gerät, datensparsam und ohne zusätzliche Infrastruktur.
Ein entscheidender Vorteil: Apps müssen keine eigenen KI-Modelle einbinden oder separat aus dem Netz laden. Statt viele Ressourcen für parallele Modelle zu verschwenden, greifen sie auf das gemeinsame Grundmodell zurück. Das spart Speicherplatz, reduziert Redundanzen und ermöglicht gleichzeitig eine konsistente Nutzererfahrung – unabhängig davon, welche App gerade im Einsatz ist.
Wenn das gut kommt, freue ich mich darauf
Wird das auch auf Macs mit Intelprozessoren laufen?
Habe meine Antwort schon selbst gefunden: In der Nachricht vor dieser.
Danke!
Keine NPU = keine lokale KI!
Aber gut, dass du es selbst herausgefunden hast.
Sind dafür nun die 16GB RAM Voraussetzung?
Ich denke, Apple setzt vorrangig auf lokale KI und beruft sich dabei auf den Datenschutz, weil sie den Anschluss an internetgestützte KI aber sowas von verpasst haben.
Entweder sie verzocken sich damit total, was sich zeigen wird, wenn reale KI-Anwendungen im Daily Life der breiten Masse angekommen sind. Oder sie stellen den Anschluss zur internetbasierten KI wieder her und preisen das dann „als die beste KI, die es jemals auf einem Apple-Gerät gab“.
Dieses Vorgehen ist nun wirklich nix neues.
Seit tausenden von Jahren preisen Händler ihre Waren mit blumigen Worten an.
Es liegt seither an unserer internen Intelligenz, die Substanz daraus zu filtern und dann gute Kaufentscheidungen zu treffen.
Mir scheint du hast das Datenschutzthema nicht verstanden.
Willst du alle deine Daten auf deinen Geräten irgendeiner Firma anvertrauen? Darunter halt super persönliche Dinge?
So lange es eine Anbindung an internetgestützte KI gibt, bei der ich entscheiden kann was raus geht, finde ich den Ansatz absolut erstrebenswert.
Da scheint Dir etwas falsches. Ich habe „das Datenschutzthema“ schon von Berufs wegen ganz gut verstanden. Allerdings gehe ich gerade deshalb davon aus, dass man dem Datenschutzthema auch gerecht werden kann, wenn man Daten nicht ausschließlich lokal verarbeitet. Da müssen für KI schnellstmöglich Regelungen her, bei Facebook & Co. ist es ja gerade mal sanft angeklungen…
Aber darum ging es auch gar nicht. Das Datenschutzthema nutzt Apple nur als Mittel zum Zweck, ihr aktuelles KI-Defizit zu überspielen. Wer das nicht erkennt, hat meines Erachtens Scheuklappen auf.
Ich nutze beruflich und ehrenamtlich regelmäßig und mit großem Nutzen KI-Assistenten und -Tools – wie viele stammen dabei von Apple? Richtig, keiner. Und hat das irgendetwas mit Datenschutzthemen zu tun? Nein.
Ich denke, du denkst falsch. Andere Anbieter übertreffen sich damit, was ihre KI-Modelle alles können. Die sind aber im Endeffekt nichts Anderes als ne moderne Suchmaschine. Apple macht sich Gedanken um sinnvolle Integration in Apps und Prozesse. Das bringt Mehrwert. Und wenn ein Großteil davon (Transkriptionen, Übersetzungen, etc.) dann noch lokal und auch da läuft, wo es gerade kein fettest Netz gibt, ist das doch super.
Genau. Datenschutz wäre mir wichtiger und wenn ich mehr brauche, kann ich immer noch die anderen LLM einbinden.
Das kann man so pauschal nicht sagen. Tatsächlich macht die Konkurrenz einfach alles was geht. Auch wenn es mal nicht so gut geht. Sie werfen einfach mit allem was sie greifen können. Der Nutzer soll entscheiden, ob er das verwenden möchte oder nicht. Da der Großteil dieser Funktionen auf Sprachmodell basiert, die nicht lokal ausgeführt werden können, ist Apple im Augenblick tatsächlich genau deswegen raus. Soweit mir bekannt, weiß niemand wirklich genau, ob die Erweiterung in die sichere Cloud der Apple seit letztem Jahr implementiert haben möchte, tatsächlich existiert. Denn alle Funktionen die AI im Augenblick zur Verfügung stellt werden durchgängig auf den Apple Geräten ausgeführt. Es ist gut möglich, dass Apple diese sichere Cloud noch gar nicht gebaut hat. Und das, was man mit iOS 26 in Aussicht stellt, hört sich auch nicht so an, als wenn man dafür diese Cloud brauchen würde. Auch dafür reichen die kleinen Modelle, die lokal ausgeführt werden. Ich vermute stark, dass diese großen Sprachmodell erst im Laufe des nächsten Jahres zum Einsatz kommen werden, wenn man es schafft, Siri bis dahin auf KI-Niveau zu bringen.
Weiß jemand die intelligenten Shortcuts nur auf Macs laufen? Ich habe nichts dazu bei iOS oder iPadOS gefunden.
Wäre eigentlich schade.
Finde ich sehr gut!
lokal ist der gravierende Unterschied. Wenns dann stimmt.
Ich hatte Appleintelligence auf meinem MacBook Pro und es raubt gefüllt 500 gb von der Festplatte
Storage kostet ja nichts mehr, außer bei Apple ;-)
Viel spannender finde ich die Frage, was es von der Prozessorleistung und Akku raubt.
Habe lokal auf meinem Server „Ollama“ installiert und der Prozessor läuft bei Anfragen ewig auf Hochtouren. Mit entsprechendem Stromverbrauch.