macOS und iOS 27 bringen die große Umstellung
Apples KI-Reset bei Siri: Bloomberg nennt neue Details
Ein neuer Bericht des Wirtschaftsnachrichten-Dienstes Bloomberg liefert weitere Details zu Apples laufender KI-Neuausrichtung. Im Mittelpunkt steht dabei der strategische Umbau von Siri, der kurzfristig auf externe KI-Modelle setzt und langfristig eine tiefere Systemintegration vorsieht.
Apple reagiert damit auf Verzögerungen bei der eigenen KI-Entwicklung und auf den wachsenden Druck durch konkurrierende Chatbots.
Google-Partnerschaft nur Zwischenlösung
Wie Bloomberg berichtet, nutzt Apple für das anstehende Siri-Update in iOS 26.4 erstmals Modelle aus dem Umfeld von Google Gemini. Diese kommen innerhalb von Apples eigener Cloud-Infrastruktur zum Einsatz und sollen Funktionen wie Kontextverständnis, die Auswertung von Bildschirminhalten und den Zugriff auf persönliche Daten ermöglichen. Ziel ist es, Siri kurzfristig leistungsfähiger zu machen, ohne auf eine vollständig eigene Modellgeneration warten zu müssen.
Intern wird dieser Schritt als pragmatische Zwischenlösung beschrieben. Nach Informationen von Bloomberg waren zuvor Gespräche mit anderen KI-Anbietern gescheitert, unter anderem aus finanziellen und strategischen Gründen. Google erwies sich schließlich als Partner, dessen technische Entwicklung und Vertragsbedingungen für Apple tragfähig erschienen.
Neuer Siri-Ansatz ab iOS 27 geplant
Parallel arbeitet Apple an einer grundlegend neuen Siri-Version, die unter dem Codenamen Campos entwickelt wird. Diese soll mit iOS 27, iPadOS 27 und macOS 27 eingeführt werden. Laut Bloomberg basiert das System auf einer neuen Architektur, die dialogorientierte Abläufe erlaubt und längere Interaktionen unterstützt. Technisch soll eine weiterentwickelte Modellgeneration eingesetzt werden, die erneut auf Gemini aufbaut und perspektivisch direkt in Googles Rechenzentren betrieben werden könnte.
Der Bericht ordnet diesen Kurswechsel auch personell ein. Die Verantwortung für Apples KI-Strategie liegt demnach zunehmend bei Softwarechef Craig Federighi, während der frühere KI-Leiter John Giannandrea das Unternehmen faktisch verlassen hat. Zugleich stellt Apple frühere Pläne für separate KI-Funktionen in einzelnen Apps zurück und setzt stattdessen auf eine enge Verzahnung von Siri mit zentralen Systemanwendungen wie Mail, Safari oder Kalender.


Schade, dass KI Reset nicht kompletten Verzicht auf diesen Quatsch bedeutet….
In den letzten Jahrtausenden Entwicklung der Menschheit, hat sich ein Schritt zurück, noch nie durchgesetzt.
Ich warte auf einen Verzicht auf die Kommentarfunktion bei iFun.
Dann beginne damit… :)
Übe doch einfach Zurückhaltung … das erspart uns diese täglichen unnötigen Flapsigkkeiten
„…in Googles Rechenzentren betrieben werden…“. Öhm, danke Nein!
Das dachte ich eben auch … und nun?!kann ich mir Daten technisch gleich nen Pixel kaufen oder wie
Dachte ich mir auch gerade…Dann ist eventuell besser, sich komplett mit Android & Google auseinanderzusetzen und wieder tiefer in die Datenschieberei einzusteigen. Lieber nur bei einem (1) Techriesen bleiben imho.
Na dann schau mal, welche deiner Anwendungen und Funktionen nicht über Googles oder Rechenzentren von Amazon laufen?
Konjunktiv: „…die erneut auf Gemini aufbaut und perspektivisch direkt in Googles Rechenzentren betrieben werden könnte.“
Bin gespannt, ob Apple seine privacy cloud Prinzipen weiter ansetzen wird
Ich glaub es wenn ich’s sehe. Zu viele große Ankündigungen über die letzten Jahre.
Dito.
Alles schön und gut. Ich will endlich Ergebnisse sehen, die überzeugen und kein Gerede mehr!
Verstehe nicht was daran so schwer sein kann einen vernünftigen Assistenten zu bauen. Klar, KI kann schon hilfreich sein, aber wie wäre es erstmal die vorhanden Informationen besser aufzubereiten? Warum kann ich nicht alles auf dem Gerät per Spotlight Suche finden? Warum gibt es nicht einen Siri Befehl mit mir in der Früh alle Emails, Nachrichten, Meetings, To-Dos aus der Nacht vorgelesen werden? Mir geht’s da erstmal nur um die Basics.
Tja, da frage ich mich auch… Muss ein Hexenwerk sein.
Frag bei Frankenstein nach … :)
Das Schwere daran ist, die Funktionalität on-device zu realisieren. Davon rückt Apple jetzt ab, nachdem sie gemerkt haben, dass es so nicht gut funktioniert. Jetzt wird das so umgesetzt wie bei den existierenden anderen Lösungen mit dem Unterschied, dass Apple ihre privacy cloud Prinzipien verwenden wird, was auch wieder erhöhte Anforderungen darstellt
Ja, also echt KI Aufgaben verstehe ich ja noch denn dafür kann man gerne in die Cloud gehen. Nur verbessert Apple ja selber immer weiter seine Chips, da ist doch auch onboard was möglich. Es geht ja auch, aber dann nur mit so komischen Shortcut Lösungen.
Ich seh das hat so: Auf meinen iPhone sind erstmal alle wichtigen Daten und das digital. Somit wäre es doch nur perfekt alles einfach durchsuchen zu können und die benötigten Informationen schnell zu bekommen. Andere Apps holen ja sogar mehr raus wie z.B. von allem
lokal screenshots zu machen und die dann danach per OCR zu durchsuchen. Siri kann mir nichtmal zuverlässig einen Timer stellen.