ifun.de — Apple News seit 2001. 21 718 Artikel
Apple Neural Engine

Künstliche Intelligenz: Apple baut spezialisierte Chips

Artikel auf Google Plus teilen.
10 Kommentare 10

Ganz gleich ob es um die Objekt-Erkennung auf euren Fotos, um die 2016 auf iOS und macOS eingeführten Proactive Suggestions oder Siris Logikverständnis geht: Wo möglich, setzt Apple nicht auf Serverfarmen in der Cloud, sondern auf das lokale Abarbeiten all jener Aufgaben, die im weitesten Sinn unter der Überschrift „Künstliche Intelligenz“ absortiert werden können.

Katze

Ein Datenschutz-Kompromiss, der mit nicht unerheblichen Einschränkungen einhergeht. Anwender, die ihr iPad neu aufsetzen und erstmals mit einer vorhandenen iCloud-Fotobibliothek verbinden, wissen gut wie heiß ihr Tablet werden kann.

Da sich Apples Tablet um die Erstellung eines Index, um das Zuordnen von Gesichtern und das Auffinden von über 5000 definierten Objekten in euren Bilder kümmert und diese Aufgabe nicht in die Cloud auslagert, ist man gut damit beraten, das Gerät in den ersten 24 Stunden an der Steckdose zu lassen. Die KI-Aufgaben, die lokal erledigt werden müssen benötigen viel Strom und viel Prozessor-Power.

Spezialisierter Chip übernimmt KI-Aufgaben

Dies soll sich zukünftig ändern. Wie der Wirtschafts-Nachrichtendienst Bloomberg berichtet arbeitet Apple aktuell an einem dedizierten Chip, der CPU und GPU zukünftig entlasten und sich ausschließlich um das Abarbeiten neuer KI-Aufgaben kümmern soll:

Apple is working on a processor devoted specifically to AI-related tasks, according to a person familiar with the matter. The chip, known internally as the Apple Neural Engine, would improve the way the company’s devices handle tasks that would otherwise require human intelligence — such as facial recognition and speech recognition, said the person, who requested anonymity discussing a product that hasn’t been made public. […] Apple devices currently handle complex artificial intelligence processes with two different chips: the main processor and the graphics chip. The new chip would let Apple offload those tasks onto a dedicated module designed specifically for demanding artificial intelligence processing, allowing Apple to improve battery performance.

Apples „Neural Engine“ würde sich damit in das schon jetzt beachtliche Lineup spezialisierter Chips aus Cupertino einreihen, die sich wie Apples Koprozessoren der M-Serie um Bewegungserkennung, wie die W-Serie um die Bluetooth-Konnektivität, oder wie die S-Serie um die Apple Watch und die Touch Bar der neuen MacBook Pro Modelle kümmern. Apple hat den Bericht auf Nachfrage nicht kommentiert.

Montag, 29. Mai 2017, 15:37 Uhr — Nicolas
10 Kommentare bisher. Dieser Unterhaltung fehlt Deine Stimme.
Rede mit!
  • Auch wenn ich das aus datenschutzgründen tatsächlich begrüße, ist es natürlich absurd.
    Gerade ne KI lebt letzten Endes von Informationen…
    Neutrale Netzwerke funktionieren eben als Netzwerke.
    Google und Co gehen da schon den richtigen Weg.
    Und jeder Intelligenzsprung sollte nun wirklich kein Update erfordern…
    Selbstständiges lernen kann nur funktionieren, wenn man Input ohne Ende bekommt und die infos dann auch abeichen kann…

    Wenn man sich Apple Fotos und Google anschaut, ist es faszinierend, was Google stetig lernt, nach welchen Begriffen zielsicher gesucht werden kann, die vor einigen Tagen noch keine Ergebnisse lieferten usw.
    Das soll jetzt auch kein Pro/Contra Apple/Google Beitrag sein, sondern ein reiner Beitrag zur Funktion einer KI.

    Sicher kann ein Chip einen gewissen Rahmen bieten, aber alle Anbieter die auf Neuronale Netzwerke setzen, werden dann in den nächsten Monaten weiter voranschreiten und der Abstand wird immer größer.

    • Auch wenn ich dir recht gebe, dass eine KI von Daten lebt, heisst das für mich nicht gleich, dass es absurd ist, diese Daten nicht gleich öffentlich in den Google-Topf zu werfen. Wie beim Thema Sicherheit bedeutet dies zwar eine langsamere Entwicklung als ohne Beachtung der Nebenwirkungen. Hier den richtigen Kompromiss zu finden ist eben nicht absurd, sondern kundenorientiert.

      • Wer sich die eigene KI im eigenen Netzwerk leisten kann, weiß wo der Hase hinläuft. Bleib bei den Kompromissen der Mainstream-Anbieter und deren SmartGeräten. „Entweder oder “ Das beste aus allem muss schon von den eigenen Programmierern oder gekauften All-In-One-Algorithmen kommen.

        Apple und ihre „Gegenspieler“ dienen eher dazu, und daran zu gewöhnen. // Ende meiner gefühlten Wahrheit. /
        Beweist mir das Gegenteil. ;)
        .

      • Siri will bestimmt nicht, Alexa schaut in den Büchern nach und Cortana schmeisst deine Argumente zum Fenster raus.
        Lass uns googel fragen.

    • Apple liefert ja ein bereits trainiertes neutrales Netz aus. „Lediglich“ die Objekterkennung läuft dann lokal auf dem Gerät.

      Es ist richtig das man viele Inputs braucht um so ein Netz vernünftig zu trainieren, aber das macht Apple ja.

      Hier ist jetzt die Frage was einem lieber ist. Das die Fotos lokal auf dem Gerät untersucht werden und damit dann auch das Gerät belasten oder ob man Leiber seine Daten an einen Server schickt der die Sachen schneller erledigt und das eigene Gerät nicht so unter Stress setzt.

      Wobei man dann auch noch unterscheiden muss. Viele Fotos auf einmal zu analysieren ist auch eher ein Sonderfall und ob man deswegen seine Fotos durch die Gegend schicken möchte muss man abwägen.

      Ich find den Ansatz den Apple fährt gut.

  • Ich stimme dir grundsätzlich zu. Doch eine schnelle interne KI kann Aufgaben übernehmen. Dazu braucht sie keine allzu detailieren Informationen sondern Regeln, Grundmuster, Strukturen oder andere, eher allgemein gültige „Gesetze“. Den Rest kann sie ableiten. Sobald es Veränderungen gibt, updatet sie ihr Hirn und arbeitet weiter. Wenn vom User zugelassen, übermittelt der Chip seine Infos oder „Fehler“ an Apple, die dann weiter optimieren können.
    Die KI könnte aber auch eine lokale Hilfe sein, um die Gesichtserkennung zu verbessern. Das, was ja bei anderen mit Fotos manipuliert werden kann.

  • Prinzipiell finde ich den Ansatz gut, solche Dinge auf dem Gerät zu machen. Aber dann soll man bitte mit den sinnvollen Dingen anfangen. Siri gehört als erstes auf das Gerät. Wenn ich im Auto eine gute Edge Verbindung habe, kann ich niemanden Anrufen, weil Siri keine Verbindung zum Server hat. Wenn ich auf der Uhr einen Timer stellen will, kommt ständig „Bitte warten…“ oder Siri ist gar nicht verfügbar, weil ich das Handy gerne liegen lasse und dann etwas weiter weg bin.
    Wenn Apple die Bilder auf dem Server analysiert und mir sagt, dass die die Daten nicht verwenden, ist das erstmal genau so vertrauenswürdig, als wenn das auf dem Handy verarbeitet wird, und die mir versprechen, dass die die Daten nicht trotzdem zum Server senden. Ich muss Apple vertrauen.

  • Verarbeitung auf dem Gerät hat nicht nur (wichtige) Datenschutzvorteile, sondern ist insbesondere im Ausland ohne Mobilfunkanbindung eine super Sache

  • Vielleicht sind es ja FPGAs, also programmierbare Chips, mit der Performance eines ASIC, aber rekonfigurierbar? Das wäre der Hit.

    Blöd ist nur, dass die Gesichtserkennung und anschließende manuell Sortierung tausender Bilder auf all meinen Apple Geräten händisch neu gemacht werden muss. Zumindest einen Ergebnisabgleich sollte die Cloud zulassen.

  • Redet mit. Seid nett zueinander!

    Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

    ifun.de ist das dienstälteste europäische Onlineportal rund um Apples Lifestyle-Produkte.
    Wir informieren täglich über Aktuelles und Interessantes aus der Welt rund um iPad, iPod, Mac und sonstige Dinge, die uns gefallen.
    Insgesamt haben wir 21718 Artikel in den vergangenen 5782 Tagen veröffentlicht. Und es werden täglich mehr.
    ifun.de — Love it or leave it   ·   Copyright © 2017 aketo GmbH   ·   Impressum   ·   Datenschutz   ·   Auf dieser Seite werben aketo GmbH Powered by SysEleven