LookUp, TalkCam, Foodbrain
Objekte erkennen: Erste CoreML-Anwendungen verfügbar
Neben den mit iOS 11 erstmal möglichen Shelf- und Zip-Applikationen und den Apps, die zur Erkennung der Umgebung auf Apples ARKit setzen – MeasureKit zum Beispiel – zeigen sich im App Store nun auch die ersten Anwendungen die Gebrauch von Apples Machine-Learning-Framework CoreML machen.
Welche beeindruckenden Ergebnisse Apples neue Core ML-Technologie abliefern können, zeigten bereits im Sommer zahlreiche Entwickler-Videos, die den Einsatz kleiner Testapplikationen demonstrieren, die mit Hilfe der von Apple bereitgestellten Beispiel-Modelle kompiliert wurden.
So bietet Cupertino auf seinem Entwickler-Portal mehrere ML-Pakete an, die Objekte vor dem Sucher der iPhone-Kamera erkennen und identifizieren können. Das nur 5MB kleine Core ML-Model „SqueezeNet“ ist etwa in der Lage Live-Bilder einer von rund 1000 unterschiedlichen Kategorien wie Bäumen, Tiere, Lebensmittel, Menschen und Co. zuzuordnen.
Eben jene Modelle finden sich nun auch in mehreren App Store-Anwendungen wieder – bislang sind uns jedoch nur englische Vertreter des neuen Genres über den Weg gelaufen.
TalkCam ermittelt die Objekte vor der Kamera ebenfalls in wenigen Augenblicken, zeigt die Sicherheit in Prozent an und spricht das erkannte Objekt anschließend aus.
Foodbrain versucht sich daran Lebensmittel vor der iPad- bzw. iPhone-Kamera zu identifizieren. Das Wörterbuch LookUp kann ebenfalls die Kamera aktivieren oder Web-Grafiken per Drag-and-Drop aufnehmen, erkennt das abgebildete Objekt und zeigt den entsprechenden Wörterbucheintrag. Magic Sudoku löst die Zahlenrätsel und blendet das Ergebnis anschließend mit fixer Position über dem Aufgabenpapier ein.