KI-Forschung: Apple untersucht Aktivitätserkennung per Sprachmodell
Apple widmet sich in einer aktuellen Forschungsarbeit der Frage, wie große Sprachmodelle einfache Sensorinformationen auswerten können. Das Unternehmen prüft dabei, ob sich Bewegungs- und Umgebungsdaten zuverlässiger analysieren lassen, wenn zusätzliche Modelle die Daten zunächst in kurze Textbeschreibungen umwandeln. Die Studie („Using LLMs for Late Multimodal Sensor Fusion for Activity Recognition“) zeigt, dass diese Kombination selbst bei knappen Messwerten zu überraschend klaren ... →