Apple arbeitet an einer neuen Generation seiner Wearables: Künftig könnten sowohl Apple Watch als auch AirPods mit integrierten Kameras ausgestattet sein – und damit Funktionen der visuellen Intelligenz nutzen, die bislang iPhones vorbehalten waren.
Visuelle Intelligenz auf dem iPhone bereits verfügbar
Die visuelle Intelligenz – also die Fähigkeit eines Geräts, visuelle Informationen mithilfe von KI zu analysieren und zu interpretieren – ist bereits Bestandteil aktueller iPhone-Modelle. Konkret profitieren Nutzer der iPhone-16-Serie mit iOS 18.2 oder höher von Funktionen, die an Googles Lens erinnern. So lassen sich etwa Objekte, Texte oder Orte per Kamera erfassen und analysieren.
Apple Watch mit Kamera bis 2027?
Laut dem gut informierten Bloomberg-Journalisten Mark Gurman befindet sich Apple aktuell in der Forschungsphase, um Kameras direkt in die Apple Watch zu integrieren. Für das Standardmodell ist angeblich ein Kameramodul im Display vorgesehen, während die Apple Watch Ultra einen seitlich angebrachten Sensor nahe der Digital Crown und dem Power-Button erhalten soll.
Gurman zufolge könnte eine marktreife Version dieser Smartwatch bereits bis 2027 erscheinen. Die Kameras würden dann die Grundlage für neue, KI-gestützte Funktionen bilden – etwa zur Erkennung der Umgebung, Objekterfassung oder für neue Interaktionsmöglichkeiten per Geste oder Blickkontakt.
Auch AirPods könnten Kameras bekommen
Neben der Apple Watch scheinen auch die AirPods ein Upgrade zu erhalten. Apple testet derzeit Ohrhörer mit integrierten Kameras. Diese könnten ähnlich wie bei der Apple Watch zur Analyse der Umgebung beitragen und in Kombination mit der visuellen Intelligenz für neue Nutzungsszenarien sorgen – etwa in AR-Anwendungen oder zur Optimierung des Hörerlebnisses.
Noch ist unklar, wann die Kamera-AirPods erscheinen könnten, doch Gurmans Informationen deuten darauf hin, dass Apple langfristig seine gesamte Produktpalette auf KI und sensorbasierte Intelligenz ausrichtet.