Apple a dévoilé la dernière gamme de ses iPhones à l’occasion de la « période des fêtes ». Les modèles iPhone 16 et 16 Pro sont commercialisés par Apple comme étant conçus de A à Z pour Apple Intelligence. Si vous avez manqué le mémo sur Apple Intelligence, que le géant de la technologie a dévoilé plus tôt cette année en juin lors de sa conférence annuelle WWDC, c’est leur vision de l’intelligence artificielle.
Cependant, la société a commodément laissé de côté une fonctionnalité lors de la WWDC, et à juste titre, car elle est liée aux changements matériels à venir sur la gamme iPhone 16. L’intelligence visuelle fait son chemin vers l’iPhone, comme si vous aviez Google Lens sur Android, mais le premier est alimenté par l’intelligence artificielle. Cela ressemble un peu aux capacités de saisie multimodale (image/vidéo) de Gemini Live de Google ou du mode avancé ChatGPT-4o d’OpenAI (tous deux pas encore disponibles). Mais il semble que l’intelligence visuelle ne puisse prendre que des images en entrée.
Il est déclenché en appuyant longuement sur le nouveau bouton de contrôle de l’appareil photo sur la série iPhone 16.
Vous pouvez poser toutes vos questions à Visual Intelligence. Par exemple, si vous pointez votre caméra vers un restaurant, Visual Intelligence peut rapidement afficher les horaires du restaurant, les notes et les options permettant de consulter le menu ou de faire une réservation.
De la même manière, vous pouvez pointer votre appareil photo vers une affiche d’événement et l’ajouter automatiquement à votre calendrier. Gemini de Google peut notamment vous aider de la même manière sur les appareils Android et peut même aller plus loin et vous informer si vous avez des engagements antérieurs à cette date.
Tout cela est alimenté par une combinaison d’intelligence intégrée à l’appareil et de services Apple qui ne stockent pas vos images. De plus, Visual Intelligence peut également servir de passerelle vers des services tiers tels que Google et ChatGPT. L’interface affiche deux boutons : Rechercher et Demander.
Avec la recherche, vous pouvez demander à Google tout ce qui se trouve sur votre écran, comme un vélo que vous repérez et que vous souhaitez acheter. Avec Ask, vous pouvez invoquer ChatGPT et demander de l’aide pour, par exemple, vos notes. Les informations ne sont partagées avec des outils tiers que lorsque vous choisissez de les utiliser.
La fonctionnalité ne sera pas disponible immédiatement et arrivera plus tard cette année, sans aucune information concrète sur la date de sortie pour le moment. Il semble également que la fonctionnalité ne sera pas disponible sur les anciens iPhones qui prendront en charge Apple Intelligence, puisque Craig Federighi a spécifiquement indiqué qu’elle arriverait sur « Camera Control plus tard cette année ».
Laisser un commentaire