Avec iOS 26, Apple a revu de fond en comble l’interface de ses iPhone via le design « Liquid Glass », et apporte de nombreuses améliorations et nouveautés à tous les modèles compatibles. Mais derrière ce lifting graphique se cache une série de fonctions bien plus ambitieuses qui sont exclusivement accessibles aux détenteurs d’un iPhone 15 Pro ou plus récent. En cause : leur compatibilité avec Apple Intelligence, la couche d’intelligence artificielle du constructeur qui repose sur les puces les plus récentes.
Des fonctionnalités IA réservées à une élite
Une partie de ces fonctions s’appuient sur des modèles de langage et des traitements IA réalisés directement sur l’appareil (le reste est réalisé sur les propres serveurs d’Apple). Elles concernent notamment la traduction en temps réel dans les applications Messages, FaceTime et Téléphone. Lors d’un appel, l’iPhone peut afficher des sous-titres en direct, lire des traductions à voix haute ou encore traduire automatiquement des messages au fil de la frappe.
Autre exemple : l’application Raccourcis s’enrichit d’actions inédites intégrant l’IA. Il devient possible de générer des images, de résumer du texte ou de poser des questions directement via des scénarios automatisés. Même l’app Rappels devient plus proactive, en suggérant des tâches ou des courses à ajouter en analysant le contenu des messages et des courriels.
Avec iOS 26, Apple pousse aussi plus loin la personnalisation visuelle. Les utilisateurs des derniers modèles peuvent créer des Genmoji sur mesure (des emojis générés par IA), mélanger différents visages, ou appliquer divers styles artistiques — du manga à l’aquarelle — grâce à une intégration poussée entre l’application Image Playground et ChatGPT.
La gestion des fonds d’écran dans Messages devient elle aussi plus sophistiquée, avec des arrière-plans personnalisés générés automatiquement selon le ton de la conversation. Et pour ceux qui peinent à trancher, iOS suggère même des sondages à intégrer à la discussion.
Côté productivité, le portefeuille Apple Wallet utilise l’intelligence embarquée pour détecter et suivre automatiquement les commandes en ligne à partir des e-mails, sans dépendre des commerçants.
Enfin, les captures d’écran deviennent elles aussi intelligentes : l’iPhone peut désormais analyser ce qui a été capturé pour suggérer un achat, créer un événement dans le calendrier ou extraire des informations utiles — comme il le faisait déjà avec la caméra via Visual Intelligence.
Les utilisateurs d’iPhone 14 Pro et des modèles plus anciens pourront tout de même profiter du nouveau look Liquid Glass, de fonctions classiques d’iOS 26 et de quelques effets visuels comme les Scènes spatiales, une animation 3D des photos qui réagissent aux mouvements du téléphone. Cette fonction est compatible à partir de l’iPhone 12, car elle ne dépend pas d’Apple Intelligence mais du Neural Engine.
Reste que pour bénéficier de l’essentiel des nouveautés réellement « intelligentes », il faudra passer à la caisse.
🟣 Pour ne manquer aucune news sur le Journal du Geek, suivez-nous sur Google et sur notre canal WhatsApp. Et si vous nous adorez, on a une newsletter tous les matins.