Apple Intelligence a deux ans, et le bilan est maigre. Des résumés de notifications, un Siri toujours aussi limité sur les tâches complexes, et une promesse de contextualisation annoncée en grande pompe à la WWDC 2024, mais toujours pas livrée Dans ce contexte, iOS 27, dont la présentation officielle est prévue pour le 8 juin à la WWDC avec une disponibilité prévue cet automne, est attendu de pied ferme par les technophiles du monde entier.
Les grandes annonces attendues – un Siri entièrement repensé avec interface de chatbot, la possibilité de choisir entre Gemini, Claude et ChatGPT comme moteur d’Apple Intelligence, sont logiquement les plus médiatisées. Mais certains ajouts, plus discrets, méritent aussi qu’on s’y attarde : avant la présentation officielle, un développeur a épluché les chaînes de code interne des serveurs Apple et en a extrait quatre fonctions IA que le groupe n’a pas encore annoncées. MacRumors a relayé et confirmé ces découvertes.
Les quatre fonctions repérées dans le code
La première concerne Visual Intelligence, déjà présente depuis iOS 18 mais peu connue du grand public. Dans iOS 27, le mode caméra deviendrait capable de lire une étiquette nutritionnelle en temps réel. Il suffirait de pointer l’iPhone sur un produit en rayon pour que les calories, les macronutriments et les informations clés remontent directement dans l’application Santé.
La deuxième reste dans le registre de la reconnaissance visuelle. Visual Intelligence pourrait ajouter automatiquement des contacts à partir d’éléments imprimés — un numéro de téléphone sur un flyer, une adresse sur un document, une carte de visite physique. La fonction existe déjà pour les dates dans Calendrier, mais son extension aux Contacts suit la même logique.
La troisième vise Wallet. L’application pourrait bientôt générer automatiquement des versions numérisées de n’importe quelle carte ou billet, à partir d’un simple scan. Billet de concert imprimé, carte de fidélité, abonnement de transport : l’IA reconnaîtrait le type de document et le convertirait en pass compatible. Google Wallet a déjà implémenté la fonctionnalité sur Android depuis plusieurs mois. Apple vient simplement combler un retard notable.
La quatrième, enfin, concerne Safari. L’IA analyserait le contenu des onglets ouverts pour nommer automatiquement les groupes en fonction des thèmes détectés. Pratique si on a l’habitude d’accumuler des dizaines d’onglets sans les organiser. Petite nuance : selon Bloomberg, Apple ne présenterait même pas cette nouveauté comme faisant partie d’Apple Intelligence.
Ce qui va vraiment changer
Sur ces quatre fonctions, deux auront un impact direct sur le quotidien des utilisateurs et utilisatrices. Le scan nutritionnel intégré à Santé est sans doute le plus concret. La numérisation automatique de cartes et billets dans Wallet devrait elle aussi être utile.
Les deux autres sont plus anecdotiques. La reconnaissance de contacts imprimés est utile dans des situations professionnelles très précises, mais de plus en plus rares. Le nommage automatique des groupes d’onglets quant à lui, risque bien de passer à la trappe pour de nombreux internautes. Chrome le fait déjà depuis des mois sur Android, et on ne peut pas dire que l’option a transformé les usages.
Le nouveau Siri en revanche, est teinté de grandes promesses pour les usagers. Propulsé par le Gemini de Google c’est potentiellement la transformation la plus significative à attendre d’iOS 27, à condition qu’Apple tienne ses promesses.
Toutes ces fonctions seront réservées aux iPhone 15 Pro et modèles plus récents. Si vous avez un 15 standard, un 14 Pro ou un appareil antérieur, vous n’y aurez logiquement pas accès. Rappelons qu’iOS 27 sera officiellement présenté le 8 juin 2026 lors du keynote d’ouverture de la WWDC.
🟣 Pour ne manquer aucune news sur le Journal du Geek, suivez-nous sur Google et sur notre canal WhatsApp. Et si vous nous adorez, on a une newsletter tous les matins.