Passer au contenu

Apple va utiliser les muscles de Google pour réveiller Siri

Après avoir longtemps donné l’impression de regarder passer le train de l’IA, Apple accélère enfin… mais pas tout seul. Le constructeur va s’appuyer sur les modèles Gemini de Google pour ses futures fonctions IA, dont une version plus futée et plus personnelle de Siri attendue dans les prochains mois.

C’est officiel : Apple et Google ont décidé de travailler main dans la main sur l’intelligence artificielle. Dans le cadre d’un partenariat pluriannuel, les prochains « modèles de fondation Apple » reposeront sur les modèles Gemini et l’infrastructure cloud de Google. Le carburant idéal, selon la firme à la pomme, pour propulser ses futures fonctions d’Apple Intelligence.

Apple appelle Google à la rescousse

Dans leur déclaration commune, les deux groupes expliquent avoir mené une « évaluation approfondie » avant de choisir la technologie de Google, jugée « la plus capable » pour servir de base aux ambitions d’Apple. Le communiqué promet des « expériences innovantes » pour les utilisateurs, sans toutefois entrer dans le détail. Une spécialité maison.

En coulisses, ce rapprochement n’est pas vraiment une surprise. Dès l’été dernier, des discussions avaient filtré autour de l’utilisation d’un modèle Gemini sur mesure pour Siri, avec, à la clé, un chèque annuel à hauteur d’un milliard de dollars. Apple se garde bien de confirmer le moindre montant, et Google renvoie poliment à la déclaration conjointe.

Ce partenariat marque surtout un tournant pour Apple. Depuis l’explosion de l’IA générative fin 2022, le groupe donnait parfois l’impression de temporiser pendant que Microsoft, Amazon ou Meta investissaient sans compter. L’accord avec Google ressemble donc à une manière d’accélérer, alors que les modèles développés en interne par Apple se montrent moins performants et surtout, incapables de donner à Siri la cervelle qui lui manque tant.

La première concrétisation de cette alliance devrait arriver rapidement : une version plus personnalisée de Siri, attendue avec iOS 26.4 dès le printemps. Cette évolution avait déjà été annoncée (en 2024 !), puis repoussée aux calendes grecques. Apple avait alors reconnu que tout cela prenait « plus de temps que prévu ».

Sur le papier, la promesse est séduisante. Siri devrait mieux comprendre le contexte personnel de l’utilisateur, savoir ce qui se passe sur l’écran de l’iPhone et interagir plus finement avec les applications. Apple a déjà donné quelques exemples parlants : demander à Siri des informations sur le vol d’un proche ou sur un déjeuner à venir, en se basant sur des mails et des messages existants.

Malgré l’apport de Google, Apple tient à marteler son credo habituel. Les fonctions d’Apple Intelligence continueront de tourner sur les appareils eux-mêmes et sur ses propres serveurs du Private Cloud Compute, avec des garanties de confidentialité présentées comme « parmi les meilleures du secteur ». Autrement dit, Gemini apporte l’intelligence, mais Apple garde la main sur l’exécution et les données. Cela ressemble au meilleur des deux mondes, finalement.

🟣 Pour ne manquer aucune news sur le Journal du Geek, suivez-nous sur Google et sur notre canal WhatsApp. Et si vous nous adorez, on a une newsletter tous les matins.

Mode