Pour relancer la machine Siri, la firme de Cupertino avait annoncé durant en juin 2024, à l’occasion de la WWDC, une véritable transplantation de cerveau. L’assistant devait intégrer de nouveaux modèles IA plus performants développés en interne… qui ne se sont manifestement pas révélés si performants ! L’entreprise a en effet reporté ce nouveau Siri à l’année prochaine, alors qu’il était plus ou moins entendu qu’il sorte au printemps 2025.
L’intelligence de Siri externalisée ?
Depuis, c’est la galère en interne. Le développement de Siri est entre de nouvelles mains, en l’occurrence celles de Craig Federighi, le vice-président en charge du logiciel, et Mike Rockwell, devenu « chef » de l’assistant après avoir géré le lancement du Vision Pro. Le temps des grandes manœuvres étant terminé, les deux pontes se sont lancés dans une opération de sauvetage et cherché des solutions… qui pourraient passer par des modèles IA externes.
Lire « Moche » et « Embarrassant » : le retard de Siri plonge Apple dans la crise
Apple développe deux type de modèles IA : ceux qui fonctionnent en local sur les appareils, et qui s’occupent de traiter des fonctions simples comme les Genmoji (combinaisons d’émojis) et les résumés d’emails. Les autres tournent sur des serveurs Private Cloud Compute mis au point par le constructeur pour protéger la confidentialité des données. Le nouveau Siri et ses fonctions personnalisées doivent s’appuyer sur ces modèles en ligne, qui ne semblent toujours pas à la hauteur de la concurrence.
C’est pourquoi Federighi et Rockwell auraient pris leur bâton de pèlerin pour demander à OpenAI et Anthropic de tester leurs modèles GTP et Claude sur les serveurs d’Apple, selon Bloomberg. Et c’est ce dernier qui donnerait les meilleurs résultats. Autrement dit, le cerveau du futur Siri pourrait être le même que celui du bot Claude ! Mais Anthropic, sentant le joli coup, demanderait des milliards de dollars chaque année à Apple qui, comme chacun sait, est très près de ses sous.
Ce ne serait cependant pas la première fois que le constructeur informatique s’appuie sur un modèle IA externe pour des fonctions Apple Intelligence. ChatGPT est ainsi utilisé pour répondre aux questions laissées en friche par Siri dans iOS 18. Mais ici, on parle de fonctions particulièrement importantes. Siri 2.0 doit être en mesure de « lire » l’écran de l’iPhone, de piocher dans les données des apps et de « comprendre » le contexte dans lequel un utilisateur pose une question.
Des fonctions qu’un modèle comme ceux d’Anthropic ou d’OpenAI peuvent accomplir et qu’Apple n’aura peut-être pas le choix que de prendre en charge pour parvenir à redresser la barre de Siri. Cette intégration risquerait néanmoins de provoquer un joli bazar en interne : Bloomberg a eu vent d’une potentielle mutinerie des équipes chargées du développement IA, qui ne veulent pas être pointées du doigt pour les problèmes de l’assistant.
🟣 Pour ne manquer aucune news sur le Journal du Geek, suivez-nous sur Google et sur notre canal WhatsApp. Et si vous nous adorez, on a une newsletter tous les matins.