Le parcours d’Ace résume à lui seul l’accélération du projet. En avril 2025, le robot bat trois joueurs élites sur cinq, des gens qui s’entraînent vingt heures par semaine depuis plus de dix ans. En décembre, il remporte un premier match contre un professionnel. En mars 2026, il en bat trois, dont Miyuu Kihara, alors dans le top 25 mondial du simple dames. Dix-huit mois de matchs, une progression continue, et un résultat que personne dans la recherche en robotique n’avait encore publié.
Ce que ce robot fait différemment
Des robots qui frappent des balles de ping-pong sur rail, il en existe depuis les années 1980. Tous butaient sur le même problème : ils fonctionnent bien dans des conditions prévisibles, et s’effondrent dès qu’un adversaire humain commence à varier les effets. Au tennis de table de haut niveau, c’est précisément l’effet qui fait la différence, une balle qui arrive à 150 tours par seconde avec un lift ou un coupé change tout à la façon dont elle rebondit et dont il faut orienter la raquette. Lire l’effet en temps réel, c’est ce que les robots ne savaient pas faire.
Mais Ace le fait ! Neuf caméras haute vitesse déterminent la position 3D de la balle, trois systèmes de vision supplémentaires mesurent sa rotation en temps réel. Sur l’ensemble des échanges documentés, le robot a retourné correctement 75 % des balles avec effet, sur une large gamme de rotations. Pas en frappant plus fort que ses adversaires humains mais en contrôlant mieux. C’est exactement ce qui distingue un joueur de haut niveau d’un joueur moyen, et c’est maintenant ce qu’un robot fait aussi.
Le problème que Sony a dû résoudre
Programmer un robot pour jouer dans un environnement contrôlé, c’est faisable depuis des années. Le vrai défi, c’est l’adversaire humain car il est imprévisible, capable d’improviser, de changer de tactique, de mettre des effets inhabituels. Pour résoudre le problème du Sim-to-Real, l’écart entre ce qu’un robot apprend en simulation et ce qui se passe dans le monde réel, Sony AI a utilisé une technique appelée “privileged critic” c’est à dire que pendant l’entraînement, le système d’évaluation accède à des informations parfaites sur la trajectoire et la rotation de la balle, tandis que le système d’exécution apprend à agir uniquement depuis des données sensorielles imparfaites. Le robot apprend à prendre de bonnes décisions avec des informations incomplètes, parce qu’il a été entraîné avec un juge qui savait tout.
Cette capacité de replanification est mesurable concrètement. Quand un filet déviait la balle de façon inattendue lors d’un match, Ace modifiait la trajectoire de sa raquette en 49 millisecondes. Un clignement d’œil humain dure entre 100 et 400 ms.
Ce que ça préfigure au-delà du ping-pong
Sony ne fait pas de robot de ping-pong pour vendre des robots de ping-pong. Les capteurs de vision événementielle embarqués dans Ace sont les mêmes briques technologiques qui intéressent la robotique industrielle, les systèmes de conduite autonome et tous les environnements à forte contrainte de latence. Peter Stone, scientifique en chef chez Sony AI, formule le résultat ainsi : pour la première fois, un système peut percevoir, raisonner et agir efficacement dans un environnement complexe et rapide du monde réel, avec des exigences de précision et de vitesse qui correspondaient jusqu’ici au domaine exclusif de l’humain.
L’ancien champion olympique Kinjiro Nakamura, après avoir regardé un échange particulièrement improbable, a dit que personne d’autre n’aurait pu faire ça, et que le fait que ce soit possible signifie peut-être qu’un humain pourrait aussi y arriver. Une façon de dire que les robots comme Ace ne servent pas qu’à battre des humains. Ils peuvent aussi leur montrer ce qu’ils n’avaient pas encore imaginé pouvoir faire.
🟣 Pour ne manquer aucune news sur le Journal du Geek, suivez-nous sur Google et sur notre canal WhatsApp. Et si vous nous adorez, on a une newsletter tous les matins.