Avec Lumos, Facebook reconnait les objets dans les photos

Sur le web

Par Olivier le

Si vous faites partie de ceux qui ont pris l'habitude de déverser toutes leurs photos de smartphone dans un album Facebook, vous savez à quel point...

Si vous faites partie de ceux qui ont pris l’habitude de déverser toutes leurs photos de smartphone dans un album Facebook, vous savez à quel point il peut être pénible de devoir rédiger une description et de tagguer les différentes personnes présentes… sans oublier les objets pour les adeptes de la précision !

Facebook veut faciliter la tâche aux encyclopédistes des photos, mais aussi à tous ceux qui oublient de tagguer leurs images ou qui n’en ont tout simplement pas le temps. Le réseau social a mis au point un outil de reconnaissance d’objets présents dans les photos. Selon Facebook, ce système qui exploite la plateforme Lumos « comprend » le contenu des images et des vidéos, il repère les objets et il les taggue à la place de l’utilisateur.

Un réseau neuronal qui avale les photos

Si vous ne vous rappelez plus quand une photo a été prise, mais que vous vous souvenez de son contexte, il suffit de demander à Facebook un élément de ce contexte : par exemple, un de vos amis portait un « t-shirt noir ». L’application sera en mesure de lister tous les clichés sur lesquels ce vêtement est présent, sans que vous ayez eu au préalable à le décrire dans les tags.

De la même manière, il est possible de fouiller dans les photos partagées par ses amis, même si ces derniers n’ont rien taggué. Pour réaliser cette prouesse, Lumos a traité des dizaines de millions de photos décrites comme il faut. Un processus indispensable pour « nourrir » le réseau neuronal à l’œuvre dans cette technologie.

La plateforme est capable de rechercher des objets donc, mais aussi des paysages, des animaux, des endroits, des attractions, ainsi que des vêtements. Un spectre large, qui va sans doute bien aider les presque deux milliards d’utilisateurs du réseau social, sans oublier ceux qui ont des difficultés de vision.

Source: Source