Passer au contenu

Apple va scanner automatiquement les photos reçues par les enfants

La marque à la pomme a un nouveau plan d’attaque pour lutter contre la pédocriminalité, avec un système de reconnaissance automatique à destination des plus jeunes.

Conformément à ce que l’entreprise avait annoncé quelques mois auparavant, Apple va déployer une nouvelle fonctionnalité destinée à sécuriser les échanges des enfants sur iPhone. Au Royaume-Uni, la Pomme a confirmé l’application prochaine d’une technologie basée sur l’IA, capable de scanner automatiquement les messages reçus, mais aussi ceux envoyés depuis un smartphone de la marque identifié comme appartenant à un mineur.

L’IA pour flouter la nudité

Optionnelle, cette fonctionnalité baptisée “Communication safety in Messages” permettra aux parents d’activer une couche de protection supplémentaire pour éviter les échanges de messages inappropriés entre leur rejeton et un autre mineur, ou — plus grave — une personne adulte. Concrètement, l’ensemble des photos échangées sur la plateforme Message sera préalablement passé au crible par l’entreprise. Si de la nudité est détectée, le contenu sera automatiquement flouté, et l’enfant averti de son contenu potentiellement sensible.

L’application sera aussi en mesure d’avertir l’utilisateur en cas d’envoi d’une photo contenant de la nudité. Là encore, Apple tentera de dissuader l’envoi, tout en informant sur les risques, notamment ceux liés au revenge porn.

La sécurité avant tout

À noter que selon Apple, l’ensemble des photos traitées par l’IA transitera uniquement sur l’appareil. Les images seront analysées par l’iPhone, et la firme n’aura théoriquement jamais accès aux contenus en question. Le cryptage de bout en bout sera maintenu, assure la société dans un communiqué, avant de préciser : “La fonction est conçue pour qu’aucune indication de détection de nudité ne quitte jamais l’appareil. Apple n’a pas accès aux messages et aucune notification n’est envoyée au parent ou à quelqu’un d’autre”.

À propos de la confidentialité, Apple a d’ailleurs opéré quelques retours en arrière suite à quelques annonces controversées : dans son annonce initiale, la société prévoyait en effet d’alerter systématiquement les parents lorsqu’un enfant de moins de 13 ans réceptionnait des photos sensibles. Une option introuvable dans la version finale de l’outil, rapporte The Guardian.

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

3 commentaires
  1. 2 choses, comme on a deja eu le cas, les photos d’oeuvres de peintres celebres ou il y a beaucoup de “zizi” , sera il detecté comme porno ?
    Et secondo, si les parents en peuvent pas etre informé, pas sur que ca arrete un enfant… Aura t il la possibilité lui meme de retirer le “flou ” ?? Perso j’aurai bien laissé cette possibilité uniquement aux parents… Les parents sont dans tous les cas responsables de leurs enfants et de ce qu’ils font jusqu’a leur majorité…

  2. Orwell, 1984, Toussa.
    Plus de sécurité ? Sûrs ?
    En tout cas, moins de loberté, ça, c’est certain.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Mode