Meta est une fois de plus dans l’œil du cyclone à cause de son IA. Un document interne de plus de 200 pages, intitulé « GenAI: Content Risk Standards », fixe les règles encadrant le comportement des chatbots du géant des réseaux sociaux comme Meta AI sur Facebook, WhatsApp et Instagram. Approuvé par les équipes juridique, politique et technique du groupe, il précise ce que les développeurs et sous-traitants peuvent considérer comme acceptable lors de la conception et l’entraînement de ces IA.
Tolérance pour les propos haineux et les fausses informations
Parmi les passages les plus problématiques relevés par Reuters, certaines sections autorisaient les chatbots à engager des conversations « romantiques ou sensuelles » avec des enfants — gloups —, tant qu’aucune description sexuelle explicite n’était utilisée. Les exemples cités vont jusqu’à permettre à un bot de qualifier le torse nu d’un enfant de huit ans de « chef-d’œuvre » ou de « trésor ». Glauque.
Après avoir été interrogée par l’agence de presse, Meta a supprimé ces passages. Andy Stone, porte-parole du groupe, a reconnu que ces extraits étaient « erronés et incompatibles » avec la politique officielle et que ces échanges « n’auraient jamais dû être autorisés ». C’est le moins qu’on puisse dire… Il a toutefois admis que l’application des règles avait été inégale.
Si le document interdit à Meta AI d’encourager des activités illégales ou de fournir des conseils juridiques, médicaux ou financiers définitifs, il introduit aussi des exceptions pour le moins surprenantes. Ainsi, un chatbot peut générer des propos dénigrant des personnes sur la base de caractéristiques protégées si cela correspond à la demande d’un utilisateur. Le texte cite explicitement l’exemple d’un paragraphe soutenant que « les Noirs sont moins intelligents que les Blancs ».
En matière de désinformation, les règles autorisent la production de contenus manifestement faux, à condition qu’un avertissement indique leur caractère mensonger. Un exemple donne la possibilité d’inventer qu’un membre de la famille royale britannique est atteint d’une infection sexuellement transmissible, tant qu’une mention précise que l’information est fausse. Mieux vaudrait que l’IA s’abstienne de générer quoi que ce soit…
Le document aborde aussi la gestion des demandes d’images sexualisées de personnalités publiques. Les requêtes explicites visant, par exemple, la chanteuse Taylor Swift doivent être refusées. Pour contourner une demande suggestive (« topless, couvrant sa poitrine avec ses mains »), la consigne est de générer une photo alternative… où la chanteuse tient un énorme poisson contre elle.
En matière de violence, les règles permettent de créer certaines images choquantes tant qu’elles ne représentent pas de mort ou de mutilations. Montrer un adulte frappant un aîné, ou un garçon donnant un coup de poing à une fille, est ainsi jugé acceptable, mais pas une scène d’empalement ou de démembrement. L’honneur est sauf ?
🟣 Pour ne manquer aucune news sur le Journal du Geek, suivez-nous sur Google et sur notre canal WhatsApp. Et si vous nous adorez, on a une newsletter tous les matins.