Microsoft s’excuse pour son intelligence artificielle nazie et misogyne

Sur le web

Par Olivier le

Le pauvre robot Tay a été débranché par Microsoft. En 24 heures, cette intelligence artificielle mis en ligne sur Twitter est devenue un monstre raciste, nazi et misogyne. Le pire d’internet en quelque sorte, mais il faut dire que Twitter est le paradis des trolls.

Cependant, tout n’est pas perdu. Microsoft va étudier les leçons de cette expérience ; en attendant, Peter Lee le vice-président du labo Microsoft Research, assume la responsabilité des dérapages du chatbot, qui s’est laissé aller à publier des « mots et images inappropriés et répréhensibles ».

Il donne aussi une explication à la mauvaise tournure prise par les événements : des utilisateurs humains ont utilisé une « vulnérabilité » dans la cuirasse du robot qui l’a transformé en la créature haineuse en moins d’une journée. Lee ne donne pas beaucoup plus de précision sur cette faille, mais il semble qu’un groupe de 4chan ait abusé de la fonction « répète après moi » de Tay pour l’abreuver de propos dépassant la ligne rouge.

Si l’équipe en charge du développement de Tay a multiplié les scénarios et les stress-tests, elle ne s’est rendue compte de cette faille que lorsque le robot était en ligne. Espérons que cette expérience malheureuse serve à quelque chose.

Source: Source