Passer au contenu

Quand l’intelligence artificielle décide seule de licencier

Après la peur des machines qui voleront le travail des humains, la peur des algorithmes chargés de virer ces mêmes humains ! C’est ce qui est arrivé dans une entreprise russe, une expérience qui pourrait bien inspirer d’autres sociétés…

Au mois d’août, Xsolla la filiale russe d’une entreprise de logiciels basée à Los Angeles, a lancé une restructuration massive de ses effectifs : 150 employés se sont fait montrer la porte de sortie, alors que l’entreprise emploie 450 personnes. Des licenciements qui ont été décidés par un… algorithme. L’intelligence artificielle a sélectionné les employés à virer en fonction de leurs performances au travail.

L’IA de plus en plus impliquée dans la gestion des entreprises

Si l’intelligence artificielle peut être utile dans le processus décisionnel des ressources humaines d’une entreprise, la nouveauté ici c’est que c’est un algorithme qui a pris la décision seul. Ce qui pose un sérieux problème : les RH et en bout de ligne la direction évitent ainsi de prendre leurs responsabilités en se cachant derrière une IA. C’est une manière de déshumaniser un peu plus les relations humaines…

Au-delà, c’est l’existence même des départements de ressources humaines qui est en jeu, mais aussi pourquoi pas la gestion au quotidien d’une entreprise : augmentations, promotions, primes, processus disciplinaires, et pourquoi pas signatures de contrats. Amazon base aussi une partie de ses décisions de management sur des critères IT. Le géant du commerce en ligne n’hésite pas à faire appel à ces critères pour licencier du personnel ne correspondant aux exigences de productivité.

Pour éviter une gestion des entreprises par des intelligences artificielles, plusieurs chercheurs en appellent tout simplement à la régulation. Des lois pourraient être votées pour exiger la transparence sur les critères utilisés par les algorithmes. Un principe de précaution qui doit s’appliquer, car les IA aussi peuvent faire des erreurs.

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

Source : El Pais

15 commentaires
  1. Tout ce qui fait qu’on se détache de son travail, pourquoi s’impliquer si c’est une IA ou un comptable à l’autre bout de la planete qui juge mon travail ? Je constate que de plus en plus de jeunes se contentent d’être présents et pour tout avouer même moi, de l’ancienne génération ou son travail et la reconnaissance de sont travail avait un importance primordiale, je commence à les rejoindre.

  2. L’utilisation de l’IA pour ce genre de management est une bonne chose je trouve. Ça évite le copinage et que le pote du manager qui est non productif soit gardé. L’IA est neutre et ne fait pas du copinage et du favoritisme

  3. Mais pourquoi faire croire que c’est une IA qui a licencié ces personnes. Qui, dans l’entreprise, a pris la responsabilité et a signé les fins de contrat ? C’est cette personne-là le véritable décideur !

  4. cet article vient de me donner une idée révolutionnaire:

    Appliquons cette IA au gouvernement, et nos politiciens seront plus responsabilisés .

  5. “c’est une manière de déshumaniser un peu plus les relations humaines”, sortez vos Kleenex, le journaliste est déjà en train de pleurer.

    déjà ce n’est pas vraiment une IA car l’algorithme doit être assez simpliste et que de plus, à mon avis, il se base sur des performances probablement déjà documentées, c’est donc finalement une manière de raconter encore un peu plus n’importe quoi pour du putaclic.

    ensuite, si effectivement une IA pourrait prendre de telles décisions en faisant moins d’erreurs qu’un patron, c’est une chose à saluer, moi je ne vais pas pleurer en tout cas.

  6. Oui, mais c’est tellemnt facile de dire : “C’est pas moi, c’est l’ordinateur !” On a entendu ça combien de fois quans on a eu des problèmes avec par exemple une administration, ou une grosse structure privée ou personne n’est responsable ?
    Dans le même esprit, :”Les prix augmentent !”. Bizarre ! J’ai écrit “15€ le kg” sur un carton, il y un an. Il y a toujours 15 € le kg sur mon carton. Ne serait-ce point des humains qui changent les prix, les taux d’imposition, les taxes ??

  7. Ke vous conseille de lire
    La fin de l’individu : Voyage d’un philosophe au pays de l’intelligence artificielle

    Gaspard Koenig

  8. L’IA est un programme qui ne comprend pas l’humour et celui du second degrés également cela dit je ne sais toujours pas comment l’IA ou quoi que ce soit d’autre fait toujours que je suis au bout du roulot pour mon ticket d’achats quand j’arrive à la caisse du supermarché ce peut être sûrement un certain humour noir/blanc 😅

  9. L’IA comme bon nombre de supports, d’outils n’est pas un problème en soit. C’est de ce que l’on en fait qui peut devenir problème !!!! Et quand on commence à l’utiliser pour remplacer les humains pour des questions de coût, de marge, de profits à tout prix, c’est le début de la fin…… L’homme sera toujours plus perfectible que la machine sans émotions, sans âme, sans libre arbitre. L’homme a déjà perdu le combat !!!! On voit bien tous les jours de quoi l’homme est capable, et jusqu’où il est prêt à aller pour du pognon. L’homme détruit tout sur son passage et s’en félicite !!! Comme disait Corbin, l’homme est capable du meilleur comme du pire, mais c’est vraiment dans le pire qu’il est le meilleur….. Ça se vérifie tous les jours !!!!! Les IA nous aideront à aller plus vite vers notre déchéance….

  10. LA RÉALITÉ DÉPASSE LA FICTION ! Ce que je voyais dans les films et séries SF dans les années 90-2000 et même dans les années 80 est devenu une réalité.

  11. De dire n’empêchera de toute façon pas de faire…
    Comme certains ont dit: l’intelligence artificielle ne prend pas tout en compte…
    dont la qualité souvent du travail rendu.
    Mais comme d’autres l’ont dit aussi: c’est que ceux au-dessus n’en ont rien à f… de la qualité, c’est uniquement le rendement et C.A qui les intéresse: tant qu’ils continuent à avoir des clients et des commandes, que l’argent rentre, peu importe si clients finaux pas très… et que la qualité ne soit plus prise en compte. Ni sans doute d’autres points.
    Mais déjà aujourd’hui, de toute façon, les humains ne le sont plus et déjà bcp se comportent comme des robots, voir pire que des robots, donc ça fait et fera qu’un certain nombre de gens acceptent bras ouverts que les emplois de contact et autres soient remplacés par des machines. Parce qu’ils considèrent que les machines ne feront pas d’erreurs (comme les radars) ni de sélection injuste.
    Attention aux critères introduits à la base à l’intelligence artificielle!!! Le résultat peut être mieux ou pire…
    Car c’est comme envoyer les offres d’emploi à la place de. On s’aperçoit que pas l’humain… car il n’a pas pris en compte L’ÉVOLUTION de la personne et de son âge, de ses handicaps naissants, de ce qu’il pourrait faire/son diplôme qui peut être un indice de Q.I, pas juste de telle et telle matière…, etc. Mais bcp d’humains sont aussi PAUVRES que ces I.A sur ce plan…
    C’est comme aussi les réponses du gvt… On a des réponses très rapides aujourd’hui… mais qui n’ont carrément pas compris le sens de votre courrier.
    On a une réponse toute faite à des mots clés récupérés dans la lettre…
    Mais ce qu’on a voulu dire…!!! Et re belotte si vous re écrivez. Pas au point…!!!
    Et j’en passe.

    Donc l’IA pourrait être un outil complémentaire intéressant mais pas pour des fonctions où il faudrait prendre en compte une multitude de données dont certaines non explicitées, où il faudrait investiguer pour prendre une décision.

    En attendant, oui, effectivement, ça risque de deshumaniser… avec ses conséquences, positives et négatives…
    Si on regarde ce que les Allemands ont pu faire pendant la deuxième guerre… c’est un peu le même risque…
    Mais déjà aujourd’hui l’humain n’est souvent plus… il suffit d’aller à une caisse de supermarché humaine… et tas d’autres situations.

    Et de toute façon, tant que l’action n’a pas atteint un stade… la réaction ne se produira que peu.
    On reste très comme l’homeostasie ou la physique.
    Les pb ne sont réalisés qu’à partir d’un certain stade, et avec la multitude de conséquences secondaires qu’ils provoquent et souvent non imaginées, non prévues… et qui entraînent elles-mêmes d’autres conséquences.
    Souvent ce n’est pas le 1er domino qui chute qui pose pb, mais ceux bcp + loin et auxquels on n’avait pas pensé.

    C’est d’ailleurs pourquoi un progrès est tjrs génial au départ (le plastique par exemple) puis… et tout comme ça.

    Les humains d’hier étaient tout aussi intelligents que ceux d’aujourd’hui. Ils ont commis des erreurs. Donc ne pas croire qu’on y échappe.

    Un revolver restant dangereux. C’est se poser la même question que pour ou contre les armes…

    Je rajoute que les gens ne meditent pas assez sur les 7 péchés capitaux et ce qu’ils ont déjà entraîné et ce qu’ils font croire et faire aux gens sous leur emprise… et l’I.A n’etant qu’un revolver…
    Et il suffit de voir si aujourd’hui il y a eu des soucis avec des armes ou pas et si on est vraiment protégé de ceux qui les utilisent mal.

    Ben voilà.

  12. A mon message précédent, j’ajoute/cette histoire de conséquences et sous conséquences qui ont elles-mêmes des conséquences (…) que l’on n’a pas envisagées et que souvent elles à poser les pb… Et dans les réactions aux actions… Qu’on ne les perçoit souvent pas tout de suite (cancer, pb de dos, réchauffement climatique, etc.) C’est seulement quand on en perçoit les symptômes, de façon de + en + fréquentes, que l’on COMMENCE à s’alerter… Mais après, entre le temps où les 1eres personnes tirent la sonnette d’alarme (demandez à Jancovici) et le moment où enfin la locomotive puis ses wagons (…) commencent à bouger, cela peut déjà être trop tard et le mal fait…
    Et comme une addiction qu’on ne SAVAIT PAS que l’on serait addicte, il est parfois difficile de s’en défaire… et ça peut être violent…

    Et raisonner quelqu’un fin enthousiaste de sa trouvaille, tant qu’il n’a pas commencé à en voir les multiples aspects négatifs, tant que très addict et à donc vouloir minimiser…

    Et il ne s’agit pas d’une personne mais du monde… donc même si un est mentalement assez fort et capable d’endurer une certaine souffrance, d’autres ne le sont pas forcément. Sinon il serait très simple de tout changer rapidement en tout…

    Donc comme à chaque époque, ça va se passer pareil au final et en fonction du degré d’atteinte à l’équilibre et de ce qui devrait être. Des fois on arrive à rattraper, rajuster. Des fois non mais plus là pour dire précisément pourquoi… et toutes les spéculations sont ensuite ouvertes de pourquoi une civilisation a disparu, pourquoi il n’a pas été transmis tel ou tel savoir, composition etc. (muraille de Chine par exemple).

    Et le nucléaire est une arme. La découverte des micro-organismes etc. est une arme. Un revolver est une arme. Il ne faut pas s’attendre à ce qu’il en soit différemment de l’intelligence artificielle. Les humains restent aux manettes et leur capacité aux extrêmes là aussi, ainsi qu’entre eux.
    Et leurs 7 péchés capitaux et leurs conséquences aussi.

  13. Ça fait plusieurs années que je me questionne là dessus, il n’y a qu’à regarder comment les journaux et magazines de vulgarisations scientifiques nous présentent toujours ce genre de prospections à la forme interrogative bien des années avant que cela ne se fasse.
    “Et si demain l’ia préselectionnait les candidats à la présidence?”, “Et si demain il n’y avait plus d’argent physique?” Etc
    Ce moins pour nous présenter l’idée dans une recherche d’approbation après avoir digéré l’information que pour la rendre admissible au fil du temps, comme un pieds dans la porte l’information à été présentée, elle ne tombé pas du ciel et personne n’est surpris lorsque c’est acté.
    Le reste c’est comme pour tout, les pros et les conts, ce ne sont que des circonvolutions, le “truc” dont on parlait est là!
    Ils en avaient parlé de la possibilité de se servir de l’IA pour trier les profils dans le monde du travail, pour la conduite routière…

    Il y a quelques années il y a eu un pieds dans la porte sur le plan légal au États Unis, ils ont réussi à rendre l’IA des automobiles inattaquable. Reconnue comme n’étant pas une entité responsable mais comme un service dont les utilisateurs ont souscris, par cela même aussi ils ont rendu la société des constructeurs automobile inattaquable.
    Il y a eu des accidents où se sont les victimes qui se sont vu pénalisés lors d’accrochage voiture et vélo/piéton… étant convenu que l’IA ne faisant pas d’erreurs, d’autant plus qu’il est difficile de démontrer le contraire dans les enquêtes par manque d’éléments extérieur (témoignage, vidéo “depuis la chaussé” et non celle du véhicule) et puis qui peut mettre les pattes dans le fonctionnement de l’IA? Secret industriel copyright et tout le reste.

    C’est le même problème avec les IA dans le monde du travail, qui a les compétences et qui est en plus autorisé à jeter un œil?
    On nous dit “IA” et même si ce n’est qu’un algo, qui peut savoir les critères sur quoi ces systèmes base? Si c’est Moral, si il y a des critères non légales qui se dont immiscée ou délibérément inclus…
    Ça m’étonnerait que ces IA aient été “calibrées” pour inclure des notions sociales tel que de prendre en considération si l’employé a virer à des enfants à charge, si il est à 2 ans de la retraite, si depuis 6 mois il prends des congés pour s’occuper de sa femme malade mais que dans 2 mois ça ira mieux…

    De plus, ce n’est qu’un outil qui se rajoute à la panopli qui sert à se dédouaner, dans notre société de services basée sur la sous-traitance et les intermédiaires. Avec cette culture du secret, quand la main gauche ne sait pas clairement et de prime abord ce que fait la main droite, ni même si il y en a bien une main droite.
    Même sur le point de vue du poids des mots, comme je ne sait plus qui relevait, on ne dit plus “Employés, Sous-traitants etc” on dit “collaborateurs”, on ne dit plus “chômage et licenciement” mais “reclassement, plan de sauvegarde pour l’emploie”.
    Combien de fois on a vu de ce fait des responsables invoquer la “responsabilité partagée”, et des politiques dire “j’assume”, tout cela n’ayant aucune substance sinon que de façon rethorique?!

    L’IA n’est pas étrangère à la programmation, aux possibles plombages du système, à une appréciation tronquée de la réalité où des données seraient traitées ou ignorées (rejetées volontairement car programmée pour, ou alors on ne lui a pas appris à s’y interresser), et puis on sait par expérience nous les hommes et surtout les statisticiens/mathématiciens que un calcul peut être correct mais le raisonnement faux, quid du côté fallacieux si en amont on à (disons) “orienté” la machine?
    Qui peut avoir un regard sur cet IA légalement? Et après combien de recours?
    C’est le serpent qui se mord la queue, car il faudrait savoir que le raisonnement est faux/fallacieux mais en absence d’articulations d’idées et d’un véritable échange d’information (comme avec un DRH…) le doute ne repose sur rien! Alors pourquoi et comment demander une révision et attaquer?!
    D’autant plus que ce qui a été fait dans un domaine (automobile-loi) est possiblement valable dans un autre. (Sans parler des juris prudence)

    On peut très bien faire en sorte en amont qu’une IA soit partiale, est un partie pris, (c’est ce que les gens ne comprennent pas j’ai l’impression) car il est utilisé comme outil par une société (ils ne vont pas se tirer une balle dans le pieds).
    J’ai un exemple tout bête, j’ai une tante qui bossait dans le nettoyage, un collectif s’est monté, ces femmes se sont retourné contre le patrons. Elles ont gagnés mais leurs indemnisations étaient dérisoires, le juge pouvait mais beaucoup pas pu condamner le patron à reverser toutes les sommes car sinon la boite coulait et ces femmes se seraient retrouvé au chômage ainsi que ces autres employés.
    L’IA peut autant suivre ce genre de raisonnement, autant qu’il peut ne pas le suivre, je dirais même que tout dépend pour quel action et sur quel critères il a été employé.

    Y a t-il un organisme d’état pouvant avoir une visibilité sur les procédures et critères utilisés par la machine (ne serait ce rien que de ce qui relève du code du travail)? Je ne pense pas!
    On voit bien l’État avec la crypto monnaie, les impôts en ce qui concerne les nft, ici avec l’IA, ils sont à la ramasse, et ce que assure les technocrates en cloisonnant leur système et en l’assayant c’est que l’état à la ramasse une fois le nez dedans ne pourront que constater, acquiescer, disputer pour des broutilles, tout en essayant de s’en accaparer et/ou l’inclure légalement aux rouages du big système. Alors qu’en fait ce sont les États suivent et y sont incorporé, ils sont là pour 5 ans les mecs.

    Je me souviens d’un reportage assez amusant mais révélateur, c’était avec des Papous qui viennent France.
    Il y en a un deux qui voit leur hôte prendre un plat industriel préparé, il lui dit “mais comment tu sais si il n’est pas empoisonné?!” Implicitement, aussi, il disait que eux ne mangent que ce qu’ils ont eux-mêmes préparés.
    Voilà il a tout dit et relevé, notre société (et qui plus ai “de services et d’intermédiaires”) fonctionne sur la confiance, les réglementations, cela ne peut pas fonctionner sans.
    Alors quand on voit les problèmes de tromperie parmis tant d’autres avec ces lasagnes au cheval, d’huile d’olive coupée à l’huile de vidange etc la c’est juste pour l’alimentaire hein!
    Comment voulez vous qu’on ne se retrouve pas avec une population qui n’a plus aucune confiance en tout les axes de la vie en société (politique, judiciaire, financier, éducation, médical etc)? Comment voulez vous qu’il n’y ai pas un phénomène d’immobilisme et de l’anxiété à douter de tout et de tout le monde, à voir des complots partout?!

    Ce genre d’utilisation des IA ce n’est que la continuité dans le pendant de notre société à dériver sous couvert de bien séance, tout cela auquelle nous sommes habitués et qui rend sournoisement cela acceptable, parce que coutumiers!

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *