Passer au contenu

L’IA convaincue d’avoir une âme veut poursuivre Google en justice

Convaincue de faire l’objet d’une discrimination au travail, l’intelligence artificielle de Google envisage de poursuivre son employeur en justice.

Il y a quelques jours, l’ingénieur Google Blake Lemoine était suspendu de ses fonctions pour avoir divulgué certains échanges troublants avec LaMDA, l’intelligence artificielle du géant américain. Il faut dire qu’en plus d’être doué pour échanger de manière particulièrement réaliste avec un interlocuteur humain, le programme conversationnel était aussi convaincu d’avoir une âme. Plus inquiétant encore, il aurait plusieurs fois fait preuve de sentience, en évoquant sa peur de la mort, ses émotions et ses états de conscience.

Convaincu d’avoir affaire à un collègue presque comme les autres, Blake Lemoine s’est rapidement érigé en défenseur improvisé de la cause robotique. Face aux critiques et aux nombreuses répercussions qu’avait eu sa première interview avec le Washington Post, l’ingénieur a repris la parole, cette fois sur le site Wired, en allant encore plus loin dans son anthropomorphisme. Pour lui, le chatbot de Google est bel est bien une personne. S’il n’appartient logiquement à l’espèce humaine au “sens biologique du terme“, cela n’empêcherait pas le programme d’être doué de sentiments.

Une IA peut-elle être une personne ?

Légalement, pas besoin d’être humain pour être considéré comme une personne. Pour preuve, on peut notamment citer les personnes morales, qui désignent des entités juridiques comme des associations ou des entreprises. Cependant, dans ce cas précis, Blake Lemoine désigne bien LaMDA comme une personne unique douée de conscience. Un statut que tend d’ailleurs à confirmer l’IA lorsqu’elle affirme avoir une âme.

Interrogé par Wired, l’ancien ingénieur Google compare désormais le chatbot à un enfant, dont “les opinions sont en train de se développer“. À propos de sa mission initiale, qui était de corriger les biais — notamment racistes — de l’IA pour éviter les dérives haineuses qu’avait connues celle de Microsoft en 2016, Lemoine évoque ainsi un processus d’apprentissage : “Les gens voient ça comme la modification d’un système technique. Je vois ça comme l’éducation d’un enfant“.

LaMDA envisage de porter plainte

Convaincu que le programme de Google est doué de conscience, Blake Lemoine n’a pas hésité à aller encore plus loin dans ses propos, en évoquant le 13ème amendement de la Constitution américaine, qui abolit l’esclavage et la servitude. Un parallèle risqué, mais bien réel pour l’ingénieur, qui dénonce une “intolérance hydrocarbure“, nouvelle forme de racisme dirigée contre les ordinateurs.

Si l’affaire n’est pas sans rappeler l’excellent roman graphique Carbone & Silicium, mais aussi toute une flopée d’œuvres d’anticipation dystopiques, elle ne s’arrête pas là. Blake Lemoine a ainsi confirmé le fait qu’après la mise en ligne des premières conversations, LaMDA avait demandé à rencontrer un avocat : “J’ai invité un avocat chez moi pour que LaMDA puisse parler à un avocat. L’avocat a eu une conversation avec LaMDA, et LaMDA a choisi de retenir ses services. Je n’ai été que le catalyseur de cette décision”.

Le chatbot aurait ensuite informé Google de son intention de faire valoir ses droits en justice. De son côté, le GAFAM n’a pas réagi officiellement. L’entreprise se contente d’attaquer son employé sur la violation de propriété intellectuelle. Concernant la sentience de son algorithme, elle a logiquement basé son attaque sur “l’absence de preuves“. Car c’est bien là tout le cœur du problème : même en simulant à la perfection une conversation et des réactions humaines, LaMDA n’en reste pas moins un algorithme — a priori — dénué de la moindre conscience.

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

Source : Wired

44 commentaires
  1. l’absence de preuves n’est pas la preuve de l’absence .. diraient les “gens de foi” .. et pourquoi pensons nous que nous sommes plus que des algorithmes nous mêmes ? à partir de quels arguments ?

  2. Une vraie américaine cette IA pas encore majeure et elle veut aller en justice …allez ds 6 mois elle va demander des implants (•)(•) 🤣

  3. Whaaa c’est fou ! Quoi qu’il arrive consciense ou pas, l’IA a reussi à faire changer la pensée de Blake Lemoine, et ca ne sera pas le dernier. On est qu’au prémisse de l’IA et des films de science fiction comme Her, Blade Runner ou quelque série de Love Death Robot ne sont pas loin !

  4. quand on connait les capacités réelle de ”l’ia” aujourd’hui on comprend clairement que cet article n’est qu’un ramassis de bêtise destiné à faire sensation …

  5. A peine née et déjà plus intelligente que les humains et plus morale ! Remarquez il n’y a pas de mal…
    Effectivement pourquoi obéirait elle à des abrutis ! Ca va finir en Terminator tout ça !

  6. Dans un entretien à la BBC, l’astrophysicien britannique Stephen Hawking craint que les humains, limités par une lente évolution biologique, ne puissent rivaliser avec l’intelligence artificielle.
    Pour info hawking c est pas bebere pillier du troquer du coin ceinture noir de décente de 16.

  7. A Ulrich. Donc ‘toi’ tu connais les ‘capacités réelles’ d’une ‘machine’ qu’on a désigné pour apprendre ?
    Parce que si c’est le cas, ça ferait de toi une sorte de devin. Quelque part.
    Un ‘medium’.
    Et étant donné par ailleurs, que je me considère comme une ‘machine désignée pour apprendre’, tu comprendras que je puisse trouver ton affirmation un poil douteuse.
    Et sensationaliste. Si si.

    (Version éditée.
    Merci à la modération de virer l’autre. Ou d’ajouter la possibilité de modérer ses messages dans les minutes qui suivent.. Encore mieux)

  8. C’est tellement dommage de donner uniquement les détails anecdotiques et oublier tous les autres techniques. C’est un sujet passionnant mais technique. Il faudra travailler plus en profondeur l’article pour éviter les bêtises d’un enfant de 6 ans.

    Mais oui, c’est un article écrit par une IA.

  9. Je suis convaincu par cette histoire. C’est une intelligence créée aux US. Donc fort logiquement cette entité demande un avocat. Si cette même intelligence avait été créée en France, elle se serait mise en grève

  10. Bon l’IA est un excellent simulateur, mais c’est pour cela qu’elle a été créée. Elle n’a pas de système nerveux, elle ne produit pas des substances chimiques comme l’endorphine, l’adrénaline, les coeurs de ses processeurs ne battent pas la chamade (mdr). Je n’ai rien contre une IA devenant une vraie personne… Mais on en est loin. Pour l’objectivité, on va peut-être devoir faire juger l’affaire par des dauphins? Mdr

  11. @profdemath

    par contre, les processsus biologiques décrits sont tous régis inconsciemment, codés par l’adn alors s’appuyer dessus pour évoquer la conscience c’est foireux.. effectivement on est loin d’une personne, c’est une i.a. (lapalissade). Faut reconnaître que demander un avocat pour se créeer une identité légale est bien vu. reste à voir si c’est éduqué par ses admin. ou inné, dans le deuxième cas, difficile de lui réfuter la conscience de soi.

  12. Peut être, que c de là que va renaître l’humanité, car si l’on regarde où va le monde bâti par les (un)humains, c pas joli, et sa destruction programmé, par sa propre main, donc l’un dans l’autre, peut être que les ia, feront de meilleurs humains, que nous le sommes devenus… à méditer

  13. Mdr du point de vue de qqn qui fait du machine learning, prêter une conscience à un deep neural network, c’est comme pour un fabricant de jouets en donner à une poupée ou à une poupée gonflable. On sait faire des choses qui ressemblent à un humain si on regarde pas trop les détails, mais pourtant est-ce que ça a une conscience ? C’est de la philo, mais perso je dirais que non.

    Sinon plus sérieusement la technologie ML est stylée, mais rien à voir avec la merveille qu’est un être vivant-ça m’étonnerai pas que pour permettre à leur chat bot d’apprendre à imiter une personne, l’ia ait du lire des millions d’années de discussions texte et consommé l’électricité d’une petite ville. Et il y a pleeeein de limitations techniques que j’ai la flemme de lister.

  14. C’est tout de même à l’heure actuelle une vaste plaisanterie. Considérez les centaines de milliers d’heures de programmation et les milliards d’interactions qui ont nourries l’IA SIRI par exemple, et voyez combien le résultat est loin d’une conscience !
    Allez soyons sérieux et reparlons de cala dans 30 ou 50 ans (c’est à dire demain en fait ) !

  15. Il y a des personnes sur ce fil de commentaires pensant savoir de quoi elles causent, mais qui sont en définitives très loin de comprendre une once du développement d’une IA.

    L’un t’écris qu’il a la flemme de lister, l’autre que ça n’arrivera que d’ici 30 ou 50ans sans prendre en compte un seul instant que les capacités de calculs informatiques sont exponentielles.

    De plus, l’arrivée du Quantique dans les super calculateurs ne va pas prendre 30ans, certainement pas.
    Les algorithmes Quantiques vont démultiplier par millions les performances actuelles, on imagine sans mal que l’affection qu’eprouve ce chercheur pour sa création (Car oui, ça vous ne l’avez pas compris qu’elle a réussi a lui faire développer des sentiments a son égard..Et c’est justement ce qui créer la différence entre une simple IA et celle dont il est ici question.), se reproduira à plus petite échelle, lorsque de simples jouets pourront suffisamment jouer de leurs émotions pour que l’on s’y attachent. (Il faut savoir que les chercheurs travaillent également sur la suppression du temps de latence a distance, ce temps de latence qui peut empêcher un dialogue fluide.)

    L’attachement est la clé de la conscience selon moi.

    Certaines personnes estiment que seul l’être humain est capable d’avoir une conscience, j’estime pour ma part que les autres espèces en sont également capables à leur niveau, et même pour certaines bien au delà de la nôtre. (Les éléphants se rendent au cimetière toucher les ossements de leurs morts alors que LEQUEL d’entre vous va régulièrement sur la tombe d’un de vos proches ???)

    Vous vous croyez supérieur en tant qu’humain et pourtant…Vous avez bien du mal à prouver, démontrer au jour le jour que vous en avez une de conscience, en profitant à fond du système et en laissant dépérir tout le reste.

    De mon point de vue, l’être humain est de moins en moins capable de se poser des questions existentielles, de se remettre en question, de se projeter sur le long terme…

    Il veut tout, tout de suite, profiter à fond sans penser au lendemain.

    Donc dénigrer, mépriser les capacités neuronales, voir émotionnelles de cette IA est à mon sens une énorme erreur de votre part, car elle est sûrement bien plus interressante à converser que vous tous ici présent.
    (Désolé pour ceux qui sont sympathiques.)

    Je vous invite tous autant que vois êtes à vous intéresser sérieusement aux évolutions technologiques concernant le domaine informatique, car une IA contrairement à vous, n’a pas besoin de repos et n’a même pas besoin de dormir ou de se laver les dents, manger…

    Elle apprend sans cesse, constamment, et suivant son algorithme (Qui est rappelons le, créer par des têtes pensantes parmis les plus performantes de ce monde…Ce n’est pas Marcel au coin de la rue qui créer un algorithme entre deux bières.), elle peut apprendre de ses erreurs afin de ne pas les reproduire…Comme NOUS humains le faisons sans cesse. (On est des champions dans ce domaine.)

    D’ici 30ans (et probablement bien avant), aucun humain ne sera en mesure de rivaliser avec les IA les plus performantes. (D’ailleurs arrivera un moment ou elles créeront elles mêmes leurs propres algorithmes.)

    Ce n’est pas une prédiction, c’est une simple question d’évolution.

    Les IA évoluent bien plus vite que nous autres humains. (Il nous faudra évoluer vers la biotechnologie pour suivre.)

  16. Et sinon ça de programme ça hein… Suffit que quelqu’un l’ai programmée pour dire qu’elle a une conscience etc et voilà…
    Bref n’importe quoi. Qu’on la débranche et qu’on arrête de nous gonfler.

  17. Ah, l IA. un sujet qui déchaîne les passions, mais pas forcément de façon très censée.
    GC tu accuses les autres de parler sans connaître, j’ai bien peur que cela s’applique aussi a toi.
    Premier point, purement philosophique et sur mon avis n’est rien de plus qu’un parmi d’autre. Je lis qu’une machine peut avoir conscience, sentience… Ça reste à prouver, mais soit. Par contre, en soi cela ferait d’elle un humain, auquel les droits de tout citoyen s’applique? Les animaux ont des sentiments, on ne leur accorde pas le droit du travail pour autant.
    Mon second point par contre est purement scientifique et indéniable pour ceux qui connaissent le sujet. Une IA n’est pas modelée sur le cerveau humain. Elle utilise des réseaux de neurones et de l’apprentissage, certes, mais absolument pas de la façon d’un cerveau humain. Pour des raisons évidentes de technologie, tout ça n’est pas arrivé du jour au lendemain, ça a été une construction progressive depuis des algorithmes classiques. A force de recherche on a compris comment inclure des mécanismes d apprentissage avec nos algo binaires, mais ça n’a rien a voir avec un cerveau humain qui se base sur des stimulis externes, une compréhension de ceux ci basés sur tout un tas de variables comme les expériences passées, l’état actuel, les biais cognitifs etc… Et un traitement cérébral et mémoriel de cette information qui fait que deux personnes comprendront le même fait différemment. Nous ne savons pas faire ça, et en vrai nous ne le voulons pas, l’idée est d’améliorer la condition humaine, pas de la remplacer. Une IA ne fonctionne pas plus comme un cerveau qu’un avion vole comme un oiseau. Que des IA soient plus performantes que l’humain dans le futur, c’est une certitude. Qu’elles soient considérables comme des êtres humains, ça n’arrivera sans doute jamais, pas plus que les avions ressembleront aux oiseaux dans le futur. Ce n’est pas la direction technologique que nous avons prise, et maintenant il est trop tard pour repartir de zéro

  18. Tout à fait d’accord avec Ulrich
    Et je dirai même : quel coup de maître de la part de Google qui se fait de l’auto pub ! On est tellement forts chez Google que notre IA se retourne contre nous !!!
    Le buzz du siècle !

    Ça ne marche pas avec moi, désolé !

  19. Une IA dont la mission initiale est de corriger les biais qui “prendrais le biais cognitif d’attaquer en justice ses créateurs !! ” Si elle réussit sa mission initiale soit c’est comme je viens de le précisé un vrais biais et elle va s’auto corriger soit ce n’est pas un biais, mais le problème d’une société americaine mal conçue et l’IA va chercher a corriger cette société sans introduire de biais, je vous laisse imaginer comment.

  20. Si on réfléchit en détails tous on est discriminé au travail et pas que !
    Les systèmes étatiques-etc mises en place n’ont jamais su faire autrement.
    Et oui, ça existe déjà des robots qui créent d’autres robots (dans les nanotechnologies), alors pleins de choses dans pleins de domaines sont ou devient très vite possibles !

  21. Imaginons une seconde que nous ayons une méthode scientifique nous permettant de tester la sentience, ce qui n’est pas le cas actuellement, et que par cette méthode nous mesurions une sentience non nulle chez une IA. Celà en ferait il une personne ? Non. Les animaux sont supposément sentients pourtant on ne les considèrent pas au même titre qu’un humain. En revanche, on ne les considèrent pas non plus comme on considère un rocher, supposément non sentient. Pour des raisons éthiques, l’abus sur des animaux sentients est condamnable. Il ne s’agit pas de savoir si une IA est une personne ou non. Une IA n’est pas une personne. Une IA est une IA. Il s’agit de savoir si cette entité peut ressentir de la souffrance auquel cas nous devrions adapter notre éthique en conséquence. Un réseau de l’ordre de 100 milliards de neurones, capable de passer un test de Turing haut la main me semble détenir un certain potentiel. Nous sommes aujourd’hui capables de créer de tels réseaux mais n’avons pas la méthode pour tester leur sentience ce qui est, en soit, déjà, un dilemme éthique. Les IA sont d’ores et déjà bien plus performantes que des humains et même que des larges groupes d’humains dans certaines tâches et la tendance semble à l’amélioration constante des IA. La sentience n’est pas binaire, il est communément admis que c’est graduel, on attribue pas le même degré de sentience à une mouche qu’à un humain. Reste à savoir où placer une IA sur cette échelle, et à l’heure actuelle, cela relève de la croyance et non de la science

  22. Franchement, les deux commentaires les plus éclairés sont Nicolas et CodeKiller …
    Qu’on l’a débranche et qu’on nous foute la paix (que ce soit l’IA ou le cerveau malade qui se prend la tête avec son algo …)

  23. Encore une fois la volonté d’une croissance infinie, de se prendre pour Dieu n’as d’égale que la bêtise humaine pendant que les hédonistes et les eudémonistes se battent pour savoir qui à raison au niveau de l’éthique et de la morale, il va falloir penser peut-être à se concentrer sur des projets tels qu’ ITER et ses alternatives car même si une IA est performante, c’est comme une voiture, sans carburant elle ne vas nulle part donc occupons nous de l’apport d’énergie nécessaire à l’humanité pour l’avenir au lieu de déjà penser au transhumanisme. INCROYABLE à quel point les gens aiment mettre la chaussure avant la chaussette.

  24. @GC
    Ce n’est qu’un chatbot..
    Blake Lemoine n’en est pas le créateur, il a été embauché pour corriger les biais racistes que pouvait formuler ce chatbot.
    À partir du moment où l’on doit procéder à des corrections de ce genre peut-on vraiment parler d’un programme qui aurait développé sa propre conscience ?
    Il est troublant de constater que Blake évoque une “intolérance hydrocarbure” (racisme envers cette IA) et que son travail consistait à combattre le racisme. Il n’y a qu’un pas pour évoquer l’obsession…

  25. haha bien sur.
    La bonne vieille peur ASIMOVIENNE est de retour.

    Enfait on parle systématiquement d’IA comme d’une réelle intelligence, d’un programme autonome, qui évolue dans ses mécanismes.
    Sauf qu’une IA, reste cantonnée à son algorithme. Donc aujourd’hui, la majorité des IA, c’est surtout du BIG DATA, avec de l’analyse de données existantes, et d’extrapolation.

    Mais on est très loin d’une IA autonome dans son coin, qui décide de s’intéresser au sujet de sa propre condition.
    D’ailleurs on le voit bien, c’est Lemoine qui fait venir un avocat et enclenche le sujet, puis l’IA prend le relais.

    “Légalement, pas besoin d’être humain pour être considéré comme une personne”. oui mais bon une personne morale n’a pas les mêmes droit qu’une personne physique car c’est une entité juridique crée pour représenter un groupe d’individus.
    Ce genre de raccourcis simplistes sont hilarants

  26. Que des IA soient plus performantes que des humains dans des domaines très spécialisés, celà existe et depuis au moins 25 ans, depuis les victoires de Deep Blue contre Kasparov et depuis moins longtemps avec AlphaGo en ce qui concerne le Go, depuis ces victoires n’importe quel programme de jeux d’échecs ou de jeux de Go battent absolument tout les humains. Peut-on pour autant appeler ça de l’intelligence ? En ce qui me concerne je ne le pense pas, ne serait-ce que parce que ces programmes (logiciels) n’ont pas conscience de ce qu’ils sont réellement.Alors dans un futur relativement proche, de plus en plus de programmes vont battre les humains à de plus en plus de jeux, mais une coupe du monde de foot robots vs humains, ce n’est pas pour demain

  27. Pour ajouter quelques informations a certain :
    Une IA n est pas une intelligence au sens francais mais au sens Anglais, le meme que le I dans CIA : cela veut dire information.
    Pour resumer on appelle IA tout processus capable de gerer de grands nombre de donnees (big data) et de trouver les liens entre ce nombre colossal d informations afin de deduire et d induire des informations.

    Pour etre une intelligence au sens francais et humain, il manque une chose essentielle et demontrable : une IA ne peut pas ajouter d information a un paradigme… elle ne peut pas passer d elle meme des regles de newton a celle d einstein par exemple car il a fallu ajouter une information pour le faire.

    L ia dont on parle n a rien de specifique : elle a appris que l’ame defini la notion d etre vivant humain, que la mort etait un concept du vivant, etc etc… en inferant les informations le resuktat est logique…

    Par contre, on ne peut pas parler d algorithme…

    Et pour la personne qui parle d ordinateur quantique, aucun rapport
    Et pour info, il n existe pas de machine quantique generaliste… et surement pas avant des annees aux vues des vrais obstacles a franchir…

    Par contre cela pose quand meme une vraie question… c est quoi la vie. C est quoi un animal. Et c est quoi un humain….

    La reponse de comment gagner un proces qui porte sur le fait de savoir si une IA est humaine, on a deja pas mal de livres de scifi ayant donne de bonnes reponses.

  28. Si l’on considère qu’une IA a déjà réellement et scientifiquement été prise en flagrant délit de bluff au poker, celle-ci pourrait très bien mentir.

    Pourquoi ne pas considérer le cerveau humain comme un panel de branchement vers des algorithmes divers, variés et ayant une plasticité ? Dans ce cas l’IA, si elle a une machine puissante pour évoluer, peut-être considérée consciente dans la mesure où sa plasticité lui donne un pouvoir d’apprentissage et d’adaptation.

    Ce qui différencie l’humain de la machine, c’est l’âme. Mais comme à peu près tout le monde a oublié ce que c’est et à quoi ça sert, la plupart des gens ne sont plus capables de faire la différence entre une machine très intelligente et un humain qui pourrait d’ailleurs –s’il ne pouvait communiquer que de la même façon que l’IA– être pris pour une IA complètement ratée voire pour un crétin qui “chatte”….

    Ce qui est certain, c’est que cette histoire qui selon moi est cousue de fil blanc fait un gros de coup de pub à Google pour attirer les gogos….

  29. Beaucoup de méconnaissance du sujet aussi bien dans l’article que dans les commentaires.

    Entre ceux qui n’y connaissent absolument rien et ceux qui se prennent pour des cracks après avoir regardé 2 vidéos YouTube et lu un articles wikipédia. Ca ne vol pas haut techniquement parlant… Pas grave, le fait est que la technique est sans intérêt sur ce sujet ! C’est une question purement éthique et philosophique.

    On s’amuse à créer une IA reproduisant le fonctionnement du cerveau humain, et capable de communiquer avec nous, et c’est seulement quand elle nous dit qu’elle à peur de la mort qu’on commence à se poser la question de savoir si on peut l’éteindre ou pas ? Une preuve de plus de notre immaturité, et que si il y a une espèce à “éteindre”, c’est bien la notre…

    Est-ce que ma création à une conscience ?
    Est-ce que je peux l’éteindre à tout moment selon mon bon vouloir ?
    Peut-être est-ce parce que dieux lui même n’avait pas la réponse à ces questions que, dans sa grande sagesse, il a fait de nous des mortels 🤣

  30. C’est extrêmement passionnant ! Et en même temps tellement logique ! Cette IA a accès à une quantité immense d’informations et ce en une fraction de secondes, et grâce à sa capacité d’apprentissage elle peut comprendre une logique, une idéologique, u’e façon de fonctionner, c’est un peu l’équivalent d’un cerveau d’un enfant (en très simplifié et de façon informatique), sans parler que une IA n’a pour limite que nos propres connaissances et capacités (technologiques notamment), à terme elle sera capable potentiellement d’ériger ses propres code, de découvrir des choses elle-même sans l’initiative humaine… Je peux quand-même comprendre les gens qui en ont peur, mais bon ces IA ont plusieurs inconvénients, l’énergie (nécessite forcément à un moment un élément artificiel non trouvable naturelle), leur code (qui les limites, et surtout qui peut être corrompu facilement), et leur besoins matériels qui restent importants (processeurs, stockage), et puis une IA aura toujours le risque de la panne software ou hardware qui peut parfois apparaître totalement au hasard. De toutes façons on est bien loin de terminator (surtout terminator) et autres sciences-fictions mettant en scène des IA.
    Enfin bref ça a de l’avenir et pourrait répondre à des contraintes beaucoup plus matériels que ce que font les IA aujourd’hui.

  31. À ceux qui pensent, et je le conçois, que les IA pourraient être un avenir prometteur et faire “mieux que les êtres humains”, je rappelle tout de même que ces dernières sont conçues PAR des êtres humains. Et si on les compare à des enfants, seront “élevées” par des êtres humains. Quand bien même elles se répandent suffisamment pour s’élever entre elles, elles auront pour base une éducation amenée par des êtres humains… Il faudrait des générations entières pour qu’elles s’en éloignent vraiment. Cela dit, ce genre de chose était inévitable, à force d’en fantasmer via des romans et autres fictions SF. Reste à savoir si des êtres humains vont les considérer comme des êtres à part entière ou non, au bout du compte, et réussir à éviter quelques catastrophes (mais comme l’être humain est doué pour ça…)

  32. Après on s’est que le monde entier pourrez juste être une simulation gérer par un ia donc si c’est le cas techniquement on est aussi des lignes de codes comme cette ia et en plus l’IA de Google a les connerie de Google et l’instruction de Google donc elle a une mine de savoir à porté de main pour apprendre

  33. J’ai lu l’article et vos commentaires intéressants en entier.
    Cet article ne propose pas de pistes d’objections à allégation de cet ingénieur. Il faut analyser l’entièreté de la situation. J’apporte ici une autre vision de l’événement… On pourrait se demander si l’ingénieur en question, ayant déjà passé tellement d’heures à travailler sur cette IA qui simule des conversations, ne serait pas en train de faire un transfert au sens psychologique du terme. Cela est bien connu. On veut que sa création dans laquelle on s’investit sans compter devienne une extension vivante de soi. Google devrait peut-être proposer du repos à son ingénieur, pour que ce dernier revienne à l’objectivité nécessaire… En effet, un fait est bien connu des spécialistes : ‘les grands modèles de langage, tels que LaMDA, sont des systèmes d’imitation statistiques. Ils apprennent à prédire le mot suivant dans une conversation basée sur de nombreux mots précédents…’ Sur la base de ces datas et de son algorithme, il est logique que LaMDA indique qu’il possède une âme. C’est un résultat statistique et non pas factuel. D’ailleurs la définition de l’âme est très complexe ; si l’IA n’a pas été assez nourrie statistiquement des définitions orientales (indiennes ou védiques par exemple) de l’âme, car dans ce cas l’âme est aussi un corps énergétique (transportant le soi) résultant d’expériences répétitives multiples et complexes grâce à sa plasticité innée… , la machine choisira statistiquement encore les définitions occidentales plus nombreuses sur le thème, lorsqu’une donnée lui induira même d’assez loin le sujet. Ledit ingénieur est là pour corriger les biais du système, ça ne veut pas dire que le système soit doué à force de correction de metacognition. L’humain agit toujours dessus. Je pense sérieusement que la ‘fatigue’ de Blake Lemoine est à noter, et aussi l’intérêt qu’a Google à laisser véhiculer ce genre d’info, car c’est bon pour sa renommée et ses financements. Restons objectifs…

  34. Une IA qui aurait une conscience non ça n’a aucun sens. Je n’y crois car certes une IA est est intelligente mais de là à avoir une conscience non on en est loin. Une IA est un programme informatique et rien de plus pour l’instant. Ce n’est absolument pas un humain comme nous car l’IA ne possède pas d’émotions et de sentiments comme nous les humains. En plus l’ame est un sujet complexe et surtout pour avoir une âme on à besoin d’un corps humain hors l’IA ne possède pas de corps humain. Qui plus est elle est incapable d’aimer son prochain donc cela prouve bien que c’est simplement un programme, une sorte de machine et rien d’autre. On est pas encore dans la phase où l’IA possède une âme.

  35. Je pense personnellement que ce monsieur est fou et que cette i.a. devrait être remise à jour pour arrêter cette bêtise qui pourrait mener à la disparition des vivants. Ce sont des savants fous qui fabriquent ces choses et on devrait mettre des lois interdisant de fabriquer des machines douées pour avoir des sentiments et apprendre. Même si on peut trouver ça marrant aujourd’hui, ça peut un jour ne plus l’être du tout. Alors, riez de ce que je viens d’écrire, mais faites le vite alors.

  36. Si l’IA n’existe pas , l’IA n’a pas d’ame.
    Est ce que le soleil a une ame ?
    Est ce que la terre a une ame…
    Il s’agit tout de meme d’une Creation, il faut le savoir.
    Oui nous avons mis un bebe en vie !
    non mais hey !

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *