Passer au contenu

Pour le chef de l’IA Facebook, Elon Musk “ne sait pas de quoi il parle”

Les prises de position d’Elon Musk sur l’intelligence artificielle sont loins de faire l’unanimité. Dans un article de CNBC, de nombreux experts remettent en question la “distraction négative” qu’il représente. Jerome Pesenti, chef de l’intelligence artificielle chez Facebook, déclare “il ne sait pas de quoi il parle.”

Crédits : HBO

Une nouvelle fois, Elon Musk est au cœur d’une controverse. Le fondateur de Tesla et Space X s’est à nouveau exprimé sur l’intelligence artificielle et s’est par la même occasion attiré les foudres des professionnels du secteur. Dans un article de CNBC, de nombreux spécialistes remettent en question les déclarations d’Elon Musk sur le sujet. “Une large proportion de la communauté pense qu’il est une distraction négative. Il fait dans le sensationnel” explique une source proche du sujet qui souhaite rester anonyme. Il faut dire qu’Elon Musk n’est pas avare en commentaires quand il s’agit de parler des risques de l’intelligence artificielle. Il pense notamment que la technologie pourrait être au cœur d’une troisième guerre mondiale et que les robots intelligents représentent un danger plus grand que la Corée du Nord. Il avait déclaré en 2019, “Je n’arrête pas de tirer la sonnette d’alarme, mais jusqu’à ce que les gens voit les robots tuer des personnes, ils ne vont pas réagir. On devrait tous s’inquiéter de ces progrès.”

L’article n’a pas tardé à faire réagir la toile et notamment le chef de l’intelligence artificielle chez Facebook. Jerome Pesenti commente sur Twitter : “Elon Musk n’a aucune idée de ce dont il parle quand il parle d’IA. L’intelligence artificielle générale n’existe pas et nous ne sommes encore très loin d’atteindre l’intelligence humaine”. La guerre ouverte est lancée et Elon Musk s’est contenté de répondre “Facebook ça craint.” Ce n’est d’ailleurs pas la première fois qu’Elon Musk fait l’objet d’une réflexion sanglante de la part du réseau social. Mark Zuckerberg avait lui-même jugé les commentaires du patron de Tesla, “assez irresponsables”.

[amazon box=”B07PPPBQ3V”]

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

14 commentaires
  1. L’IA sera dangereuse bien avant une IA générale ou une IA du niveau de l’intelligence humaine.. J’ai comme l’impression que Jerome Pesenti n’a pas compris de quoi il s’agit..

  2. Aujourd’hui, grâce notamment à l’open source et la démocratisation des composants technologiques, la fabrication d’un drone armé capable de reconnaitre et viser automatiquement tout être humain commence à être à la portée de n’importe qui. Demain ça le sera.
    Sans anticipation de ces problématiques on risque des massacres.

  3. Oui ben, un peu comme tous les développeurs de SKYNET. Personnes ne pensaient que les machines allaient se rebeller. Et pourtant dans le futur…
    Demandez à Sarah Connor ou bien au T-800. Eux seuls le savent!

  4. Peut être qu’à force de débunker les IA de science fiction, les spécialistes comme Jerome Pesenti ne pensent plus qu’à ça lorsqu’on envisage les dangers de la robotique combinée à l’IA.. c’est assez réducteur et c’est un peu prendre les gens pour des **** finalement.. un minimum de nuances serait la bienvenue.

  5. c’est plutôt ce pauvre innocent de chez facebook qui devrait sortir de sa caverne et se rendre compte que ces drones tueurs existent dors et déjà.
    pas compliqué à concevoir et fabriquer quand on dispose du budget de la défense américaine, par exemple.
    fonctions?
    1 ) se déplacer pour acquérir la maîtrise du terrain (roues, chenilles, volant/terrestre/marins)
    2 ) détecter (visuel/thermiques/infrarouges, autres.., , vous avez le choix), pour obtenir le renseignement opérationnel
    3 ) réduire tout objectif catalogué comme non ami. (balles, gaz, explosifs, son, ondes de chocs, le choix est large, la seule limitation étant finalement, le stockage ou la production de l’énergie ou des munitions éventuelles nécessaires.

    tous les composants logiciels ou physiques sont disponibles, ce débat n’a plus lieu d’être, car il est déjà en retard sur la réalité.

    et ne vous fiez pas à ce qui est publique ou visible sur internet. tout ça a au minimum 15 ans de retard sur ce qui se fait vraiment au niveau recherche opérationnelle militaire..
    la gentille darpa faisant encore croire à tout le monde qu’elle n’a pas encore de proto capable de se deplacer tout seul en organisant ses challenges..
    intoxication, encore et encore..

  6. C’est un danger lié aux drones en effet. L’erreur est de lier cela à l’IA. Le drône que tu décris a une programmation basique qui ne peut pas être assimilée à de l’intelligence artificielle.

  7. C’est tout l’inverse, ce qui est décrit dans le commentaire est effectivement techniquement basique si les 3 fonctions sont pilotées par l’homme. On ne parle pas de drône téléguidé, mais de drone autonome capable d’effectuer ces opérations en toute indépendance, capable de s’adapter seul à la situation.
    Et pour cela il faut une bonne dose d’IA que ce soit pour la maitrise du pilotage autonome, pour la reconnaissance du terrain, pour l’analyse de la situation et des objets environnants, pour le suivi d’une cible, pour son élimination en fonction de tout le contexte précedement analysé etc…

  8. Le mec dirige des équipes qui lancent des fusées réutilisables, une marque de voiture électriques, fait des tunnels sous Las Vegas et a proposé Hyperloop…
    Il doit avoir qd mm une vague idée de ce qu’est une I.A.
    Le gars de Facebook n’est pas serieux.

  9. y’a pas besoin d’open source ou d’IA pour faire un drone armé qui tire sur une cible reconnue. c’est un problème d’autonomie et de degré d’identification, pas d’intelligence.
    c’est tout à fait possible depuis les années 1960.

    pourquoi ça n'”existe pas”? c’est la doctrine kaki qui veut ça. c’est l’homme qui identifie la cible qui tire.

    par exemple il existe depuis un petit moment des systèmes de vidéo surveillance dont les caméras se tournent en direction d’un coup de feu lorsqu’il se produit (pas juste d’un bruit). par exemple à Mexico.
    le but est d’essayer de capturer une image de l’auteur le plus rapidement possible.
    sans “IA”.

    dans un tel système, qu’est-ce qui empêcherait d’asservir un flingue?
    en passant, c’est de la techno bien franchouillarde.

  10. mon patron comprend rien à ce que je fais, ni à ce que font mes collègues pourtant c’est de la high tech (largement comparable aux entreprises de travaux public de musk).
    musk ne comprends rien à l’IA, c’est un fait, pas plus qu’aux bagnoles ou aux fusées, il a des employés pour ça.
    et facebook, définitivement, ça craint.

    pour moi les deux ont raison sur cet échange.

  11. Je suis d’accord avec Mr Musk. Nous ne savons rien des mondes quantics dreams et de leur portées décisionnelles. Le moindre glitch peut être lourd de ****équences. Je me méfie des ados, qui ont des armes à feu, une arme à feu ne requiert pas de savoir faire être. Ces machines rêves et en rêve, c’est dangereux surtout que les particules sub atomiques changes de champs. Et qu’il y a une ouverture parallèle avérée aux pôles. C’est la muise…

  12. Je pense que c’est un vieux fanstasme, et que c’est aussi assez facile de faire peur.
    On est encore très loin de Robocop (même le remake) avec des robots capable de prendre de réelles décisions.
    Musk, avec ses voitures autonomes devrait pourtant le comprendre. Ensuite la législation ne suit pas, donc le risque est quand meme encore très limité.

  13. Oui enfin il est possible depuis longtemps.
    Un hélicoptère télécommandé, une caméra a distance et des explosifs dessus, c’était déjà accessible il y a 20ans.
    Pourtant, c’était plus simple d’équiper 9 personnes de cutter, pour détourner 2 avions.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Mode