L'intelligence artificielle ne prendra pas le dessus de sitôt, n'est-ce pas ?

Table des matières:

L'intelligence artificielle ne prendra pas le dessus de sitôt, n'est-ce pas ?
L'intelligence artificielle ne prendra pas le dessus de sitôt, n'est-ce pas ?
Anonim

Clé à emporter

  • Ne vous inquiétez pas de l'évolution et de la conquête du monde par l'IA, disent certains experts.
  • Mais un ancien dirigeant de Google a déclaré que l'IA dépasserait l'intelligence humaine.
  • Le vrai danger de l'IA est sa capacité à diviser les humains, selon un analyste.
Image
Image

L'intelligence artificielle (IA) vient-elle nous conquérir ?

L'ancien cadre de Google, Mo Gawdat, a déclaré dans une récente interview que l'intelligence artificielle allait bientôt dépasser l'intelligence humaine, avec des conséquences désastreuses pour notre civilisation. Comme preuve, Gawdat affirme avoir vu un bras de robot faire ce qu'il percevait comme un geste de raillerie envers les chercheurs en IA. Mais certains experts ne sont pas d'accord.

"L'IA est terriblement inadéquate dans de nombreux domaines et s'appuie fortement sur le Big Data et la surveillance humaine pour alimenter ses modèles logiciels", a déclaré Sean O'Brien, chercheur invité au projet sur la société de l'information de la faculté de droit de Yale, à Lifewire dans un entretien par e-mail.

Plus intelligent que qui ?

Gawdat rejoint une longue lignée de prophètes de malheur qui mettent en garde contre une apocalypse imminente de l'IA. Elon Musk, par exemple, affirme que l'IA pourrait un jour conquérir l'humanité.

"Les robots seront capables de tout faire mieux que nous", a déclaré Musk lors d'un discours. "J'ai été exposé à l'IA la plus avancée, et je pense que les gens devraient vraiment s'en préoccuper."

Les développeurs d'intelligence artificielle de Google X, a déclaré Gawdat dans l'interview, ont eu peur lorsqu'ils ont construit des bras de robot capables de trouver et de ramasser une balle. Soudain, il a dit qu'un bras a attrapé le ballon et a semblé le tenir devant les chercheurs dans un geste qui, pour lui, semblait être une parade.

… nous devons également supposer que le(s) développeur(s) de l'IA dispose d'une autorité complète sur sa création sans aucun contrôle et équilibre et un interrupteur "kill" intégré ou un mécanisme de sécurité intégrée.

"Et j'ai soudainement réalisé que c'était vraiment effrayant", a déclaré Gawdat. "Ça m'a complètement gelé."

Entrez dans la Singularité

Gawdat, et d'autres préoccupés par l'IA future, parlent du concept de "la singularité", qui marquera le moment où l'intelligence artificielle deviendra plus intelligente que les humains.

"Le développement de l'intelligence artificielle complète pourrait sonner le glas de la race humaine", a déclaré le célèbre physicien Stephen Hawking à la BBC. "Il décollerait de lui-même et se reconcevoirait à un rythme de plus en plus rapide. Les humains, qui sont limités par une évolution biologique lente, ne pourraient pas rivaliser et seraient dépassés."

Mais O'Brien a appelé la singularité "un fantasme qui repose sur des incompréhensions fondamentales sur la nature du corps et de l'esprit ainsi que sur une lecture erronée de l'écriture des premiers pionniers de l'informatique comme Alan Turing."

L'intelligence artificielle n'est pas près de pouvoir égaler l'intelligence humaine, a déclaré O'Brien.

L'analyste de l'IA Lian Jye Su convient que l'IA ne peut égaler l'intelligence humaine, bien qu'il soit moins optimiste quant au moment où cela pourrait se produire.

"La plupart, sinon la totalité, de l'IA de nos jours se concentrent encore sur une seule tâche", a-t-il déclaré à Lifewire dans une interview par e-mail.

"Par conséquent, on estime que nous aurons besoin d'une ou deux nouvelles générations de matériel et de logiciels avant que la singularité technologique ne soit à portée de main. Même lorsque la technologie est mature, nous devons également supposer que le(s) développeur(s) de L'IA reçoit une autorité complète sur sa création sans aucun frein et contrepoids et un interrupteur « kill » intégré ou un mécanisme de sécurité intégrée."

Véritables inquiétudes à propos de l'IA

Le vrai danger de l'IA est sa capacité à diviser les humains, a déclaré Su. L'IA a déjà été utilisée pour semer la discrimination et répandre la haine par le biais de vidéos deepfake, a-t-il noté.

Et, a déclaré Su, l'IA a aidé "les géants des médias sociaux à créer des chambres d'écho grâce à des moteurs de recommandation personnalisés, et les puissances étrangères modifient les paysages politiques et polarisent les sociétés grâce à une publicité ciblée très efficace".

Ce n'est pas parce que l'IA est un modèle médiocre et erroné de la cognition humaine qu'elle n'est pas dangereuse ou qu'elle ne peut pas approcher ou surpasser les humains dans de nombreux domaines, a déclaré O'Brien.

"Une calculatrice de poche est meilleure et plus rapide en arithmétique qu'un humain ne le sera jamais, tout comme les machines peuvent être beaucoup plus fortes que les humains et "voler" ou "nager"", a-t-il ajouté.

Image
Image

La façon dont l'IA affecte les humains dépend de la façon dont nous l'utilisons, a déclaré O'Brien. Le travail des robots, par exemple, pourrait aider les humains en libérant des personnes pour un travail créatif ou en les forçant à sombrer dans la pauvreté.

"De même, nous sommes maintenant bien conscients des dangers de l'IA et de ses biais inhérents, qui sont utilisés à mauvais escient dans le paysage numérique pour réprimer les personnes de couleur et les populations marginalisées", a-t-il ajouté.

Conseillé: