Pourquoi les experts disent que nous devrions contrôler l'IA, maintenant

Table des matières:

Pourquoi les experts disent que nous devrions contrôler l'IA, maintenant
Pourquoi les experts disent que nous devrions contrôler l'IA, maintenant
Anonim

Clé à emporter

  • De nouvelles recherches suggèrent qu'il n'y a peut-être aucun moyen de contrôler l'intelligence artificielle ultra-intelligente.
  • Un article de journal affirme que le contrôle de l'IA nécessiterait une technologie beaucoup plus avancée que celle que nous possédons actuellement.
  • Certains experts disent que l'IA vraiment intelligente pourrait être là plus tôt que nous ne le pensons.
Image
Image

Si jamais les humains développent une intelligence artificielle super intelligente, il n'y aura peut-être aucun moyen de la contrôler, disent les scientifiques.

IA a longtemps été présenté comme un remède à tous les problèmes de l'humanité ou comme une apocalypse de style Terminator. Jusqu'à présent, cependant, l'IA ne s'est même pas approchée de l'intelligence au niveau humain. Mais garder une laisse sur l'IA avancée pourrait être un problème trop complexe pour les humains si jamais elle se développait, selon un article récent publié dans le Journal of Artificial Intelligence Research.

"Une machine super-intelligente qui contrôle le monde ressemble à de la science-fiction", a déclaré Manuel Cebrian, l'un des co-auteurs de l'article, dans un communiqué de presse.

"Mais il existe déjà des machines qui effectuent certaines tâches importantes de manière autonome sans que les programmeurs comprennent parfaitement comment ils l'ont appris. La question se pose donc de savoir si cela pourrait à un moment donné devenir incontrôlable et dangereux pour l'humanité."

Bientôt disponible sur un super ordinateur près de chez vous

Le journal affirme que le contrôle de l'IA nécessiterait une technologie beaucoup plus avancée que celle que nous possédons actuellement.

Dans leur étude, l'équipe a conçu un algorithme de confinement théorique qui garantit qu'une IA super intelligente ne peut en aucun cas nuire aux personnes, en simulant d'abord le comportement de l'IA et en l'arrêtant si elle est considérée comme dangereuse. Mais les auteurs ont découvert qu'un tel algorithme ne peut pas être construit.

"Si vous réduisez le problème aux règles de base de l'informatique théorique, il s'avère qu'un algorithme qui commanderait à une IA de ne pas détruire le monde pourrait par inadvertance arrêter ses propres opérations." Iyad Rahwan, directeur du Centre pour les humains et les machines de l'Institut Max Planck pour le développement humain en Allemagne, a déclaré dans le communiqué de presse.

"Si cela se produisait, vous ne sauriez pas si l'algorithme de confinement analyse toujours la menace ou s'il s'est arrêté pour contenir l'IA nuisible. En effet, cela rend l'algorithme de confinement inutilisable."

Image
Image

L'IA véritablement intelligente pourrait arriver plus tôt que prévu, affirme Michalis Vazirgiannis, professeur d'informatique à l'École polytechnique en France. "L'IA est un artefact humain, mais elle devient rapidement une entité autonome", a-t-il déclaré dans un e-mail à Lifewire.

"Le point critique sera si/quand la singularité se produit (c'est-à-dire quand les agents de l'IA auront une conscience en tant qu'entité) et donc ils revendiqueront l'indépendance, la maîtrise de soi et une éventuelle domination."

La singularité arrive

Vazirgiannis n'est pas le seul à prédire l'arrivée imminente de la super IA. Les vrais croyants en la menace de l'IA aiment parler de la "singularité", qui, selon Vazirgiannis, est le fait que l'IA remplacera l'intelligence humaine et "que les algorithmes d'IA réaliseront potentiellement leur existence et commenceront à se comporter de manière égoïste et coopérative".

Selon Ray Kurzweil, directeur de l'ingénierie de Google, la singularité arrivera avant le milieu du XXIe siècle. "2029 est la date constante que j'ai prédite pour laquelle une IA passera un test de Turing valide et atteindra donc les niveaux humains d'intelligence", a déclaré Kurzweil à Futurism.

Si nous ne pouvons pas nettoyer notre propre maison, quel code sommes-nous censés demander à l'IA de suivre ?

"J'ai fixé la date de 2045 pour la 'Singularité', date à laquelle nous multiplierons par un milliard notre intelligence effective en fusionnant avec l'intelligence que nous avons créée."

Mais tous les experts en intelligence artificielle ne pensent pas que les machines intelligentes constituent une menace. L'IA en cours de développement est plus susceptible d'être utile pour le développement de médicaments et ne montre aucune intelligence réelle, a déclaré le consultant en IA Emmanuel Maggiori dans une interview par e-mail. "Il y a un grand battage médiatique autour de l'IA, ce qui donne l'impression que c'est vraiment révolutionnaire", a-t-il ajouté. "Les systèmes d'IA actuels ne sont pas aussi précis qu'on le dit et font des erreurs qu'un humain ne commettrait jamais."

Prenez le contrôle de l'IA, maintenant

Réglementer l'IA pour qu'elle n'échappe pas à notre contrôle peut être difficile, dit Vazirgiannis. Les entreprises, plutôt que les gouvernements, contrôlent les ressources qui alimentent l'IA. "Même les algorithmes eux-mêmes sont généralement produits et déployés dans les laboratoires de recherche de ces grandes et puissantes entités, généralement multinationales", a-t-il déclaré.

"Il est donc évident que les gouvernements des États ont de moins en moins de contrôle sur les ressources nécessaires pour contrôler l'IA."

Certains experts affirment que pour contrôler l'IA super intelligente, les humains devront gérer les ressources informatiques et l'énergie électrique. "Des films de science-fiction comme Matrix font des prophéties sur un avenir dystopique où les humains sont utilisés par l'IA comme sources de bio-énergie", a déclaré Vazirgiannis.

"Même si des impossibilités lointaines, l'humanité devrait s'assurer qu'il y a un contrôle suffisant sur les ressources informatiques (c'est-à-dire les grappes d'ordinateurs, les GPU, les superordinateurs, les réseaux/communications), et bien sûr les centrales électriques qui fournissent de l'électricité qui est absolument préjudiciable à la fonction de l'IA."

Image
Image

Le problème avec le contrôle de l'IA est que les chercheurs ne comprennent pas toujours comment ces systèmes prennent leurs décisions, a déclaré Michael Berthold, co-fondateur et PDG de la société de logiciels de science des données KNIME, dans une interview par e-mail. "Si nous ne le faisons pas, comment pouvons-nous le 'contrôler' ?"

Il a ajouté: "Nous ne comprenons pas quand une décision totalement différente est prise sur la base, pour nous, d'informations non pertinentes."

La seule façon de contrôler le risque lié à l'utilisation de l'IA est de s'assurer qu'elle n'est utilisée que lorsque ce risque est gérable, a déclaré Berthold. "En d'autres termes, deux exemples extrêmes: ne mettez pas l'IA en charge de votre centrale nucléaire où une petite erreur peut avoir des effets secondaires catastrophiques", a-t-il ajouté.

"D'un autre côté, l'IA prédit si la température de votre pièce doit être ajustée un peu à la hausse ou à la baisse, cela peut bien valoir le petit risque au profit du confort de vie."

Si nous ne pouvons pas contrôler l'IA, nous ferions mieux de lui apprendre les bonnes manières, a déclaré l'ancien ingénieur en informatique de la NASA, Peter Scott, dans une interview par e-mail. "Nous ne pouvons pas, en fin de compte, garantir la contrôlabilité de l'IA, pas plus que nous ne pouvons garantir celle de nos enfants", a-t-il déclaré.

"Nous les élevons correctement et espérons le meilleur; jusqu'à présent, ils n'ont pas détruit le monde. Pour bien les élever, nous avons besoin d'une meilleure compréhension de l'éthique; si nous ne pouvons pas nettoyer notre propre maison, que sommes-nous censés demander à l'IA de suivre ?"

Mais tout espoir n'est pas perdu pour la race humaine, déclare le chercheur en intelligence artificielle Yonatan Wexler, vice-président exécutif de la R&D chez OrCam. "Bien que les progrès soient en effet impressionnants, ma conviction personnelle est que l'intelligence humaine ne doit pas être sous-estimée", a-t-il déclaré dans une interview par e-mail. "En tant qu'espèce, nous avons créé des choses assez étonnantes, y compris l'IA elle-même."

La recherche d'une IA toujours plus intelligente se poursuit. Mais il serait peut-être préférable de réfléchir à la manière dont nous contrôlons nos créations avant qu'il ne soit trop tard.

Conseillé: