Comment l'IA pourrait surveiller sa progéniture dangereuse

Table des matières:

Comment l'IA pourrait surveiller sa progéniture dangereuse
Comment l'IA pourrait surveiller sa progéniture dangereuse
Anonim

Clé à emporter

  • Un nouvel article affirme que l'intelligence artificielle peut déterminer quels projets de recherche pourraient nécessiter plus de réglementation que d'autres.
  • Cela fait partie d'un effort croissant pour découvrir quel type d'IA peut être dangereux.
  • Un expert dit que le vrai danger de l'IA est qu'elle pourrait rendre les humains stupides.

Image
Image

L'intelligence artificielle (IA) offre de nombreux avantages, mais aussi des dangers potentiels. Et maintenant, des chercheurs ont proposé une méthode pour garder un œil sur leurs créations informatisées.

Une équipe internationale affirme dans un nouvel article que l'IA peut déterminer quels types de projets de recherche pourraient nécessiter plus de réglementation que d'autres. Les scientifiques ont utilisé un modèle qui mélange des concepts de biologie et de mathématiques et fait partie d'un effort croissant pour découvrir quel type d'IA peut être dangereux.

"Bien sûr, si l'utilisation dangereuse de l'IA dans la 'science-fiction' peut survenir si nous le décidons […], ce qui rend l'IA dangereuse n'est pas l'IA elle-même, mais [la façon dont nous l'utilisons]", Thierry Rayna, la chaire de Technology for Change, à l'École Polytechnique en France, a déclaré à Lifewire dans une interview par e-mail. "La mise en œuvre de l'IA peut être soit une amélioration des compétences (par exemple, elle renforce la pertinence des compétences et des connaissances de l'homme/du travailleur), soit une destruction des compétences, c'est-à-dire que l'IA rend les compétences et les connaissances existantes moins utiles ou obsolètes."

Garder les onglets

Les auteurs de l'article récent ont écrit dans un article qu'ils avaient construit un modèle pour simuler d'hypothétiques compétitions d'IA. Ils ont exécuté la simulation des centaines de fois pour essayer de prédire comment les courses d'IA du monde réel pourraient fonctionner.

"La variable que nous avons trouvée particulièrement importante était la "durée" de la course - le temps que nos courses simulées ont mis pour atteindre leur objectif (un produit d'IA fonctionnel), " ont écrit les scientifiques. "Lorsque les courses d'IA ont rapidement atteint leur objectif, nous avons constaté que les concurrents que nous avions codés pour toujours négliger les précautions de sécurité gagnaient toujours."

En revanche, les chercheurs ont constaté que les projets d'IA à long terme n'étaient pas aussi dangereux, car les gagnants n'étaient pas toujours ceux qui négligeaient la sécurité. "Compte tenu de ces résultats, il sera important pour les régulateurs d'établir combien de temps différentes courses d'IA sont susceptibles de durer, en appliquant différentes réglementations en fonction de leurs délais prévus", ont-ils écrit. "Nos résultats suggèrent qu'une règle pour toutes les courses d'IA, des sprints aux marathons, conduira à des résultats qui sont loin d'être idéaux."

David Zhao, directeur général de Coda Strategy, une société de conseil en IA, a déclaré dans une interview par e-mail avec Lifewire qu'il peut être difficile d'identifier une IA dangereuse. Les défis résident dans le fait que les approches modernes de l'IA adoptent une approche d'apprentissage en profondeur.

"Nous savons que l'apprentissage en profondeur produit de meilleurs résultats dans de nombreux cas d'utilisation, tels que la détection d'images ou la reconnaissance vocale", a déclaré Zhao. "Cependant, il est impossible pour les humains de comprendre comment fonctionne un algorithme d'apprentissage en profondeur et comment il produit sa sortie. Par conséquent, il est difficile de dire si une IA qui produit de bons résultats est dangereuse car il est impossible pour les humains de comprendre ce qui se passe."

Les logiciels peuvent être "dangereux" lorsqu'ils sont utilisés dans des systèmes critiques, qui présentent des vulnérabilités qui peuvent être exploitées par de mauvais acteurs ou produire des résultats incorrects, a déclaré par e-mail Matt Shea, directeur de la stratégie de la société d'intelligence artificielle MixMode. Il a ajouté qu'une IA non sécurisée pourrait également entraîner une classification incorrecte des résultats, une perte de données, un impact économique ou des dommages physiques.

"Avec les logiciels traditionnels, les développeurs codent des algorithmes qui peuvent être examinés par une personne pour déterminer comment corriger une vulnérabilité ou corriger un bogue en consultant le code source", a déclaré Shea."Avec l'IA, cependant, une grande partie de la logique est créée à partir des données elles-mêmes, encodées dans des structures de données comme les réseaux de neurones et autres. Il en résulte des systèmes qui sont des "boîtes noires" qui ne peuvent pas être examinées pour trouver et corriger les vulnérabilités. comme un logiciel normal."

Dangers à venir ?

Alors que l'IA a été décrite dans des films comme The Terminator comme une force maléfique qui a l'intention de détruire l'humanité, les vrais dangers peuvent être plus prosaïques, disent les experts. Rayna, par exemple, suggère que l'IA pourrait nous rendre plus bêtes.

"Cela peut empêcher les humains d'entraîner leur cerveau et de développer leur expertise", a-t-il déclaré. « Comment devenir un expert du capital risque si on ne passe pas le plus clair de son temps à lire les candidatures des startups ? Pire encore, l'IA est notoirement une "boîte noire" et peu explicable. Ne pas savoir pourquoi une décision particulière de l'IA a été prise signifie qu'il y aura très peu à apprendre, tout comme vous ne pouvez pas devenir un coureur expert en conduisant autour du stade sur un Segway.”

Il est difficile de dire si une IA qui produit de bons résultats est dangereuse, car il est impossible pour les humains de comprendre ce qui se passe.

La menace la plus immédiate de l'IA est peut-être la possibilité qu'elle puisse fournir des résultats biaisés, a déclaré Lyle Solomon, un avocat qui écrit sur les implications juridiques de l'IA, dans une interview par e-mail.

"L'IA peut aider à approfondir les divisions sociétales. L'IA est essentiellement construite à partir de données collectées auprès d'êtres humains", a ajouté Solomon. "[Mais] malgré les vastes données, elles contiennent un minimum de sous-ensembles et n'incluraient pas ce que tout le monde pense. Ainsi, les données collectées à partir de commentaires, de messages publics, de critiques, etc., avec des biais inhérents, feront que l'IA amplifiera la discrimination et la haine."

Conseillé: