Yan LeKun a proposé de doter les systèmes d’IA de « bon sens »

Temps de lecture :2 Minutes, 43 Secondes

L’intelligence artificielle « autonome », capable d’explorer et de percevoir le monde qui l’entoure comme des personnes, a besoin d’une formation plus efficace. Cette conclusion a été tirée par le vice-président de Meta et le principal spécialiste de l’IA de la société Jan LeKun, écrit Motherboard.

Comparés aux humains et aux animaux, les systèmes d’intelligence artificielle modernes manquent d’intelligence. C’est le concept nécessaire pour développer des algorithmes d’IA « autonomes » capables d’apprendre à la volée en observant le monde réel, plutôt que par une longue formation pour effectuer une seule tâche spécifique.

Réduisez vos frais d’échanges
Les frais d’échanges peuvent représenter plusieurs centaines de dollars chaque année. Pour cette raison, les bons tradeurs cherchent à les réduire car ils peuvent impacter fortement leurs résultats. Vous aussi vous pouvez le faire grâce aux liens ci-dessous :

LeCun a publié une étude dans laquelle il a proposé un moyen de résoudre ce problème. Selon lui, les algorithmes nécessitent un apprentissage plus efficace, car jusqu’à présent l’IA n’est « pas très bonne » pour planifier et prédire les changements dans le monde réel. D’autre part, les humains et les animaux sont capables d’acquérir de vastes quantités de connaissances grâce à l’observation et aux interactions physiques non essentielles.

Les adolescents peuvent apprendre à conduire une voiture avec des dizaines d’heures de pratique et ne pas avoir d’accident. Pour résoudre le même problème, les systèmes d’IA ont besoin d’une énorme quantité de données.

« Un véhicule sans pilote devra descendre d’une falaise plusieurs fois avant de se rendre compte que c’est une mauvaise idée, et des milliers d’autres tentatives pour apprendre à ne pas en tomber », a déclaré LeCun lors d’une présentation à l’Université de Californie à Berkeley. .

Selon lui, la différence réside dans la présence de « bon sens » chez les humains et les animaux.

Dans l’article, le scientifique décrit ce concept comme un ensemble de modèles qui peuvent aider un être vivant à tirer une conclusion sur la différence entre probable, faisable et impossible. Une telle compétence permet à une personne d’explorer son environnement, de compléter les informations manquantes et de proposer de nouvelles solutions à des problèmes inconnus.

LeCun a déclaré que de nombreux processus de formation modernes comme l’apprentissage par renforcement ne sont «pas à la hauteur» lorsqu’il s’agit de faire correspondre la fiabilité humaine dans les tâches de la vie réelle.

« C’est un problème pratique car les gens ont vraiment besoin de machines avec du bon sens. Nous avons besoin de voitures autonomes, de robots domestiques et d’assistants virtuels intelligents », a-t-il déclaré.

Le spécialiste a proposé une architecture conçue pour minimiser les actions qu’une IA doit effectuer pour réussir à apprendre et à accomplir la tâche.

LeCun a décrit un modèle de création d’intelligence « autonome », composé de cinq modules distincts mais personnalisables. L’une des parties les plus difficiles de l’architecture deviendra comme un simulateur et évaluera l’état du monde, ainsi que prédira des actions imaginaires et d’autres séquences. Cela permettra d’utiliser les connaissances sur l’environnement pour différentes tâches.

Rappelons qu’en juillet, Google a licencié un ingénieur après avoir annoncé la « naissance de l’esprit » dans l’algorithme LaMDA AI.

En janvier, Elon Musk a promis d’empêcher les machines de se révolter contre les gens.

En juin 2021, les scientifiques de DeepMind ont déclaré que l’apprentissage par renforcement est suffisant pour atteindre l’intelligence générale artificielle.

Abonnez-vous aux actualités de ForkLog sur Telegram : ForkLog AI – toutes les actualités du monde de l’IA !

Vous avez trouvé une erreur dans le texte ? Sélectionnez-le et appuyez sur CTRL + ENTRÉE

Voir l’article original sur forklog.com