L’IA surpassera la plupart des experts humains dans 10 ans : OpenAI

L’IA surpassera la plupart des experts humains dans 10 ans : OpenAI
Temps de lecture :3 Minutes, 1 Secondes

Préparez-vous : la superintelligence artificielle est proche.

UN article de blog Co-écrit par le PDG d’OpenAI Sam Altman, le président d’OpenAI Greg Brockman et le scientifique en chef d’OpenAI Ilya Sutskever, il avertit que le développement de l’IA nécessite une réglementation stricte pour éviter des scénarios potentiellement catastrophiques.

« C’est maintenant le bon moment pour commencer à réfléchir à la gouvernance d’une superintelligence », a déclaré Altman, reconnaissant que les futurs systèmes d’IA pourraient nettement surpasser l’AGI en termes de capacité. « Compte tenu de la situation telle que nous la voyons actuellement, il est concevable qu’au cours des dix prochaines années, les systèmes d’IA dépasseront les niveaux de compétence des experts dans la plupart des domaines et exerceront autant d’activité productive que l’une des plus grandes entreprises d’aujourd’hui ».

Reflétant les préoccupations soulevées par Altman dans son témoignage récent Avant le Congrès, le trio a défini trois piliers qu’ils considéraient comme cruciaux pour la planification stratégique future.

Le « point de départ » pour maîtriser les évolutions de l’IA

Premièrement, OpenAI estime qu’il doit y avoir un équilibre entre le contrôle et l’innovation, et a plaidé pour un accord social « qui nous permet de maintenir la sécurité et d’aider à l’intégration harmonieuse de ces systèmes avec la société ».

Ils ont ensuite défendu l’idée d’une « autorité internationale » chargée des inspections des systèmes, de l’audit de la conformité, des tests de conformité de la sécurité et des contraintes de mise en œuvre et de sécurité. Établissant des parallèles avec l’Agence internationale de l’énergie atomique, ils ont suggéré à quoi pourrait ressembler un organisme mondial de réglementation de l’IA.

Enfin, ils ont souligné la nécessité d’avoir la « capacité technique » pour maintenir le contrôle sur la superintelligence et la garder « sûre ». Ce que cela implique reste vague, même pour OpenAI, mais le message met en garde contre des mesures réglementaires lourdes telles que l’octroi de licences et l’audit pour les technologies qui ne répondent pas à la norme de superintelligence.

Essentiellement, l’idée est de maintenir la superintelligence alignée sur les intentions de ses formateurs, tout en évitant un « scénario foom » – une explosion rapide et incontrôlable des capacités de l’IA au-delà du contrôle humain.

OpenAI met également en garde contre l’impact potentiellement catastrophique que le développement incontrôlé des modèles d’IA pourrait avoir sur les sociétés futures. Des préoccupations similaires ont déjà été soulevées par d’autres experts dans le domaine, du parrain de l’IA aux fondateurs de sociétés d’IA comme Stability AI et même d’anciens travailleurs d’OpenAI impliqués dans la formation du GPT LLM dans le passé. Cet appel urgent à une approche proactive de la gouvernance et de la réglementation de l’IA a attiré l’attention des régulateurs du monde entier.

Le défi d’une superintelligence « sûre »

OpenAI estime qu’une fois ces points résolus, le potentiel de l’IA pourra être exploité plus librement pour de bon : « Cette technologie peut améliorer nos sociétés, et la capacité créative de chacun à utiliser ces nouveaux outils nous étonnera sûrement », ont-ils déclaré. .

Les auteurs ont également expliqué que l’espace se développe actuellement à un rythme rapide, et cela ne va pas changer. « Pour l’arrêter, il faudrait quelque chose comme un régime de surveillance mondial, et même cela n’est pas garanti pour fonctionner », indique le blog.

Malgré ces défis, la direction d’OpenAI reste déterminée à explorer la question : « Comment pouvons-nous garantir que la capacité technique de maintenir une superintelligence sécurisée est atteinte ? » Le monde n’a pas de réponse pour le moment, mais il en a certainement besoin d’une, une que ChatGPT ne peut pas fournir.

Restez au courant des actualités cryptographiques, recevez des mises à jour quotidiennes dans votre boîte de réception.

Voir l’article original sur decrypt.co