Les gouvernements doivent « agir rapidement » lorsqu’ils réglementent l’IA, déclare le président de Microsoft

Les gouvernements doivent « agir rapidement » lorsqu’ils réglementent l’IA, déclare le président de Microsoft

Le président de Microsoft, Brad Smith, a ajouté son nom cette semaine à la liste croissante des géants de l’industrie technologique qui tirent la sonnette d’alarme et appellent les gouvernements à réglementer l’intelligence artificielle (IA).

« Le gouvernement doit agir plus vite », a déclaré Smith lors d’une table ronde jeudi matin à Washington DC avec la participation de décideurs politiques, selon des informations. Le New York Times.

L’appel à la réglementation de Microsoft intervient à un moment où le développement rapide de l’intelligence artificielle – en particulier des outils d’IA génératifs – fait l’objet d’une surveillance accrue de la part des régulateurs.

L’IA générative fait référence à un système d’intelligence artificielle capable de générer du texte, des images ou d’autres médias en réponse aux instructions fournies par l’utilisateur. Quelques exemples importants sont la plate-forme d’imagerie Midjourney, Bard de Google et ChatGPT d’OpenAI.

L’appel à la réglementation de l’IA est devenu plus fort depuis le lancement public de ChatGPT en novembre. Des personnalités telles que Warren Buffett, Elon Musk et même le PDG d’OpenAI, Sam Altman, ont parlé des dangers potentiels de la technologie. Un facteur clé de la grève actuelle des écrivains de la WGA est la crainte que l’IA puisse être utilisée pour remplacer les écrivains humains, un sentiment partagé par les artistes du jeu maintenant que les studios de jeux se penchent sur la technologie.

Smith a préféré exiger que les développeurs obtiennent une licence avant de déployer des projets d’IA avancés, suggérant que ce qu’il a appelé l’IA « à haut risque » ne devrait fonctionner que dans des centres de données d’IA sous licence.

L’exécutif de Microsoft a également appelé les entreprises à assumer la responsabilité de la gestion de la technologie qui a pris d’assaut le monde, suggérant que la volonté n’incombe pas uniquement aux gouvernements de gérer l’impact sociétal potentiel de l’IA.

« Cela signifie que vous informez le gouvernement lorsque vous commencez les tests », a déclaré Smith. « Même lorsque vous obtenez la licence pour votre déploiement, vous avez l’obligation de continuer à le surveiller et de signaler au gouvernement si des problèmes inattendus surviennent. »

Malgré les inquiétudes, Microsoft a misé sur l’IA, aurait investi plus de 13 milliards de dollars dans OpenAI, développeur de ChatGPT, et intégré le chatbot populaire dans son navigateur Web Bing.

« Nous sommes engagés et déterminés en tant qu’entreprise à développer et déployer l’IA de manière sûre et responsable », a écrit Smith dans un article sur la gouvernance de l’IA. « Cependant, nous reconnaissons également que les garde-fous nécessaires à l’IA nécessitent un sens des responsabilités largement partagé et ne doivent pas être laissés aux seules entreprises technologiques. »

En mars, Microsoft a lancé son Security Copilot, le premier outil spécialisé du genre qui utilise l’IA pour aider les professionnels de l’informatique et de la cybersécurité à identifier les cybermenaces à l’aide de grands ensembles de données.

Les commentaires de Smith font écho à ceux du PDG d’OpenAI, Sam Altman, lors d’une audition devant la commission judiciaire du Sénat américain la semaine dernière. Altman a suggéré de créer une agence fédérale pour réglementer et établir des normes pour le développement de l’IA.

« Je créerais une nouvelle agence qui autoriserait tout effort dépassant une certaine échelle de capacités, et serait en mesure de prendre cette licence et de garantir le respect des règles de sécurité », a déclaré Altman.

Microsoft n’a pas immédiatement répondu à une demande de commentaire de Décrypter.

Restez au courant des actualités cryptographiques, recevez des mises à jour quotidiennes dans votre boîte de réception.



Voir l’article original sur decrypt.co