Microsoft dévoile un plan en cinq points clés pour la réglementation de l’IA BlockBlog

Microsoft dévoile un plan en cinq points clés pour la réglementation de l’IA BlockBlog

L’évolution rapide de l’intelligence artificielle (IA) et sa nature transformatrice, devient un enjeu majeur pour l’humanité. Alors que le développement de la technologie continue de progresser, et avec lui la création d’outils pour les personnes, la La réglementation de l’IA est devenue un sujet commun qui fait partie du débat sur l’impact de la technologie.

Cela peut vous intéresser: Surveillance de l’intelligence artificielle : la nécessité d’une réglementation et les risques et les implications de l’IA pour le travail et la société ont été discutés au Sénat américain

Une vision sur la régulation de l’intelligence artificielle selon Microsoft

Le géant de la technologie Microsoft, mené par son Président Brad Smitha publié sa vision sur la manière dont l’intelligence artificielle devrait être réglementée, qui comprend un plan avec cinq principales recommandations lors de l’examen de l’élaboration de politiques publiques et de lois pour la gouvernance de l’IAune technologie qui, selon lui, devrait être contrôlé par l’humanité de tout temps.

L’entreprise s’est positionnée comme l’un des principaux acteurs technologiques du l’intégration et le déploiement d’initiatives d’intelligence artificielle, en l’ajoutant à ses différents produits et services, tels que le navigateur Edge, son moteur de recherche Bing et même son système d’exploitation Windowstirant parti de sa capacité technologique et du potentiel de son allié stratégique, OpenAI et ses systèmes d’IA, ChatGPT et GPT-4.

Voyons quels sont les points les plus importants mis en évidence par Microsoft concernant la réglementation de l’intelligence artificielle aux États-Unis dans sa proposition : « Gouverner l’IA : un plan pour l’avenir ».

Exploiter et mettre en œuvre de nouveaux cadres de sécurité de l’IA dirigés par le gouvernement

Microsoft estime qu’il existe une bonne base actuelle pour consolider les cadres de sécurité pour la mise en œuvre et le développement de l’intelligence artificielleil propose donc d’utiliser le cadre de Gestion des risques liés à l’IA récemment créé par Institut national américain des normes et de la technologie (NIST)comme base fondamentale pour la construction de paramètres de sécurité par rapport à la technologie.

Ce cadre a un « une base solide que les entreprises et les gouvernements peuvent immédiatement mettre en œuvre pour garantir l’utilisation la plus sûre de l’intelligence artificielle »a déclaré la société.

En ce qui concerne une implémentation dudit framework effectuée par le NIST, qui est « étroitement alignés » avec les standards Microsoft, un compromis sera nécessaire pour mener d’autres tests liés aux pratiques des systèmes d’IA avancés.

En outre, ils suggèrent la nécessité pour le gouvernement américain de garantir la mise en œuvre du cadre de l’intelligence artificielle par le biais d’un décret exécutifsurtout comme point de départ pour rendre critiques les systèmes avancés.

Pour cela, Microsoft recommande :

  • Exiger l’auto-certification des fournisseurs selon le cadre de gestion des risques NIST IA
  • Établir un bureau du programme NIST AI Risk Management pour faire progresser la coordination et l’habilitation entre les différentes agences gouvernementales
  • Développer l’achat de ressources de manière responsable et limitée selon les profils de développement de l’IA
  • Formation et éducation avancées pour évaluer les risques et les avantages des systèmes d’IA critiques
  • Augmenter les exigences de base en matière de gouvernance de l’IA pour les agences

Microsoft a montré son engagement à travailler avec « d’autres leaders de l’industrie et des membres du gouvernement pour développer des normes nouvelles et supplémentaires liées aux modèles de base à haute capacité ».

Exiger des freins de sécurité efficaces pour les systèmes d’IA qui contrôlent les infrastructures critiques

Alors que l’intelligence artificielle est déployée à plus grande échelle, son adoption dans le Infrastructure critique d’un pays, comme le réseau électrique, le système d’eau, les systèmes d’urgence ou le trafic d’une villevous devez avoir une réponse de sécurité dans les scénarios quotidiens et catastrophiques.

Microsoft estime que systèmes d’IA avancés connectés à l’infrastructure critiqueils doivent avoir un « frein de sécurité » dans sa conception qui permet intervention humaine et contrôle Si nécessaire.

Pour cela le le gouvernement doit classer les systèmes d’intelligence artificielle à haut risquesurtout évaluer les systèmes en fonction de leur capacité, un fonctionnement de plus en plus autonome et ceux qui « traverser la fracture numérique-physique ».

Ainsi, ladite classification devrait évaluer ces systèmes en tenant compte de leur la capacité de prise de décision ou les actions à grande échelle qu’ils effectuent, les procédures physiques, l’autonomie et le risque potentiel de causer des dommages à grande échelle au niveau physique, économique ou environnemental.

De plus, le gouvernement devra s’assurer que ces « freins de sécurité » avoir un dessin différents niveaux et qui fonctionnent dans différents systèmesencourager l’examen constant des systèmes à haut risque par les opérateurs, tout en ces systèmes d’IA qui contrôlent les infrastructures critiques ne peuvent être développés que par des entreprises ou des opérateurs disposant d’une licence pour le faire.

Cela peut vous intéresser: OpenAI présente trois clés pour gouverner et atténuer les risques de la superintelligence artificielle

Élaborer un cadre juridique et réglementaire complet basé sur l’architecture technologique de l’intelligence artificielle

L’entreprise technologique propose que le élaboration et application de lois sur l’intelligence artificielleest appliqué selon les capacité des différents modèles fondateurs et selon le rôle de chaque entreprise concernant la technologie.

En ce sens, la L’infrastructure technologique de l’IA peut être réglementée, à la fois par les protections juridiques existantes et par de nouvelles lois et réglementationsquant aux couches de « application », « modèles » et « infrastructure »comme expliqué par Microsoft.

Pour le couche d’applicationils devraient appliquer les lois pour l’utilisation de l’intelligence artificielle à différentes échelles, tandis que pour Couches de modèle et infrastructurede nouvelles lois, réglementations et obligations pour les opérateurs seront nécessaires, en fonction de chaque type de modèle et de développement.

Proposition de réglementation pour l’infrastructure IA par Microsoft.

Microsoft était d’accord avec Sam Altman, PDG d’OpenAI, concernant la création d’une nouvelle agence chargée de réglementer l’intelligence artificielle et surveiller la conformité avec le régime de licences proposé par Altman.

De plus, pour assurer la sécurité des systèmes d’intelligence artificielle et les protéger des activités illégalescomme le blanchiment d’argent ou le financement du terrorisme, Microsoft a décrit ce qu’il a appelé « KY3C »qui consiste à mettre en œuvre des politiques Know Your Customer ou Know your Client (KYC) de la finance traditionnelle aux services d’IA.

KY3C implique :

  • Connaissez votre cloud ou connaissez le cloud, pour les puissants développeurs de modèles d’IA qui utilisent le stockage dans le cloud pour déployer et développer leurs modèles.
  • Connaissez votre client ou connaissez votre client, appliqué à l’une des parties impliquées dans le modèle IA.
  • Connaissez votre contenu ou connaissez votre contenu, qui consiste en un système d’étiquetage ou de marque pour le contenu créé ou généré par l’intelligence artificielle, dans le but de protéger le public contre la contrefaçon, la désinformation et la tromperie.

Cela peut vous intéresser: Microsoft continue d’intégrer l’intelligence artificielle : l’entreprise ajoute la technologie à ses produits d’entreprise Power Platform et Dynamics 365

Promouvoir la transparence et garantir l’accès des universitaires et des organisations à but non lucratif à l’intelligence artificielle

L’une des clés pour élever le débat sur la la sécurité et la transparence du développement de l’intelligence artificielle, consiste à garantir que la technologie est accessible pour tout le monde, explique Microsoft, en pensant notamment au communauté universitaire et à but non lucratif.

Le la transparence est considérée comme un principe éthique fondamental concernant le développement de l’IA, selon la vision de l’entreprise. Dans cette optique, la nécessité de garantir l’accès aux ressources liées au développement technologiqueainsi qu’une réduction des barrières à l’entrée et des coûts d’accès pour les communautés à but non lucratif.

Partenariats public-privé pour utiliser l’IA comme outil pour relever les défis sociétaux

Enfin, le cinquième point du plan de recommandation de Microsoft pour réguler l’intelligence artificielle, passe par la recherche « de nouveaux partenariats public-privé pour utiliser l’IA comme un outil efficace pour relever les défis sociétaux inévitables qui se posent avec les nouvelles technologies ».

Pour explorer le potentiel et atténuer les risques de l’intelligence artificielle, la coopération entre les secteurs public et privé sera essentielleavec la société, pour élaborer des lignes directrices qui permettent l’utilisation de la technologie pour protéger la démocratie et les droits fondamentaux.

Nous avons une vision claire de l’avenir et réalisons que certains chercheront à utiliser l’IA comme une arme plutôt qu’un outil. Et même lorsque les gens de bonne volonté font de leur mieux, le changement technologique crée inévitablement des obstacles imprévus sur la route à venir.

Cela peut vous intéresser: IA sûre et digne de confiance : le Royaume-Uni crée un groupe de travail axé sur l’adoption de l’IA générative

Le président de Microsoft estime que L’intelligence artificielle peut être une technologie capable d’améliorer la condition humaine et d’améliorer la vie des gensavec un impact qui a « peut-être encore plus de potentiel pour le bien de l’humanité que toute invention qui l’a précédée ».

Cependant, Smith estime que loin de rester uniquement avec les opportunités offertes par l’intelligence artificiellel’un des enseignements qui ont porté l’émergence et le développement des réseaux sociaux jusqu’à nos jours, est de voir comment une technologie peut passer d’un outil à une armeil est donc fondamental selon sa vision « Assurez-vous que l’IA reste sous contrôle humain ».

Plus de sujets d’intérêt?

Intelligence artificielle et Blockchain : Solana annonce l’intégration de ChatGPT et un fonds de subvention pour soutenir les projets d’IA

Véritable numérique : Visa, Microsoft et différentes institutions financières participeront au projet pilote CBDC au Brésil

La base de réseau de deuxième couche de Coinbase définit une feuille de route pour le lancement du réseau principal

Neuralink d’Elon Musk obtient l’approbation de la FDA pour l’implantation d’une puce humaine

Voir l’article original sur www.criptotendencias.com