
La société suisse ERNI, experte en ingénierie logicielle et en solutions avancées, souligne : « En alimentant des outils comme ChatGPT en données, nous abandonnons leur domination. »
L’Union européenne a récemment établi une réglementation sur l’intelligence artificielle dans le but de « garantir un développement et une application optimaux » de l’IA, en cherchant à ce qu’elle soit « fiable, transparente, traçable, équitable et écologiquement responsable ».
Risques et opportunités de ChatGPT
Les innovations dans les modèles linguistiques tels que ChatGPT ont ouvert un éventail de possibilités dans le secteur des entreprises. ChatGPT, créé pour traiter de vastes volumes d’informations et fournir des réponses logiques grâce à des techniques de Deep Learning, a révolutionné l’efficacité et la rapidité de diverses procédures d’entreprise.
Cependant, cet outil représente également un canal potentiel pour les cybercriminels et d’éventuelles fuites de données, tant internes que tierces. ERNI, une société suisse de logiciels, met en garde contre le risque de perdre le contrôle des données une fois saisies sur des plateformes telles que ChatGPT.
Alberto Martín, responsable de la technologie et de l’innovation chez ERNI Consulting Espagne, souligne que « même si l’IA a un impact révolutionnaire sur les entreprises, elle pose également des défis en matière de sécurité des données sensibles ».
Formation et utilisation responsable de l’IA
Il est crucial de former les travailleurs à l’utilisation responsable de l’IA, en leur apprenant à discerner quelles données peuvent être partagées sans compromettre l’intégrité des informations de l’entreprise.
Martín suggère que « plusieurs entreprises choisissent de développer leurs propres solutions d’IA générative dans le cloud, permettant la gestion des données dans un environnement contrôlé et privé ». Il est essentiel, dans ces contextes, de s’assurer que les fournisseurs de services cloud respectent les réglementations en matière de protection des données.
Avancées réglementaires dans l’UE sur l’IA
Alors que la technologie évolue à pas de géant, le Parlement européen a récemment entamé des débats sur le « EU AI Act », le premier règlement spécifique sur l’intelligence artificielle.
En vue de consolider un consensus avant la fin de l’année, l’UE cherche avec cette mesure à « garantir un développement et une application optimaux » de l’IA, soulignant qu’elle est « fiable, transparente, traçable, équitable et écologiquement responsable ». Cette première proposition établit trois catégories de régulation en fonction des risques associés à chaque système.
En rapport