

Un certain nombre d’experts en IA ont critiqué les auteurs de la lettre du Future of Life Institute appelant à un arrêt de six mois du développement de grands modèles de langage.
Selon l’opposition, l’initiative est « un battage médiatique autour de l’IA » et déforme les articles académiques de certains scientifiques.
Les auteurs de la lettre citent un article de Timnit Gebru, un ancien chercheur de Google, comme argument en faveur de la suspension des recherches. L’entreprise l’a licenciée après que la scientifique ait critiqué les grands modèles de langage dans son travail scientifique.
Cependant, Gebru affirme que les auteurs de la lettre ont déformé l’article. Au contraire, le travail met en garde contre les affirmations exagérées sur l’IA, a-t-elle déclaré.
« En gros, ils disent le contraire de ce que nous disons et citent notre article », a écrit le scientifique.
que l’un des principaux points que nous soulignons dans l’article est que l’un des plus grands dommages des grands modèles de langage est causé par la RÉCLAMATION que les LLM ont une « intelligence compétitive entre les humains ».
Ils disent en gros le contraire de ce que nous disons et citent notre papier ?
— @timnitGebru@dair-community.social sur Mastodon (@timnitGebru) 30 mars 2023
La co-auteure de l’ouvrage, Emily Bender, a déclaré que la lettre était un « gâchis » complet et qu’elle était saturée de « battage médiatique autour de l’IA ».
Selon elle, les risques de la technologie n’ont jamais été associés à sa « puissance excessive ». Les universitaires ont plutôt mis en garde contre « la concentration du pouvoir entre les mains de personnes capables de reproduire des systèmes d’oppression, au détriment de l’écosystème de l’information ».
Au lieu de cela : il s’agit de concentration du pouvoir entre les mains des gens, de reproduction de systèmes d’oppression, de dommages à l’écosystème de l’information et de dommages à l’écosystème naturel (par l’utilisation abusive des ressources énergétiques).
>>
— @emilymbender@dair-community.social sur Mastodon (@emilymbender) 29 mars 2023
Le patron de la startup Stability AI, Emad Mostak, qui a signé la lettre, quelques heures seulement après sa publication, a refusé l’une des exigences.
« Je ne pense pas qu’une pause de six mois soit la meilleure idée », a-t-il tweeté.
Pour s’assurer qu’il fait ce que vous dites.
Cependant, les grands modèles émergents peuvent être très dangereux sans atteindre l’AGI ou la sensibilité.
Je ne pense pas qu’une pause fera grand-chose mais signé dans l’esprit de la lettre que la transparence & la coordination & une meilleure gouvernance sont 💯 nécessaires
— Emad (@EMostaque) 29 mars 2023
Un autre signataire, le professeur de psychologie Gary Markus, s’est disputé la majeure partie de la journée avec des critiques sur Twitter, dont l’universitaire en informatique Nick Holliman. Les utilisateurs ont accusé le scientifique de « distraction stupide ».
Un critique a suggéré que la lettre était signée par des « blancs » qui sont indifférents aux problèmes actuels de biais d’algorithme.
« J’ai répété à maintes reprises […] que nous devrions nous préoccuper de la façon dont les systèmes existants perpétuent les préjugés du passé », a répondu Markus.
Cela me dénature.
J’ai soutenu à plusieurs reprises (Rebooting AI, mon tweet épinglé depuis 2021, article sur l’Atlantique la semaine dernière, etc.) que nous devons nous préoccuper de la façon dont les systèmes existants perpétuent les préjugés passés.
Je maintiens ce que j’ai écrit hier : « Nous devons désespérément arrêter de dichotomiser.… https://t.co/GohmvZ6ty2
– GaryMarcus (@GaryMarcus) 29 mars 2023
Les grandes entreprises technologiques comme Google, Meta et Microsoft travaillent sur des systèmes d’intelligence artificielle depuis des années. Cependant, un intérêt accru pour la technologie est apparu après l’annonce de ChatGPT.
En mars 2023, OpenAI a introduit une nouvelle version du modèle de langage GPT. C’est probablement ce qui a conduit à la rédaction de la lettre publique.
Rappelons qu’en mars, plus de 1 000 experts en IA ont appelé à la suspension du développement de grands modèles de langage pendant six mois.
Vous avez trouvé une erreur dans le texte ? Sélectionnez-le et appuyez sur CTRL + ENTRÉE
Newsletters ForkLog : Gardez le doigt sur le pouls de l’industrie du bitcoin !