Stable Diffusion 2.0 « oublié comment » générer du porno

Temps de lecture :3 Minutes, 27 Secondes

Stability AI a mis à jour son générateur d’images textuelles Stable Diffusion, « affaiblissant » la capacité de l’algorithme à créer NSFW-contenu et images dans le style d’artistes spécifiques. Cela a provoqué le mécontentement des utilisateurs, écrit The Verge.

La mise à jour comprend réingénierie composants clés du modèle et l’amélioration de certaines de ses fonctionnalités telles que la mise à l’échelle et l’édition contextuelle. Cela limite également la capacité du système d’IA à créer des illustrations qui imitent le style de quelqu’un d’autre et représentent la nudité, la pornographie ou les célébrités.

« Ils ont nerfé l’algorithme », a commenté un utilisateur de Reddit sur la mise à jour dans la section Stable Diffusion.

Réduisez vos frais d’échanges
Les frais d’échanges peuvent représenter plusieurs centaines de dollars chaque année. Pour cette raison, les bons tradeurs cherchent à les réduire car ils peuvent impacter fortement leurs résultats. Vous aussi vous pouvez le faire grâce aux liens ci-dessous :

Un autre développeur du serveur Discord officiel a qualifié les changements de « mauvaise surprise ».

De plus, les utilisateurs ont noté l’incapacité du modèle à générer des images dans le style de l’artiste numérique Greg Rutkowski.

Selon la source, de nombreux artistes sont « ennuyés » que des algorithmes comme Stable Diffusion aient été entraînés sur leur travail sans autorisation et soient désormais capables de reproduire des peintures similaires.

Les experts ont admis que la formation de réseaux de neurones sur des données protégées par le droit d’auteur est légale. Cependant, certains cas d’utilisation peuvent être contestés devant les tribunaux, ont-ils ajouté.

Comparaison de la capacité de Stable Diffusion à générer des images de type artiste avant et après la mise à jour. Données : lkewis.

Les utilisateurs de Stable Diffusion ont suggéré que Stability AI a apporté ces modifications au modèle pour atténuer les problèmes juridiques potentiels.

Le fondateur de la société, Emad Mostak, a déclaré que les développeurs n’avaient pas supprimé les peintures des artistes des données de formation. La capacité limitée du modèle à imiter les styles est le résultat de changements dans la capacité du logiciel à encoder et à récupérer des informations.

Cependant, il s’est avéré que les ingénieurs avaient supprimé les illustrations de nudité et de porno des ensembles de données d’entraînement. Selon Mastak, la raison du filtrage du contenu NSFW était la possibilité d’utiliser un algorithme pour générer des images de maltraitance d’enfants.

L’utilisateur de Reddit ZeroCool22 a déclaré que le changement « va à l’encontre de l’esprit de la philosophie de la communauté open source ».

« La décision de créer ou non du contenu NSFW doit rester entre les mains de l’utilisateur final, et non d’un modèle restreint/censuré », a-t-il écrit.

D’autres utilisateurs ont noté que puisque Stable Diffusion est open source, les données de nudité peuvent être « facilement » ajoutées aux versions tierces.

Certains développeurs louent la fonctionnalité plus profonde de l’algorithme, y compris la capacité du système à créer un contenu qui correspond à la profondeur de l’image d’origine.

Les utilisateurs de Discord ont également noté une meilleure interprétation des indices et la génération d’images photographiques cohérentes par le modèle.

Mostak a déclaré que les futures versions de Stable Diffusion commenceront à utiliser des ensembles de données de formation qui permettent aux artistes d’accepter ou de refuser l’inclusion de leur travail.

« Nous essayons d’être aussi transparents que possible en améliorant les modèles sous-jacents et en tenant compte des commentaires de la communauté », a-t-il déclaré.

Rappelons qu’en août, Stability AI a fourni à plus de 1 000 chercheurs un accès au générateur d’images textuelles Stable Diffusion. La société a ensuite mis l’algorithme à la disposition d’un public plus large.

En septembre, un passionné a appris à Stable Diffusion comment générer de la vidéo à la demande. L’algorithme est basé sur le code du développeur AI Andrey Karpaty.

En octobre, le passionné allemand Fabian Stelzer a utilisé le réseau de neurones Stable Diffusion pour traiter les selfies.

Abonnez-vous aux actualités de ForkLog sur Telegram : ForkLog AI – toutes les actualités du monde de l’IA !

Vous avez trouvé une erreur dans le texte ? Sélectionnez-le et appuyez sur CTRL + ENTRÉE



Voir l’article original sur forklog.com