🚀 Meta’s Oversight Board enquête sur les images explicites générées par IA publiées sur Instagram et Facebook 🔍🤖

0 0
Read Time:3 Minute, 32 Second

La Commission de surveillance de Meta, le conseil politique semi-indépendant de Meta, se lance dans une enquête passionnante sur la manière dont les plateformes sociales de l’entreprise gèrent les images explicites générées par IA. Mardi, elle a annoncé des enquêtes sur deux cas distincts concernant la façon dont Instagram en Inde et Facebook aux États-Unis ont géré des images générées par IA de personnalités publiques après que les systèmes de Meta aient échoué à détecter et à répondre au contenu explicite.

Dans les deux cas, les sites ont maintenant retiré les médias. La commission ne nomme pas les individus ciblés par les images IA « pour éviter le harcèlement basé sur le genre », selon un e-mail envoyé par Meta à TechCrunch. 📧

Les cas 🕵️‍♂️

Décrivant le premier cas, la commission a déclaré qu’un utilisateur avait signalé comme pornographique une image nue générée par IA d’une personnalité publique en Inde sur Instagram. L’image a été publiée par un compte qui publie exclusivement des images de femmes indiennes créées par IA, et la majorité des utilisateurs qui réagissent à ces images sont basés en Inde.

Meta n’a pas supprimé l’image après le premier signalement, et le ticket pour le signalement a été fermé automatiquement après 48 heures après que l’entreprise n’ait pas examiné le signalement plus avant. Lorsque le plaignant initial a fait appel de la décision, le signalement a de nouveau été fermé automatiquement sans aucun examen de la part de Meta. En d’autres termes, après deux signalements, l’image explicite générée par IA est restée sur Instagram.

L’utilisateur a ensuite enfin fait appel à la commission. La société n’a agi qu’à ce moment-là pour supprimer le contenu contestable et a retiré l’image pour avoir enfreint ses normes communautaires en matière d’intimidation et de harcèlement.

Le deuxième cas concerne Facebook, où un utilisateur a publié une image explicite générée par IA qui ressemblait à une personnalité publique américaine dans un groupe axé sur les créations d’IA. Dans ce cas, le réseau social a retiré l’image car elle avait été publiée par un autre utilisateur auparavant, et Meta l’avait ajoutée à une banque de services de correspondance de médias sous la catégorie « photoshop ou dessins sexualisés et dérogatoires ». 🖼️

Les enjeux 💡

Certains, mais pas tous, les outils d’IA générative ces dernières années ont été étendus pour permettre aux utilisateurs de générer du contenu pornographique. Comme l’a rapporté TechCrunch précédemment, des groupes comme Unstable Diffusion tentent de monétiser la pornographie IA avec des lignes éthiques troubles et des biais dans les données.

Dans des régions comme l’Inde, les deepfakes sont également devenus une préoccupation. L’année dernière, un rapport de la BBC a noté que le nombre de vidéos deepfakes d’actrices indiennes avait explosé ces derniers temps. Les données suggèrent que les femmes sont plus souvent les sujets de vidéos deepfakes.

Plus tôt cette année, le ministre adjoint de l’IT, Rajeev Chandrasekhar, s’est dit insatisfait de l’approche des entreprises technologiques pour contrer les deepfakes. 📈

Conclusion 🎉

Ces cas indiquent que les grandes plateformes luttent toujours avec d’anciens processus de modération tandis que les outils alimentés par l’IA permettent aux utilisateurs de créer et de distribuer rapidement et facilement différents types de contenu. Des entreprises comme Meta expérimentent des outils qui utilisent l’IA pour la génération de contenu, avec quelques efforts pour détecter de telles images. En avril, l’entreprise a annoncé qu’elle apposerait des badges « Made with AI » sur les deepfakes si elle pouvait détecter le contenu en utilisant des « indicateurs d’image IA standard de l’industrie » ou des divulgations d’utilisateurs. 🛠️

L’expert en politiques de plateforme, Malik, a déclaré que l’étiquetage était souvent inefficace car le système de détection d’images générées par IA n’était toujours pas fiable.

« Cela montre que l’étiquetage a un impact limité lorsqu’il s’agit de limiter la distribution de contenu préjudiciable. Si nous pensons au cas des images générées par IA de Taylor Swift, des millions d’utilisateurs ont été dirigés vers ces images grâce à la propre tendance de X ‘Taylor Swift IA’. Donc, les gens et la plateforme savaient que le contenu n’était pas authentique, et il était toujours amplifié de manière algorithmique », a noté Malik.

Cependant, les auteurs trouvent constamment des moyens d’éviter ces systèmes de détection et de publier du contenu problématique sur les plateformes sociales. 🛑

Heureux
Heureux
0 %
Triste
Triste
0 %
Excité
Excité
0 %
Sleepy
Sleepy
0 %
En colère
En colère
0 %
Surprise
Surprise
0 %
Post précédent Nouveau Modèle Stable LM 2 de 12B d’IA Stabilité
Prochain post 💫 Demandez à un Éthicien des Données : Comment Aborder l’Éthique de la Réutilisation des Données? 🌐
Fermer