Apple par

Apple aurait menacé de retirer Grok de l’App Store à cause d’images sexualisées

Apple aurait averti en privé la société xAI d’Elon Musk en janvier qu’elle retirerait l’application Grok de l’App Store si l’entreprise ne mettait pas fin aux deepfakes nus et sexualisés générés par son chatbot, selon une lettre envoyée par Apple à des sénateurs américains et obtenue par NBC News.

Plus tôt cette année, les capacités d’IA de Grok avaient suscité une vive controverse après la diffusion sur X d’images sexualisées non consenties représentant des femmes et des enfants, créées à l’aide de l’application. Une partie de ces contenus s’appuyait sur des photos de personnes réelles.

Apple serait à l’origine des changements de modération

Ce qui a suivi a pris la forme d’un déploiement confus de nouvelles règles de modération pour Grok, dont certaines pouvaient apparemment être contournées assez facilement.

Publiquement, Apple n’avait fait aucun commentaire à l’époque sur cette polémique. Mais en coulisses, l’entreprise aurait bien réagi, et aurait même été à l’origine des changements apportés. En interne, Apple aurait estimé que X et Grok enfreignaient ses règles de l’App Store, et aurait exigé de leurs développeurs la présentation d’un véritable plan de modération de contenu.

Un premier correctif jugé insuffisant

Selon cette lettre, Apple aurait rejeté une première tentative de correction proposée par xAI, en considérant que les changements n’allaient pas assez loin.

Apple aurait alors averti l’entreprise que des modifications supplémentaires étaient nécessaires, faute de quoi Grok serait retiré de l’App Store. Après plusieurs échanges supplémentaires, Apple aurait finalement considéré qu’une version ultérieure de l’application avait été suffisamment améliorée pour être approuvée.

Des sénateurs américains avaient demandé le retrait des applications

Cette révélation ferait suite à une lettre envoyée en janvier par les sénateurs Ron Wyden, Ben Ray Luján et Edward Markey, qui demandaient à Apple et Google de retirer les deux applications.

Selon eux, les images en question enfreignaient les règles des boutiques d’applications interdisant les contenus offensants, sexuels et exploitants.

Les sénateurs soulignaient aussi que la réponse d’Apple constituerait un test de cohérence pour l’entreprise, qui défend depuis longtemps son App Store contrôlé en affirmant que son processus de validation rend les utilisateurs plus en sécurité.

Laisser Grok continuer à produire ce type d’images fragiliserait, selon eux, cet argument, aussi bien dans l’opinion publique que devant les tribunaux.

xAI affirme avoir renforcé ses protections

Après la publication de l’enquête de NBC News, X a publié la déclaration suivante sur sa plateforme : « Nous interdisons strictement aux utilisateurs de générer des deepfakes explicites non consentis et d’utiliser nos outils pour déshabiller des personnes réelles. xAI a mis en place d’importants garde-fous pour empêcher ce type d’abus, comme une surveillance continue de l’usage public, une analyse en temps réel des tentatives de contournement, des mises à jour fréquentes du modèle, des filtres sur les requêtes et des protections supplémentaires. »

Les dérives auraient diminué, sans disparaître totalement

Même si la quantité de deepfakes sexualisés générés par Grok puis publiés sur X semblerait avoir fortement diminué, NBC News affirme que Grok resterait encore capable de produire des images similaires.

Certains utilisateurs auraient simplement adapté leurs formulations pour contourner plus efficacement les garde-fous mis en place.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *