Général

Georges Miloradovitch
Chercheur, rédacteur et intervieweur de cas d'utilisation
25 février 2025
Grok-2 est un générateur d'images IA avec moins de restrictions sur le contenu NSFW (Not Safe For Work) par rapport à ses concurrents comme DALL-E et À mi-parcoursCette clémence a suscité des inquiétudes quant à d'éventuels abus, des risques juridiques et des problèmes éthiques. Voici un bref aperçu :
Plateforme | Filtrage NSFW | Filigrane | Protection du droit d'auteur | Prévention des deepfakes |
---|---|---|---|---|
Grok-2 | Un petit peu | Aucune | Limité | Aucune |
DALL-E | Très strict | Oui | Fort | Oui |
À mi-parcours | Stricte (politique PG-13) | Oui | Modérée | Oui |
Bien que Grok-2 permette une plus grande liberté créative, son manque de protections soulève de sérieuses inquiétudes. Pour des résultats plus sûrs et plus contrôlés, DALL-E et Midjourney sont de meilleurs choix.
Grok-2 adopte une approche différente en matière de modération de contenu. Bien qu'il affirme éviter les images pornographiques, trop violentes ou trompeuses, ainsi que les violations de droits d'auteur, ces règles semblent appliquées de manière peu rigoureuse. Plusieurs lacunes opérationnelles ressortent :
Ces lacunes ont déjà attiré l’attention des experts juridiques et politiques.
« Grok et Gemini sont deux générateurs d'images IA qui génèrent des images controversées mais pour de mauvaises raisons. Les deux générateurs peuvent être utilisés pour créer des images fausses et trompeuses, Gemini à cause d'un filtrage trop important et Grok à cause d'un filtrage trop faible. »
« C'est l'une des implémentations d'IA les plus imprudentes et irresponsables que j'ai jamais vues »
Malgré la présence de classificateurs automatisés et d'outils de sécurité, les mesures de Grok-2 ne répondent pas aux attentes du secteur. Cela soulève de graves questions juridiques et éthiques sur l'approche de la plateforme en matière de gestion du contenu.
OpenAILe DALL-E de s'appuie sur un système de sécurité à plusieurs niveaux pour minimiser la création d'images inappropriées. Cette approche s'appuie sur des techniques de filtrage avancées pour bloquer efficacement les contenus problématiques.
Les mesures de sécurité de la plateforme comprennent :
Cependant, ces mesures de protection ne sont pas infaillibles. Les chercheurs ont démontré que des méthodes telles que le jailbreak « SneakyPrompt » peuvent contourner ces défenses.
« Notre travail montre essentiellement que les garde-fous existants sont insuffisants. Un attaquant peut en fait perturber légèrement l'invite afin que les filtres de sécurité ne la filtrent pas et orienter le modèle texte-image vers la génération d'une image nuisible. »
– Neil Zhenqiang Gong, professeur adjoint à l’Université Duke
OpenAI a répondu rapidement à ces défis, en mettant à jour le système pour bloquer les tentatives de contournement.
« La sécurité est notre priorité et nous adoptons une approche à plusieurs volets. Dans le modèle DALL-E 3 sous-jacent, nous avons travaillé pour filtrer le contenu le plus explicite de ses données de formation, y compris le contenu sexuel et violent, et avons développé des classificateurs d'images robustes qui empêchent le modèle de générer des images nuisibles. Nous avons également mis en œuvre des mesures de protection supplémentaires pour nos produits, ChatGPT et l'API DALL-E, notamment en refusant les demandes qui demandent le nom d'une personnalité publique. Nous identifions et refusons les messages qui enfreignent nos politiques et filtrons toutes les images générées avant qu'elles ne soient montrées à l'utilisateur. Nous utilisons des équipes d'experts externes pour tester les abus et renforcer nos mesures de protection. »
Si certains utilisateurs ont critiqué ces restrictions, qui limitent la liberté artistique, OpenAI reste concentré sur une utilisation responsable de l'IA. Ces mesures de sécurité démontrent un engagement clair en faveur d'un déploiement éthique, qui sera encore plus contrasté dans la prochaine comparaison de plateformes.
Midjourney a mis en place des règles strictes de modération du contenu pour garantir que sa plateforme reste Safe For Work (SFW). Cela est rendu possible grâce à un mélange d'outils automatisés et de surveillance menée par la communauté.
La plateforme utilise plusieurs mesures de sécurité, notamment algorithmes avancés pour détecter les invites problématiques, blocage automatique des saisies de texte et d'images inappropriées, modérateurs de la communauté qui examinent le contenu signalé, et un système de signalement des utilisateurs pour remédier aux violations.
Midjourney suit une politique PG-13, qui interdit la création de contenu NSFW tel que la nudité, les images sexuelles et le matériel fétichiste. Le non-respect de ces règles peut entraîner une interdiction temporaire ou permanente du compte. La plateforme explique :
« Midjourney est une communauté ouverte par défaut. Pour que la plateforme reste accessible et accueillante pour le plus grand nombre d'utilisateurs, le contenu doit être « Safe For Work » (SFW). »
Cependant, maintenir cet équilibre n'est pas sans poser de problèmes. Certains utilisateurs et artistes ont exprimé leurs inquiétudes quant aux restrictions imposées par la plateforme. L'artiste et auteur Tim Boucher met en évidence un problème clé :
« Si l'utilisateur est un adulte consentant, le problème est réduit. En revanche, en tant que professionnel de la confiance et de la sécurité, votre système ne devrait pas créer de nus lorsque les gens ne le demandent pas... D'autant plus que vos règles interdisent officiellement les nus. Et lorsque les utilisateurs le demandent directement, ils peuvent être purement et simplement bannis du service. Il y a ici un décalage majeur. »
Midjourney fait face à des obstacles tels que filtres trop stricts qui bloquent parfois des contenus inoffensifs, la création accidentelle de contenu inapproprié malgré les mesures de protection, et les utilisateurs trouvant des moyens de contourner les restrictions avec des mots-clés alternatifs.
Pour remédier à ces problèmes, la plateforme met régulièrement à jour ses systèmes pour bloquer les solutions de contournement et s'appuie sur une modération communautaire active. Cela positionne Midjourney comme un terrain d'entente entre des plateformes plus indulgentes comme Grok-2 et des alternatives très restrictives.
Les fonctionnalités de sécurité diffèrent considérablement selon les principales plateformes de génération d'images d'IA, notamment en ce qui concerne l'efficacité avec laquelle elles empêchent les contenus trompeurs ou nuisibles. NewsGuardLes tests de mettent en évidence ces différences :
Plateforme | Taux de génération de faux contenu | Restrictions de contenu | Filigrane | Principales caractéristiques de sécurité |
---|---|---|---|---|
Grok-2 | 80% | Un petit peu | Aucune | Manque de mesures de sécurité claires |
À mi-parcours | 45% | Strict | Oui | Modération pilotée par l'IA, surveillance communautaire |
DALL-E3 | 10% | Très stricte | Oui | Filtrage avancé des invites, protections intégrées |
La manière dont chaque plateforme gère la sécurité est façonnée par sa conception technique. DALL-E 3 se distingue comme la plus restrictive, s'appuyant sur ChatGPT et GPT-4 pour mieux interpréter et bloquer les messages problématiques. Par exemple, lorsque les utilisateurs demandent du contenu impliquant des personnalités publiques ou des sujets sensibles, le système génère souvent des alternatives neutres à la place.
Rob Rosenberg, consultant juridique chez Stratégies juridiques de Telluride, met en évidence un problème clé avec Grok-2 :
« Contrairement à d’autres plateformes qui étiquettent leurs images générées par l’IA avec un filigrane qui les identifie comme telles, Grok n’étiquette pas ses résultats d’image d’une manière qui pourrait donner des indices aux clients en aval quant à leur origine. Cela expose ces clients en aval au risque d’être induits en erreur – en interprétant à tort ces images comme authentiques et non comme des deepfakes. »
Les mesures de sécurité reflètent les priorités et la philosophie de chaque plateforme :
Ces différences mettent en évidence l’équilibre à trouver entre la promotion de la liberté créative et l’utilisation responsable de l’IA. Si Grok-2 privilégie la réduction des restrictions au nom de la liberté d’expression, cette approche suscite des inquiétudes quant à l’utilisation abusive potentielle de ses outils et aux risques juridiques liés à la génération d’images controversées.
Notre analyse de la modération des plateformes met en évidence des différences claires qui affectent à la fois la facilité d'utilisation et l'exposition aux risques juridiques. Pour les utilisateurs qui privilégient une surveillance stricte, À mi-parcours offre un environnement plus contrôlé avec des mesures de sécurité détaillées. D'autre part, Grok-2 offre plus de liberté mais exige des utilisateurs des précautions supplémentaires.
Case Study | Plateforme recommandée | Considérations clés |
---|---|---|
Génération d'images responsable | À mi-parcours | Des outils de modération puissants avec des mesures de protection adaptées au contexte |
Génération sans restriction | Grok-2 | Modération limitée ; permet des possibilités créatives plus larges |
Ces résultats soulignent l’importance des stratégies organisationnelles pour gérer le contenu généré par l’IA. Sur la base de ces comparaisons, les organisations devraient envisager les étapes suivantes :
Matt Hasan, fondateur et PDG de AIRRESULTS, souligne l’importance de la surveillance :
« L’absence de mécanismes de surveillance solides signifie que des contenus préjudiciables ou contraires à l’éthique pourraient proliférer sans contrôle. Pour atténuer ces problèmes, il est essentiel de mettre en œuvre des politiques de modération de contenu strictes, de développer des outils de détection avancés pour identifier les images manipulées et d’établir des cadres juridiques clairs pour les contenus générés par l’IA. En outre, favoriser la transparence dans le développement de l’IA et encourager l’élaboration de normes à l’échelle de l’industrie peut contribuer à garantir que ces technologies sont utilisées de manière responsable et éthique. »
Pour les créateurs indépendants et les petites équipes, Grok-2La flexibilité peut être attrayante, mais elle nécessite une vigilance accrue et une surveillance attentive.