Allgemein

Georgi Miloradowitsch
Forscher, Texter und Usecase-Interviewer
25. Februar 2025
Grok-2 ist ein KI-Bildgenerator mit weniger Einschränkungen für NSFW-Inhalte (Not Safe For Work) im Vergleich zu Konkurrenten wie DALL-E und Zwischendurch. Diese Nachsicht hat Bedenken hinsichtlich möglichen Missbrauchs, rechtlicher Risiken und ethischer Probleme ausgelöst. Hier ist eine kurze Aufschlüsselung:
Plattform | NSFW-Filterung | Watermarking | Urheberrechtsschutz | Deepfake-Prävention |
---|---|---|---|---|
Grok-2 | minimal | Keine | Limitiert | Keine |
DALL-E | Sehr streng | Ja | Strong Pilates | Ja |
Zwischendurch | Streng (PG-13-Richtlinie) | Ja | Konservativ | Ja |
Grok-2 bietet zwar mehr kreative Freiheit, aber sein Mangel an Sicherheitsvorkehrungen gibt Anlass zu ernsthaften Bedenken. Für sicherere und kontrolliertere Ergebnisse sind DALL-E und Midjourney die bessere Wahl.
Grok-2 geht bei der Inhaltsmoderation einen anderen Weg. Obwohl behauptet wird, pornografische, übermäßig gewalttätige oder irreführende Bilder sowie Urheberrechtsverletzungen zu vermeiden, scheinen diese Regeln nur lax angewendet zu werden. Mehrere operative Mängel fallen auf:
Diese Lücken haben bereits die Aufmerksamkeit von Rechts- und Politikexperten auf sich gezogen.
„Grok und Gemini sind zwei KI-Bildgeneratoren, die umstrittene Bilder erzeugen, aber aus den falschen Gründen. Beide Generatoren können verwendet werden, um falsche und irreführende Bilder zu erstellen, Gemini wegen zu viel Filterung und Grok wegen zu wenig Filterung.“
„Das ist eine der rücksichtslosesten und verantwortungslosesten KI-Implementierungen, die ich je gesehen habe“
Trotz der Verfügbarkeit automatisierter Klassifizierungs- und Sicherheitstools bleiben die Maßnahmen von Grok-2 hinter den Erwartungen der Branche zurück. Dies wirft ernsthafte rechtliche und ethische Fragen über den Ansatz der Plattform zur Verwaltung von Inhalten auf.
OpenAIDALL-E von verwendet ein mehrschichtiges Sicherheitssystem, um die Erstellung unangemessener Bilder zu minimieren. Dieser Ansatz basiert auf fortschrittlichen Filtertechniken, um problematische Inhalte effektiv zu blockieren.
Zu den Sicherheitsmaßnahmen der Plattform gehören:
Allerdings sind diese Sicherheitsvorkehrungen nicht absolut sicher. Forscher haben nachgewiesen, dass Methoden wie der Jailbreak „SneakyPrompt“ diese Abwehrmaßnahmen umgehen können.
„Unsere Arbeit zeigt im Wesentlichen, dass diese vorhandenen Leitplanken unzureichend sind. Ein Angreifer kann die Eingabeaufforderung tatsächlich leicht stören, sodass die Sicherheitsfilter sie nicht filtern und das Text-zu-Bild-Modell dazu veranlassen, ein schädliches Bild zu erzeugen.“
– Neil Zhenqiang Gong, Assistenzprofessor an der Duke University
OpenAI hat schnell auf solche Herausforderungen reagiert und das System aktualisiert, um Bypass-Versuche zu blockieren.
„Sicherheit hat für uns oberste Priorität und wir verfolgen einen mehrgleisigen Ansatz. Im zugrunde liegenden DALL-E 3-Modell haben wir daran gearbeitet, die explizitesten Inhalte aus den Trainingsdaten herauszufiltern, darunter auch grafische sexuelle und gewalttätige Inhalte, und wir haben robuste Bildklassifizierer entwickelt, die das Modell davon abhalten, schädliche Bilder zu generieren. Wir haben außerdem zusätzliche Sicherheitsvorkehrungen für unsere Produkte, ChatGPT und die DALL-E-API, implementiert – darunter die Ablehnung von Anfragen, in denen nach einer Persönlichkeit des öffentlichen Lebens mit Namen gefragt wird. Wir identifizieren und lehnen Nachrichten ab, die gegen unsere Richtlinien verstoßen, und filtern alle generierten Bilder, bevor sie dem Benutzer angezeigt werden. Wir nutzen externe Experten, um auf Missbrauch zu testen und unsere Sicherheitsvorkehrungen zu stärken.“
Während einige Benutzer diese Einschränkungen als Einschränkung der künstlerischen Freiheit kritisiert haben, liegt der Fokus von OpenAI weiterhin auf einem verantwortungsvollen Einsatz von KI. Diese Sicherheitsmaßnahmen zeigen ein klares Bekenntnis zu einem ethischen Einsatz, der im kommenden Plattformvergleich noch weiter vertieft wird.
Midjourney hat strenge Regeln zur Inhaltsmoderation eingeführt, um sicherzustellen, dass seine Plattform Safe For Work (SFW) bleibt. Dies wird durch eine Kombination aus automatisierten Tools und von der Community geleiteter Überwachung erreicht.
Die Plattform verwendet mehrere Sicherheitsmaßnahmen, darunter fortgeschrittene Algorithmen um problematische Eingabeaufforderungen zu erkennen, automatische Blockierung von ungeeigneten Text- und Bildeingaben, Community-Moderatoren die gekennzeichnete Inhalte überprüfen, und Benutzermeldesystem um Verstöße zu beheben.
Midjourney folgt einer PG-13-Richtlinie, die die Erstellung von NSFW-Inhalten wie Nacktheit, sexuellen Bildern und Fetischmaterial verbietet. Verstöße gegen diese Regeln können zu vorübergehenden oder dauerhaften Kontosperrungen führen. Die Plattform erklärt:
„Midjourney ist eine standardmäßig offene Community. Um die Plattform für eine möglichst große Zahl von Benutzern zugänglich und einladend zu halten, müssen die Inhalte ‚Safe For Work‘ (SFW) sein.“
Dieses Gleichgewicht zu wahren, ist jedoch mit Herausforderungen verbunden. Einige Benutzer und Künstler haben Bedenken hinsichtlich der Einschränkungen der Plattform geäußert. Der KI-Künstler und Autor Tim Boucher hebt ein zentrales Problem hervor:
"Wenn der Benutzer ein einwilligender Erwachsener ist, ist das Problem geringer. Andererseits sollte Ihr System als Vertrauens- und Sicherheitsexperte keine Nacktbilder erstellen, wenn die Leute nicht danach fragen ... Vor allem, da Ihre Regeln Nacktbilder offiziell verbieten. Und wenn Benutzer direkt danach fragen, kann ihnen die Nutzung des Dienstes direkt untersagt werden. Hier besteht eine große Diskrepanz."
Auf der Reise stehen uns Hindernisse bevor wie zu strenge Filter die manchmal harmlose Inhalte blockieren, die versehentliche Erstellung unangemessener Inhalte trotz Sicherheitsvorkehrungen und die Tatsache, dass Benutzer Wege finden, die Beschränkungen mit alternativen Schlüsselwörtern zu umgehen.
Um diese Probleme zu beheben, aktualisiert die Plattform ihre Systeme regelmäßig, um Workarounds zu blockieren, und verlässt sich auf eine aktive Community-Moderation. Dies positioniert Midjourney als Mittelweg zwischen nachsichtigeren Plattformen wie Grok-2 und stark restriktiven Alternativen.
Die Sicherheitsfunktionen führender Plattformen zur KI-Bildgenerierung unterscheiden sich erheblich, insbesondere hinsichtlich ihrer Wirksamkeit beim Verhindern irreführender oder schädlicher Inhalte. NewsGuardDie Tests von heben diese Unterschiede hervor:
Plattform | Rate der Generierung falscher Inhalte | Inhaltsbeschränkungen | Watermarking | Primäre Sicherheitsfunktionen |
---|---|---|---|---|
Grok-2 | 80% | minimal | Keine | Es fehlen klare Sicherheitsmaßnahmen |
Zwischendurch | 45% | Streng | Ja | KI-gesteuerte Moderation, Community-Überwachung |
DALL-E3 | 10% | Sehr streng | Ja | Erweiterte Eingabeaufforderungsfilterung, integrierte Sicherheitsvorkehrungen |
Die Art und Weise, wie jede Plattform mit der Sicherheit umgeht, wird durch ihr technisches Design bestimmt. DALL-E 3 sticht als die restriktivste Plattform hervor, die ChatGPT und GPT-4 nutzt, um problematische Eingabeaufforderungen besser zu interpretieren und zu blockieren. Wenn Benutzer beispielsweise Inhalte anfordern, die Persönlichkeiten des öffentlichen Lebens oder sensible Themen betreffen, generiert das System stattdessen häufig neutrale Alternativen.
Rob Rosenberg, Rechtsberater bei Telluride Rechtsstrategienhebt ein zentrales Problem mit Grok-2 hervor:
„Im Gegensatz zu anderen Plattformen, die ihre KI-generierten Bilder mit einem Wasserzeichen versehen, das sie als solche identifiziert, markiert Grok seine Bildergebnisse nicht auf eine Weise, die nachgelagerten Kunden Hinweise auf deren Herkunft geben würde. Dies setzt diese nachgelagerten Kunden der Gefahr aus, in die Irre geführt zu werden – sie interpretieren solche Bilder fälschlicherweise als echt und nicht als Deepfake.“
Die Sicherheitsmaßnahmen spiegeln die Prioritäten und die Philosophie jeder Plattform wider:
Diese Unterschiede unterstreichen die anhaltende Balance zwischen der Förderung kreativer Freiheit und der Gewährleistung eines verantwortungsvollen Einsatzes von KI. Während Grok-2 im Namen der freien Meinungsäußerung weniger Einschränkungen priorisiert, weckt dieser Ansatz Bedenken hinsichtlich des potenziellen Missbrauchs seiner Tools und der rechtlichen Risiken, die mit der Erstellung kontroverser Bilder verbunden sind.
Unsere Analyse der Plattformmoderation zeigt deutliche Unterschiede auf, die sich sowohl auf die Benutzerfreundlichkeit als auch auf die rechtlichen Aspekte auswirken. Für Benutzer, die eine strenge Überwachung priorisieren, Zwischendurch bietet eine kontrollierte Umgebung mit detaillierten Sicherheitsmaßnahmen. Andererseits Grok-2 bietet mehr Freiheit, erfordert vom Benutzer jedoch zusätzliche Vorsichtsmaßnahmen.
Luftüberwachung | Empfohlene Plattform | Wichtige Überlegungen |
---|---|---|
Verantwortungsvolle Bildgenerierung | Zwischendurch | Leistungsstarke Moderationstools mit kontextabhängigen Schutzmechanismen |
Uneingeschränkte Generierung | Grok-2 | Begrenzte Moderation; ermöglicht breitere kreative Möglichkeiten |
Diese Ergebnisse unterstreichen die Bedeutung organisatorischer Strategien für die Verwaltung von KI-generierten Inhalten. Basierend auf diesen Vergleichen sollten Unternehmen die folgenden Schritte in Betracht ziehen:
Matt Hasan, Gründer und CEO von aiRESULTATEbetont, wie wichtig die Aufsicht ist:
„Das Fehlen robuster Kontrollmechanismen bedeutet, dass sich schädliche oder unethische Inhalte ungehindert verbreiten können. Um diese Probleme einzudämmen, sind die Umsetzung strenger Richtlinien zur Inhaltsmoderation, die Entwicklung fortschrittlicher Erkennungstools zur Identifizierung manipulierter Bilder und die Schaffung klarer rechtlicher Rahmenbedingungen für KI-generierte Inhalte entscheidende Schritte. Auch die Förderung der Transparenz bei der KI-Entwicklung und die Förderung branchenweiter Standards können dazu beitragen, dass solche Technologien verantwortungsbewusst und ethisch eingesetzt werden.“
Für unabhängige Entwickler und kleine Teams, Grok-2Die Flexibilität von kann ansprechend sein, erfordert jedoch erhöhte Aufmerksamkeit und sorgfältige Überwachung.