Google hat sein Verbot von Anzeigen mit sexuell eindeutigen Inhalten auf Dienste ausgeweitet, die die Erstellung von durch künstliche Intelligenz generierten Nacktbildern ermöglichen. Eine strengere Haltung, die ab dem 30. Mai in Kraft tritt und mit der der amerikanische Technologieriese versucht, ein sicheres und respektvolles digitales Umfeld aufrechtzuerhalten.
Darüber hinaus ist die Entscheidung eine Reaktion auf die wachsende Besorgnis über nicht einvernehmliche Deepfake-Pornografie, ein Problem, das in den letzten Jahren alarmierend zugenommen hat. Erinnern wir uns an diese Art von Inhalten nutzt KI, um sexuell eindeutige Bilder von Menschen ohne deren Erlaubnis zu erstellen oder zu verändernwie es bei Stars vom Format Taylor Swift passiert ist.
Im Jahr 2023 Google hat mehr als 1,8 Milliarden Anzeigen wegen Verstößen gegen seine Richtlinien zu sexuellen Inhalten entfernt, so der jährliche Werbesicherheitsbericht des Unternehmens. Eine Tatsache, die verdeutlicht, wie groß die Herausforderung ist, vor der dieses Unternehmen im Kampf gegen unangemessene Inhalte steht, und wie wichtig es ist, seine Richtlinien zu aktualisieren.
Das Unternehmen wird verwenden eine Kombination aus menschlichen Überprüfungen und automatisierten Systemen um diese Richtlinie durchzusetzen und sein Engagement für die Online-Sicherheit und den Schutz der Benutzer vor schädlichen Inhalten hervorzuheben.
Es ist wichtig klarzustellen, dass es sich hierbei um eine Aktualisierung der Richtlinie innerhalb von Google Ads handelt wird die Werbung für synthetische Inhalte ausdrücklich ausschließen die so verändert oder erstellt wurden, dass sie Nacktheit beinhalten oder sexueller Natur sind.
Laut Google-Sprecher Michael Aciman ist das Ziel „ausdrücklich verbieten Anzeigen für Dienste, die die Erstellung von Deepfake-Pornografie oder synthetischen Nacktheitsinhalten anbieten.“
Ebenso wurde der Verstoß gegen diese neuen Regeln als schweres Vergehen angesehen. „Wir nehmen Verstöße gegen diese Richtlinie sehr ernst und betrachten sie als schwerwiegend.„, warnten sie aus dem Unternehmen, in dem eine Null-Toleranz-Position gegenüber Straftätern herrscht.
Die Umsetzung dieser Regel verdeutlicht auch, wie einige Anwendungen die Erstellung von Deepfake-Pornografie erleichtern Zuvor war es ihnen gelungen, die Google-Beschränkungen zu umgehen. Zum Beispiel Face-Swapping-Anwendungen, die zwar im Google Play Store nicht als sexuell explizit beworben wurden, aber auf pornografischen Websites beworben wurden.
Diese Lücke in der Werbepolitik hatte die Verbreitung dieser Art von Anwendungen ermöglicht. was sogar ein rechtliches und moralisches Vakuum erzeugt hatte die Google nun schließen will.
Das Problem nicht einvernehmlicher Deepfake-Pornos nicht auf die digitale Ausbeutung von Erwachsenen beschränkt; Es hat auch Minderjährige betroffen. Zwei High-School-Schüler in Florida wurden im vergangenen Dezember verhaftet, weil sie angeblich KI-generierte Nacktfotos von Klassenkameraden erstellt hatten.
Außerdem ein 57-jähriger Mann aus Pittsburgh Er wurde kürzlich zu mehr als 14 Jahren Gefängnis verurteilt wegen des Besitzes von Material über sexuellen Kindesmissbrauch, das mit künstlicher Intelligenz erstellt wurde.
Angesichts der Ernsthaftigkeit dieses Problems erwägt der Kongress der Vereinigten Staaten gesetzgeberische Maßnahmen. Letzten Monat haben sowohl das Repräsentantenhaus als auch der Senat den DEFIANCE Act eingeführt. Damit würde ein Prozess etabliert, über den Opfer von „digitalen Fälschungen“ klagen könnten an diejenigen, die nicht einvernehmliche Deepfakes davon erstellen oder verbreiten.
Diese gesetzgeberischen Bemühungen zeigen zusammen mit der Initiative von Google wachsende Anerkennung und Maßnahmen gegen die Gefahren, die von der Deepfake-Technologie ausgehen bei unsachgemäßer Verwendung.
Darüber hinaus spiegelt es eine wachsende Besorgnis über die ethischen und sozialen Auswirkungen von Technologien der künstlichen Intelligenz wider. insbesondere im Hinblick auf die Erstellung und Verbreitung gefälschter Inhalte oder irreführend sind, die die Würde von Menschen beeinträchtigen könnten.