Weder die USA lassen Krokodile frei, um die Migration zu stoppen, noch hat der Louvre Feuer gefangen: So erkennen Sie, ob ein Bild mit KI erstellt wurde | Technologie

Weder die USA lassen Krokodile frei, um die Migration zu stoppen, noch hat der Louvre Feuer gefangen: So erkennen Sie, ob ein Bild mit KI erstellt wurde | Technologie
Weder die USA lassen Krokodile frei, um die Migration zu stoppen, noch hat der Louvre Feuer gefangen: So erkennen Sie, ob ein Bild mit KI erstellt wurde | Technologie
-

Weder haben die Vereinigten Staaten „8.000 Krokodile in den Rio Grande entlassen“, um die Überfahrt von Migranten zu verhindern, noch ist die Pyramide des Louvre-Museums niedergebrannt. Sie haben auch diesen riesigen Oktopus am Ufer eines Strandes, Big Foot oder das Ungeheuer von Loch Ness nicht gefunden. All diese Fehlinformationen stammen aus Bildern, die mit künstlicher Intelligenz erstellt wurden. Während Technologieunternehmen wie Google, Meta und OpenAI versuchen, von KI erstellte Inhalte zu erkennen und manipulationssichere Wasserzeichen zu erstellen, stehen Benutzer vor einer schwierigen Herausforderung: zu erkennen, ob die in sozialen Netzwerken verbreiteten Bilder echt sind oder nicht. Obwohl es manchmal mit bloßem Auge möglich ist, gibt es Tools, die in komplexeren Fällen hilfreich sein können.

Die Generierung von Bildern mit künstlicher Intelligenz wird immer einfacher. „Heute kann jeder ohne technische Kenntnisse einen Satz auf einer Plattform wie DALL-E, Firefly, Midjourney oder einem anderen nachrichtenbasierten Modell eingeben und einen hyperrealistischen digitalen Inhalt erstellen“, sagt Jeffrey McGregor, CEO von Truepic. eines der Gründungsunternehmen der Coalition for Content Provenance and Authenticity (C2PA), die einen Standard schaffen möchte, der die Überprüfung der Authentizität und Herkunft digitaler Inhalte ermöglicht. Einige Dienste sind kostenlos und für andere ist nicht einmal ein Konto erforderlich.

„KI kann unglaublich realistische Bilder von Menschen oder Ereignissen erstellen, die nie stattgefunden haben“, sagt Neal Krawetz, Gründer von Hacker Factor Solutions und FotoForensics, einem Tool zur Überprüfung, ob ein Bild möglicherweise manipuliert wurde. Im Jahr 2023 ging beispielsweise ein Bild von Papst Franziskus in einem Balenciaga-Daunenmantel und anderen Bildern des ehemaligen Präsidenten der Vereinigten Staaten, Donald Trump, auf der Flucht vor der Polizei, um einer Verhaftung zu entgehen, viral. Krawetz betont, dass diese Art von Bildern dazu verwendet werden kann, Meinungen zu beeinflussen, den Ruf einer Person zu schädigen, Fehlinformationen zu erzeugen und einen falschen Kontext zu realen Situationen bereitzustellen. Auf diese Weise „können sie das Vertrauen in ansonsten zuverlässige Quellen untergraben.“

KI-Tools können auch dazu verwendet werden, Menschen in sexuell kompromittierenden Positionen, bei der Begehung von Straftaten oder in Begleitung von Kriminellen fälschlicherweise darzustellen, wie VS Subrahmanian, Informatikprofessor an der Northwestern University, feststellt. Letztes Jahr berichteten Dutzende Minderjährige aus Extremadura, dass gefälschte, von KI erstellte Nacktfotos von ihnen im Umlauf seien. „Diese Bilder können dazu verwendet werden, das Leben von Anführern und einfachen Bürgern zu erpressen, zu erpressen und zu zerstören“, sagt Subrahmanian.

Und nicht nur das. KI-generierte Bilder können eine ernsthafte Bedrohung für die nationale Sicherheit darstellen: „Sie können dazu verwendet werden, die Bevölkerung eines Landes zu spalten, indem eine ethnische, religiöse oder rassische Gruppe gegen eine andere ausgespielt wird, was zu langfristigen Unruhen und politischen Unruhen führen könnte.“ . Josep Albors, Direktor für Forschung und Sensibilisierung beim Computersicherheitsunternehmen ESET in Spanien, erklärt, dass viele Hoaxes auf dieser Art von Bildern basieren, um Kontroversen zu erzeugen und Reaktionen hervorzurufen. „In einem Wahljahr kann dies in vielen Ländern den Ausschlag für die eine oder andere Seite geben“, sagt er.

Tricks zur Erkennung von mit KI generierten Bildern

Experten wie Albors raten dazu, gegenüber allem in der Online-Welt misstrauisch zu sein. „Wir müssen lernen, damit zu leben, dass es das gibt, dass KI parallele Realitäten erzeugt, und das einfach im Hinterkopf behalten, wenn wir Inhalte erhalten oder etwas in sozialen Netzwerken sehen“, sagt Tamoa Calzadilla, Chefredakteurin von Factchequeado. eine Initiative von Maldita.es und Chequeado zur Bekämpfung von Fehlinformationen auf Spanisch in den Vereinigten Staaten. Zu wissen, dass ein Bild möglicherweise von KI erzeugt wurde, „ist ein großer Schritt, um sich nicht täuschen zu lassen und Fehlinformationen weiterzugeben.“

Einige Bilder dieser Art lassen sich leicht erkennen, indem man sich nur Details der Hände, Augen oder Gesichter ansieht, wie Jonnathan Pulla, Faktenprüfer bei Factchequeado, sagt. Dies ist der Fall bei einem mit KI erstellten Bild von Präsident Joe Biden in Militäruniform: „Man kann es an den unterschiedlichen Hauttönen in seinem Gesicht, den Telefonkabeln, die nirgendwo hinführen, und der Stirn eines unverhältnismäßig großen Todes von einem von ihnen erkennen.“ die Soldaten, die auf dem Bild erscheinen.“

Als Beispiel nennt er auch einige manipulierte Bilder des Schauspielers Tom Hanks, der mit T-Shirts mit Botschaften für oder gegen die Wiederwahl von Donald Trump posiert. “Das [Hanks] hat die gleiche Pose und ändert nur den Text auf dem T-Shirt, dass seine Haut sehr glatt ist und seine unregelmäßige Nase darauf hindeutet, dass sie möglicherweise mit digitalen Werkzeugen wie künstlicher Intelligenz erstellt wurden“, erklären die Prüfer von Maldita.es dazu Bilder, die Anfang 2024 viral gingen.

Viele von KI generierte Bilder können von einem geschulten Benutzer mit bloßem Auge identifiziert werden, insbesondere solche, die mit kostenlosen Tools erstellt wurden, so Albors: „Wenn wir uns die Farben ansehen, werden wir oft bemerken, dass sie nicht natürlich sind, dass alles so aussieht Plastilin und dass sogar einige Bestandteile dieser Bilder miteinander verschmelzen, etwa die Haare im Gesicht oder verschiedene Kleidungsstücke miteinander.“ Handelt es sich bei dem Bild um eine Person, empfiehlt der Experte, auch zu prüfen, ob an den Extremitäten etwas Ungewöhnliches vorliegt.

Während Imager der ersten Generation „einfache Fehler“ machten, haben sie sich im Laufe der Zeit deutlich verbessert. Dies wird von Subrahmanian angedeutet, der hervorhebt, dass sie früher häufig Menschen mit sechs Fingern und unnatürlichen Schatten darstellten. Sie stellten auch Straßen- und Ladenschilder falsch dar, was zu „absurden Rechtschreibfehlern“ führte. „Heute hat die Technologie diese Mängel weitgehend überwunden“, sagt er.

Tools zur Identifizierung gefälschter Bilder

Das Problem besteht darin, dass „ein durch KI erzeugtes Bild für viele Menschen bereits praktisch nicht mehr von einem echten zu unterscheiden ist“, wie Albors betont. Es gibt Tools, die dabei helfen können, diese Art von Bildern zu identifizieren, wie z. B. AI or NOT, Sensity, FotoForensics oder Hive Moderation. OpenAI entwickelt außerdem ein eigenes Tool zur Erkennung von Inhalten, die von seinem Bildgenerator DALL-E erstellt wurden, wie am 7. Mai in einer Erklärung angekündigt.

Solche Tools sind laut Pulla als Ergänzung zur Beobachtung nützlich, „da sie manchmal nicht sehr präzise sind oder einige von der KI erzeugte Bilder nicht erkennen.“ Factchequeado-Prüfer nutzen in der Regel Hive Moderation und FotoForensics. Beide sind kostenlos nutzbar und funktionieren ähnlich: Der Nutzer lädt ein Foto hoch und fordert die Prüfung an. Während Hive Moderation einen Prozentsatz dafür angibt, wie wahrscheinlich es ist, dass der Inhalt von KI generiert wurde, sind die Ergebnisse von FotoForensics für jemanden ohne Vorkenntnisse schwieriger zu interpretieren.

Durch das Hochladen des Bildes der Krokodile, die angeblich von den USA an den Rio Grande geschickt wurden, um die Überfahrt von Migranten zu verhindern, des Papstes mit dem Balenciaga-Mantel oder eines satanischen McDonald’s-Happy-Essens gibt Hive Moderation eine 99,9%ige Bewertung. Es besteht die Möglichkeit, dass beide von der KI erzeugt wurden. Allerdings deutet das manipulierte Foto von Kate Middleton, Prinzessin von Wales, darauf hin, dass die Wahrscheinlichkeit bei 0 % liegt. In diesem Fall fand Pulla Fotoforensics und Invid nützlich, die „bestimmte veränderte Details in einem Bild zeigen können, die nicht sichtbar sind“.

Die Ergebnisse des Hive-Moderationstools mit dem Bild der angeblich von den USA freigelassenen Krokodile.Faktencheck / Maldita.es.

Aber warum ist es so schwierig zu wissen, ob ein Bild mit künstlicher Intelligenz erstellt wurde? Die größte Einschränkung solcher Tools besteht laut Subrahmanian darin, dass es ihnen an Kontext und Vorwissen mangelt. „Menschen nutzen ständig ihren gesunden Menschenverstand, um echte Behauptungen von falschen zu unterscheiden, aber maschinelle Lernalgorithmen zur Erkennung von Deepfake-Bildern haben in dieser Hinsicht kaum Fortschritte gemacht“, sagt er. Der Experte geht davon aus, dass es immer unwahrscheinlicher wird, mit hundertprozentiger Sicherheit zu wissen, ob ein Foto echt ist oder von KI erstellt wurde.

Selbst wenn ein Erkennungstool in 99 % der Fälle genau feststellen würde, ob Inhalte von KI generiert wurden oder nicht, „ist diese Lücke von 1 % im Internetmaßstab riesig.“ In nur einem Jahr hat die KI 15 Milliarden Bilder generiert. Dies geht aus einem Bericht des Everypixel Journal hervor, der hervorhebt, dass „KI bereits so viele Bilder erstellt hat, wie Fotografen in 150 Jahren aufgenommen haben.“ „Wenn es nur eines überzeugend erfundenen Bildes bedarf, um das Vertrauen zu zerstören, sind 150 Millionen unentdeckte Bilder eine ziemlich beunruhigende Zahl“, sagt McGregor.

Abgesehen von manipulierten Pixeln ist es laut McGregor auch nahezu unmöglich, nach der Erstellung festzustellen, ob die Metadaten eines Bildes – Zeit, Datum und Ort – korrekt sind. Der Experte ist davon überzeugt, dass „die Herkunft digitaler Inhalte, bei der Bilder mithilfe von Kryptographie markiert werden, für Nutzer in Zukunft die beste Möglichkeit sein wird, zu erkennen, welche Bilder original sind und nicht verändert wurden.“ Sein Unternehmen Truepic hat nach eigenen Angaben mit diesen Marken den weltweit ersten transparenten Deepfake auf den Markt gebracht – mit Angaben zur Herkunft.

Ein Bild, das mit Informationen über seine Herkunft gekennzeichnet ist.Wahres Bild.

Bis zur flächendeckenden Umsetzung dieser Systeme ist eine kritische Haltung der Anwender unabdingbar. In einem von Factchequeado mit Unterstützung des Reynolds Institute of Journalism erstellten Leitfaden finden sich 17 Instrumente zur Bekämpfung von Desinformation. Darunter gibt es mehrere zur Überprüfung von Fotos und Videos. Der Schlüssel liegt laut Calzadilla darin, sich darüber im Klaren zu sein, dass keines davon unfehlbar und zu 100 % zuverlässig ist. Um festzustellen, ob ein Bild mit KI erstellt wurde, reicht ein einziges Tool daher nicht aus: „Die Überprüfung erfolgt mithilfe mehrerer Techniken: Beobachtung, Einsatz von Tools und die klassischen Techniken des Journalismus.“ Das heißt, kontaktieren Sie die Originalquelle, überprüfen Sie deren soziale Netzwerke und überprüfen Sie, ob die ihnen zugeschriebenen Informationen wahr sind.“

Du kannst Folgen EL PAÍS-Technologie In Facebook Und X oder melden Sie sich hier an, um unsere zu erhalten wöchentlicher Newsletter.

-

PREV Die Soundbar Samsung HW-Q990C für knapp über 550 Euro und die HW-S800B für knapp über 200 Euro
NEXT Microsoft senkt seinen Xbox Elite Series 2-Controller und sein „Basis“-Modell