Die Macher von ChatGPT starten einen Detektor, um „Deepfakes“ zu erkennen und Fehlinformationen zu bekämpfen

Die Macher von ChatGPT starten einen Detektor, um „Deepfakes“ zu erkennen und Fehlinformationen zu bekämpfen
Die Macher von ChatGPT starten einen Detektor, um „Deepfakes“ zu erkennen und Fehlinformationen zu bekämpfen
-

Seit Jahren werden Menschen vor der Gefahr generativer künstlicher Intelligenz und ihrer Fähigkeit, Desinformation zu erzeugen, gewarnt. Jetzt klopft der Wolf an die Tür und stellt fest, dass die Technologiebranche keine Werkzeuge hat, um mit dieser Situation umzugehen. OpenAI öffnet bereits den Zugriff auf seine Software, um Inhalte zu erkennen, die von seinem beliebten Bildgenerator DALL-E erstellt wurden. Dieses Tool befindet sich noch in der Testphase kann 98,8 % der von diesem Generator erstellten Bilder korrekt identifizieren.

Berichten zufolge wird das Unternehmen von Sam Altman seinen Fälschungsdetektor mit einer kleinen Gruppe von Forschern teilen, die sich auf Online-Fehlinformationen konzentrieren, um das Tool in der realen Welt zu testen Die New York Times. Dieses Entwicklerteam wird ermitteln, wo das System verbessert werden sollte, um genauer zu sein. Da es jedoch auf Wahrscheinlichkeiten basiert, wird es nie ganz genau sein.

Sowohl in den Vereinigten Staaten als auch in anderen Regionen der Welt, einschließlich der Europäischen Union und Spanien, finden in diesem Jahr zahlreiche Wahlprozesse statt, die besonders anfällig für die massive und hyperrealistische Desinformation sind, die durch neue KIs erzeugt wird. Daher haben sich die wichtigsten Technologieunternehmen, die an diesem Wettlauf beteiligt sind, dazu verpflichtet, Detektoren für von Maschinen erstellte Inhalte anzubieten.

Bild des DALL-E-Detektors

OpenAI

Omikron

Sam Altmans Unternehmen Es ist nur in der Lage, Zeichnungen oder Bilder zu erkennen, die von der eigenen KI generiert wurden. Es wäre daher nicht mit Inhalten kompatibel, die von anderen Tools wie Midjourney oder Stability erstellt wurden.

Zu den Vorschlägen, die in den letzten Monaten aufgetaucht sind, gehört Adobe, das zusammen mit Unternehmen wie Microsoft (ebenfalls Partner von OpenAI) eine Marke eingeführt hat, die universell sein soll, um alle künstlich erstellten Bilder zu identifizieren. Diese Markierung würde in die Metadaten integriert, um eine Änderung zu erschweren.

Symbol für Anmeldeinformationen

Inhaltliche Anmeldeinformationen

Omikron

OpenAI plant auch die Integration Digitale Referenzen der Coalition for Content Provenance and Authenticity (C2PA). in Bildern, die Dall-E dieses Jahr erstellt hat. Derzeit arbeiten auch Microsoft, Amazon, Adobe und Getty mit C2PA zusammen, um Fehlinformationen zu bekämpfen.

OpenAI hat bereits versucht, einen Test zu entwickeln, um von seinem Chatbot ChatGPT erstellte Texte zu erkennen. Das Projekt wurde jedoch eingestellt, da es unzuverlässige Ergebnisse lieferte. Neben Text und Fotos verfügt OpenAI auch über Sora, einen Videogenerator, der mit seinem Realismus alle überrascht hat.

Sam Altman, Mitbegründer von OpenAI.

Reuters | Mariia Schalabajewa

Omikron

Parallel zu den bereits erstellten Inhaltsdetektoren legen verschiedene Unternehmen Beschränkungen für den Einsatz ihrer Tools fest, um die Verbreitung falscher Bilder zu verhindern, die echte Personen, vor allem berühmte Personen, gefährden. Allerdings haben Anwender mehrfach bewiesen, dass es möglich ist, diese Sperre zu umgehen.

-

PREV Wissenschaftler entdecken Spionagesatelliten, der 25 Jahre lang vermisst wurde
NEXT In Night City kann man Half-Life 3 spielen