OpenAI führt neuen Deepfake-Detektor zur Bekämpfung von Desinformation ein

OpenAI führt neuen Deepfake-Detektor zur Bekämpfung von Desinformation ein
OpenAI führt neuen Deepfake-Detektor zur Bekämpfung von Desinformation ein
-

OpenAI arbeitet an neuen KI-Bilderkennungstools. Die anerkannten Start-up Künstliche Intelligenz hat ein neues Tool integriert, um zu erkennen, ob ein Bild mit seinem DALL-E-Bildgenerator erstellt wurde, und außerdem fortschrittliche Wasserzeichenmethoden eingeführt, um den von seinen Systemen generierten Inhalt deutlicher zu kennzeichnen.

In einem kürzlich erschienenen Artikel gab OpenAI bekannt, dass es mit der Entwicklung neuer Methoden begonnen hat, um Inhalte zu crawlen und zu überprüfen, ob sie von KI generiert wurden. Dazu gehört ein neuer Bilderkennungsklassifikator – der tatsächlich KI nutzt – um festzustellen, ob das Foto von KI erstellt wurde, sowie ein manipulationssicheres Wasserzeichen, das Inhalte wie Audio mit unsichtbaren Hinweisen kennzeichnen kann. Das Unternehmen geht davon aus, dass diese Wasserzeichen nur schwer zu entfernen sind.

OpenAI sagte, sein neuer Detektor könne 98,8 % der von DALL-E 3 erstellten Bilder korrekt identifizieren

OpenAI sagte, sein neuer Detektor könne 98,8 % der von DALL-E 3, der neuesten Version seines Imagers, erstellten Bilder korrekt identifizieren. Das Unternehmen sagte jedoch, dass das Tool nicht dafür konzipiert sei, Bilder zu erkennen, die von anderen gängigen Generatoren wie z. B. erzeugt wurden Mitten auf der Reise Und Stabilität.

Wie die Technologiegiganten Google und Meta wird das Unternehmen dem Lenkungsausschuss der Coalition for Content Provenance and Authenticity (C2PA) beitreten, einem Projekt zur Entwicklung von Referenzen für digitale Inhalte. Der C2PA-Standard ist eine Art „Nährwertkennzeichnung“ für Bilder, Videos, Audioclips und andere Dateien, aus der hervorgeht, wann und wie sie erstellt oder verändert wurden, auch mit KI.

Laut Open AI können Menschen ohne diese Informationen immer noch irreführende Inhalte erstellen (oder sie entfernen), sie können sie jedoch nicht einfach fälschen oder ändern, was sie zu einer wichtigen Ressource für den Aufbau von Vertrauen macht.

„Um die Akzeptanz und das Verständnis von Herkunftsstandards, einschließlich C2PA, zu fördern, haben wir gemeinsam mit Microsoft einen Fonds für soziale Resilienz ins Leben gerufen. Dieser 2-Millionen-Dollar-Fonds wird die Bildung und das Verständnis von KI unterstützen, unter anderem durch Organisationen wie die Older Adult Technology Services der AARP. , International IDEA and Association on AI“, sagte das Unternehmen.

-

PREV Pokémon hat drei Spiele für Nintendo Switch 2 in der Entwicklung, sagt ein bekannter Insider
NEXT Riot Games macht endlich das Versprechen, das die Spieler von League of Legends hören wollten. Große Änderungen an den Ranglisten angekündigt, die bald eintreffen – League of Legends