Mitarbeiter warnen vor extremen Risiken der Künstlichen Intelligenz

-

In einem am Dienstag veröffentlichten Brief, der von aktuellen und ehemaligen Mitarbeitern von Unternehmen für künstliche Intelligenz, darunter OpenAI, unterzeichnet wurde, weisen die Unterzeichner darauf hin KI-Unternehmen haben starke finanzielle Anreize, sich einer wirksamen Aufsicht zu entziehen.

Flüssiges Licht entdecken, den faszinierenden „fünften Zustand der Materie“

Darüber hinaus bestehen sie auf der Notwendigkeit, eine Kultur der offenen Kritik zu fördern, die diejenigen begrüßt, die ihre Bedenken äußern, statt sie zu bestrafen, insbesondere in einem Kontext, in dem die Gesetze noch nicht mit der raschen Weiterentwicklung der Technologie Schritt gehalten haben.

Risiken und mangelnde Transparenz

Unternehmen haben die von KI ausgehenden „ernsthaften Risiken“ erkannt, die von Manipulation bis zum Kontrollverlust, der sogenannten „Singularität“, reichen und zum Aussterben der Menschheit führen könnten. Nach Angaben der Mitarbeiter Sie sollten mehr tun, um die Öffentlichkeit über diese Risiken und die notwendigen Schutzmaßnahmen aufzuklären.

Derzeit verlangen die Gesetze nicht, dass KI-Unternehmen freiwillig wichtige Informationen über die Technologie weitergeben. Daher ist es wichtig, dass sich aktuelle und ehemalige Mitarbeiter zu Wort melden und dass Unternehmen keine „Verleumdungsvereinbarungen“ durchsetzen oder Vergeltungsmaßnahmen gegen diejenigen ergreifen, die Bedenken hinsichtlich der Risiken äußern. „Gewöhnliche Whistleblower-Schutzmaßnahmen reichen nicht aus, da sie sich auf illegale Aktivitäten konzentrieren, während viele der Risiken, über die wir uns Sorgen machen, immer noch nicht reguliert sind“, schrieben die Mitarbeiter.

Der Brief kommt zu einer Zeit, in der Unternehmen rasch daran arbeiten, generative KI-Tools in ihre Produkte zu integrieren, während staatliche Regulierungsbehörden, Unternehmen und Verbraucher für einen verantwortungsvollen Einsatz kämpfen. Viele Technologieexperten, Forscher und Führungskräfte haben eine vorübergehende Pause im KI-Wettlauf oder ein Eingreifen der Regierung und die Einführung eines Moratoriums gefordert.

Künstliche Intelligenz von OpenAIKünstliche Intelligenz von OpenAI

Die EU einigt sich auf das weltweit erste Gesetz zur künstlichen Intelligenz: Was bedeutet es?

Antwort von OpenAI

Als Antwort auf den Brief sagte ein OpenAI-Sprecher gegenüber CNN, dass das Unternehmen „stolz auf seine Erfolgsbilanz bei der Bereitstellung der leistungsfähigsten und sichersten KI-Systeme“ sei und ist von seinem wissenschaftlichen Ansatz zur Bewältigung von Risiken überzeugt. Er fügte außerdem hinzu, dass das Unternehmen zustimmt, dass „angesichts der Bedeutung dieser Technologie eine energische Debatte von entscheidender Bedeutung ist.“

OpenAI betonte, dass es über eine anonyme Integritätshotline und einen Sicherheitsausschuss verfügt, der von Vorstandsmitgliedern und Sicherheitsverantwortlichen des Unternehmens geleitet wird. Darüber hinaus betonten sie, dass sie keine personenbezogenen Daten verkaufen, keine Benutzerprofile erstellen und diese Daten auch nicht für gezielte Werbung oder den Verkauf von Produkten verwenden.

Die kritische Perspektive

OpenAI hat seit seiner Einführung mit ChatGPT mehrere außergewöhnliche Meilensteine ​​erreicht. Im Jahr 2020 veröffentlichten sie GPT-3, ein umfangreiches Sprachmodell mit 175 Milliarden Parametern, das sich durch seine Fähigkeit auszeichnete, aus einer Vielzahl von Anweisungen zusammenhängende und kreative Texte zu generieren. Diese Technologie stellte nicht nur einen bedeutenden Fortschritt in der Verarbeitung natürlicher Sprache dar, sondern wurde auch in praktischen Anwendungen wie der automatischen Inhaltsgenerierung, der Programmierunterstützung und dem Kundensupport eingesetzt.

Darüber hinaus engagiert sich OpenAI für die sichere und ethische Entwicklung von KI und fördert den verantwortungsvollen Einsatz seiner Modelle durch die Implementierung von Überprüfungen und Nutzungsrichtlinien.

Aber Daniel Ziegler, einer der Organisatoren des Briefes und Ingenieur für maschinelles Lernen, der zwischen 2018 und 2021 bei OpenAI arbeitete, hat zum Ausdruck gebracht, wie wichtig es ist, hinsichtlich des Engagements des Unternehmens für Transparenz skeptisch zu bleiben.

Ziegler hofft auch, dass im Anschluss an den Brief mehr Fachleute aus der KI-Branche ihre Bedenken äußern werden und dass er dazu beitragen wird, die Dringlichkeit zu verstärken, KI-Risiken anzugehen und diejenigen zu schützen, die es wagen, sich zu äußern, um diese Technologie sicherzustellen wird verantwortungsvoll und zum Wohle der gesamten Menschheit entwickelt.

-