Ein OpenAI-Manager trat zurück und sagte, dass die Sicherheit der KI gefährdet sei

-

Einer der Hauptdirektoren von OpenAI, verantwortlich für den Bereich „Superalignment“, der die Entwicklung überlegener künstlicher Intelligenz im Hinblick auf die Sicherheit steuern sollte, resignierte und hinterließ besorgniserregende Nachrichten.

Jan Leike, der mit Ilya Sutskever, einem der Mitbegründer des Unternehmens, zusammenarbeitete und letzte Woche ebenfalls zurücktrat, veröffentlichte einen kontroversen Thread auf X (ex Twitter).

Siehe auchOpenAI und künstliche Intelligenz, die per Sprachbefehl neben dem Menschen läuft

Die Euphorie über die Einführung des beeindruckenden GPT-4o, des Tools, das fast sofort menschliche Dialoge abbilden und in verschiedenen Formaten interagieren kann, war nur von kurzer Dauer und für das von Sam Altman geführte Unternehmen kehrten dramatische Zeiten zurück.

Leike schrieb auf seinem offiziellen Account: „Ich bin beigetreten, weil ich dachte, OpenAI wäre der beste Ort der Welt, um diese Forschung durchzuführen. Allerdings war ich schon seit geraumer Zeit mit der Führung von OpenAI in Bezug auf die Kernprioritäten des Unternehmens uneins, bis wir schließlich an einem Bruchpunkt angelangt sind.“

„Ich glaube, dass viel mehr unserer Bandbreite für die Vorbereitung auf die nächsten Modellgenerationen, für Sicherheit, Überwachung, Vorbereitung, Schutz, Widerstandsfähigkeit gegen Gegner, (Super-)Ausrichtung, Vertraulichkeit, soziale Auswirkungen und verwandte Themen aufgewendet werden sollte“, erläuterte der Ermittler .

Der Deutsche fügte hinzu: „Maschinen zu bauen, die intelligenter sind als Menschen, ist eine von Natur aus gefährliche Aufgabe“ und machte Druck auf sein ehemaliges Unternehmen: „OpenAI übernimmt eine enorme Verantwortung im Namen der gesamten Menschheit.“

Vor den Behauptungen bedankte sich Leike im entsprechenden Protokoll und hob einen Teil seiner Arbeit bei OpenAI hervor: „Es war eine sehr wilde Fahrt in den letzten drei Jahren.“ Mein Team hat mit InstructGPT das erste RLHF-LLM eingeführt, die erste skalierbare LLM-Überwachung veröffentlicht und war Vorreiter bei der automatisierten Interpretierbarkeit und der Verallgemeinerung von schwach nach stark. Weitere interessante Dinge werden bald herauskommen.“

Jan Leike, ehemaliger Leiter des „Superalignment“-Teams von OpenAI.

Die Wahrheit ist, dass die Beziehung zwischen der Geschäftsleitung, gekreuzt mit dem Persönlichen, bereits seit November 2023 zerbrochen war, als der Vorstand in Anwesenheit von Sutskever selbst dafür stimmte, Altman aus dem CEO-Posten zu verdrängen.

Damals wurde dem Russen vorgeworfen, er habe dem Amerikaner „den Boden zersägt“. Nach Altmans Rückkehr gab Sutskever seine Führungsposition auf und es gab den Verdacht, dass er zentralen Aufgaben fernblieb.

DATEIFOTO: Sam Altman, CEO des von Microsoft unterstützten OpenAI- und ChatGPT-Erstellers, spricht während eines Vortrags an der Tel Aviv University in Tel Aviv, Israel, am 5. Juni 2023. REUTERS/Amir Cohen/File PhotoSam Altman, CEO von OpenAI. Bildnachweis: Amir Cohen/Reuters

Nach dem von Leike veröffentlichten Thread in X gab Altman zu den Fragen zu: „Sie haben Recht, wir haben noch viel mehr zu tun; Dafür setzen wir uns ein. Ich werde in den nächsten Tagen einen längeren Beitrag verfassen.“

Die ganze Aufregung verkompliziert einen der Giganten, die OpenAI im Visier und Geld haben: Microsoft. Die Instabilität des fortschrittlichsten Unternehmens der Welt in Bezug auf künstliche Intelligenz und die Vorwürfe einiger Konkurrenten wegen seiner Methoden beunruhigen das von Bill Gates gegründete Unternehmen.

Ein kleiner Hinweis auf die Reduzierung von Filtern bei der Präsentation neuer Produkte erreichte den Mainstream und wurde von Scarlett Johannson in den Mittelpunkt gerückt. Die Schauspielerin hatte sich wiederholt geweigert, GPT-4o ihre Stimme zur Verfügung zu stellen, was sich letztendlich als recht ähnlich herausstellte, weshalb sie plant, sie zu verklagen.

Aber auch Microsoft selbst wurde in den letzten Tagen wegen der Vorstellung eines neuen Tools für einige Windows 11-Benutzer, „Recall“, das durch die Möglichkeit, systematische Screenshots zu erstellen, die Debatte über Computersicherheit wieder auf den Tisch gebracht.

Die Präsentation von Recall. Bildnachweis: The VergeDie Präsentation von Recall. Bildnachweis: The Verge

Laut Yusuf Mehdi, Executive Vice President und Director of Consumer Marketing bei Microsoft, ermöglicht diese Funktion Benutzern den Zugriff auf Elemente oder Aktionen, die sie zuvor ausgeführt haben und an die sie sich nicht erinnern. Eine letztendlich riesige Datenbank mit Computeraktivitäten.

Am 17. Mai wurde bekannt, dass die Europäische Union das Unternehmen mit bis zu 1 % seines Umsatzes bestrafen könnte, wenn es nicht bis zum 27. Mai auf eine Informationsanfrage nach dem EU-Gesetz über digitale Dienste im Zusammenhang mit der Bing-Suche des Unternehmens reagiert Engine und die damit verbundenen generativen künstlichen Intelligenzdienste (KI).

Weitere Videos, die Sie interessieren könnten

-

PREV Juan Carlos Baglietto veröffentlicht „Der kleine Prinz“ mit seinen Kindern erneut | Es wird diesen Samstag im Opernhaus wiederaufgeführt
NEXT Die Einwohner von Catamarca verabschieden sich online von Silvia Pacheco