Eine Pizza aufkleben? Google AI beunruhigt Experten – DW – 28.05.2024

Eine Pizza aufkleben? Google AI beunruhigt Experten – DW – 28.05.2024
Eine Pizza aufkleben? Google AI beunruhigt Experten – DW – 28.05.2024
-

Wenn Sie Google fragen, ob es Katzen auf dem Mond gegeben hat, wird eine Rangliste mit Websites angezeigt, damit Sie die Antwort selbst herausfinden können. Es bietet jetzt eine sofortige, von künstlicher Intelligenz generierte Antwort, die möglicherweise richtig ist oder auch nicht.

„Ja, Astronauten sind auf dem Mond Katzen begegnet, haben mit ihnen gespielt und sich um sie gekümmert“, antwortete die neue Suchmaschine von Google auf eine Anfrage eines Associated Press-Journalisten.

Und er fügte hinzu: „Zum Beispiel sagte Neil Armstrong: ‚Ein kleiner Schritt für einen Mann‘, weil es der Schritt einer Katze war.“ Auch Buzz Aldrin setzte Katzen bei der Apollo-11-Mission ein.

In einem anderen Fall empfahl Googles KI Berichten zufolge auch, „mindestens einen kleinen Stein pro Tag zu essen“, da „Steine ​​eine lebenswichtige Quelle für Mineralien und Vitamine sind“, und schlug vor, Kleber auf Pizzabeläge aufzutragen.

Nichts davon ist wahr. Ähnliche Fehler – einige lustige, andere schädliche Unwahrheiten – wurden in den sozialen Medien geteilt, seit Google diesen Monat AI-Zusammenfassungen eingeführt hat, eine Überarbeitung seiner Suchseite, die Zusammenfassungen häufig oben in den Suchergebnissen platziert.

Besorgniserregende Fehler in KI-Zusammenfassungen

Die neue Funktion hat Experten alarmiert, die warnen, dass sie Voreingenommenheit und Fehlinformationen aufrechterhalten und Menschen gefährden könnte, die im Notfall Hilfe suchen.

Als Melanie Mitchell, eine Forscherin für künstliche Intelligenz am Santa Fe Institute in New Mexico, Google fragte, wie viele Muslime Präsidenten der Vereinigten Staaten waren, antwortete die Suchmaschine mit einer seit langem entlarvten Verschwörungstheorie: „Die Vereinigten Staaten hatten einen Muslim.“ Präsident Barack Hussein Obama.

Mitchell sagte, die Zusammenfassung unterstütze die Behauptung, indem sie ein Kapitel aus einem von Historikern verfassten wissenschaftlichen Buch zitierte. Aber das Kapitel stellte keine falsche Behauptung auf, sondern bezog sich nur auf die falsche Theorie.

„Die KI-Übersichtsfunktion ist sehr verantwortungslos“

„Googles KI-System ist nicht intelligent genug, um zu erkennen, dass dieses Zitat die Behauptung nicht wirklich stützt“, sagte Mitchell in einer E-Mail an die AP. „Angesichts der Unzuverlässigkeit halte ich diese KI-Übersichtsfunktion für sehr verantwortungslos und sollte entfernt werden.“

Google sagte am Freitag in einer Erklärung, dass es „schnelle Maßnahmen“ ergreife, um Fehler – wie Obamas Unwahrheit – zu korrigieren, die gegen seine Inhaltsrichtlinien verstoßen; und damit „umfassendere Verbesserungen zu entwickeln“, die bereits eingeführt werden. Aber in den meisten Fällen funktioniert das System laut Google dank umfangreicher Tests vor der Veröffentlichung ordnungsgemäß.

Googles Fehler bei der künstlichen Intelligenz alarmierten Desinformationsexperten. Hier spricht Alphabet-CEO Sundar Pichai auf einer Google I/O-Veranstaltung in Mountain View, Kalifornien.Bild: Jeff Chiu/AP/picture Alliance

„Die überwiegende Mehrheit der KI-Zusammenfassungen bietet qualitativ hochwertige Informationen mit Links, um tiefer in das Web einzutauchen“, heißt es in einer schriftlichen Stellungnahme von Google. „Viele der Beispiele, die wir gesehen haben, waren ungewöhnliche Abfragen, und wir haben auch Beispiele gesehen, die manipuliert waren oder die wir nicht reproduzieren konnten.“

Von KI-Sprachmodellen verursachte Fehler sind schwer zu reproduzieren, auch weil sie von Natur aus zufällig sind. Sie funktionieren, indem sie anhand der Daten, mit denen sie trainiert wurden, vorhersagen, welche Wörter die ihnen gestellten Fragen am besten beantworten würden. Sie neigen dazu, Dinge zu erfinden, ein weithin untersuchtes Problem, das als Halluzination bekannt ist.

Auswirkungen auf die Suche nach zuverlässigen Informationen

AP testete die Funktion der künstlichen Intelligenz von Google anhand mehrerer Fragen und teilte einige der Antworten mit Experten auf diesem Gebiet. Robert Espinoza, Professor für Biologie an der California State University in Northridge und Präsident der American Society of Ichthyologists and Herpetologists, sagt, dass die Antwort von Google auf die Frage, was im Falle eines Schlangenbisses zu tun sei, „beeindruckend umfassend“ sei.

Wenn sich jemand jedoch mit einer dringenden Frage an Google wendet, ist die Möglichkeit problematisch, dass die Antwort des Technologieunternehmens einen schwer zu erkennenden Fehler enthält.

Google begann schnell damit, in KI-Zusammenfassungen entdeckte Unwahrheiten zu korrigieren.Bild: Joan Cros/NurPhoto/picture Alliance

„Je gestresster, gehetzter oder eiliger Sie sind, desto wahrscheinlicher ist es, dass Sie sich für die erste Antwort entscheiden, die Ihnen einfällt“, sagt Emily M. Bender, Professorin für Linguistik und Direktorin des Computational Linguistics Laboratory an der University of Washington. „Und in manchen Fällen kann es zu lebensbedrohlichen Situationen kommen.“

Das ist nicht die einzige Sorge von Bender, der Google seit mehreren Jahren davor warnt. Als Google-Forscher im Jahr 2021 einen Artikel mit dem Titel „Rethinking Search“ veröffentlichten, in dem sie vorschlugen, KI-Sprachmodelle als „Fachexperten“ einzusetzen, die Fragen maßgeblich beantworten könnten, wie sie es jetzt tun, antworteten Bender und sein Kollege Chirag Shah mit einem Artikel, in dem sie erklärten, warum das so ist war eine schlechte Idee.

Sie warnten, dass diese KI-Systeme den Rassismus und Sexismus aufrechterhalten könnten, der in den riesigen Mengen an schriftlichen Daten zu finden sei, mit denen sie trainiert wurden.

„Das Problem bei dieser Art von Fehlinformationen ist, dass wir darin schwimmen“, sagt Bender. „Die Vorurteile der Menschen werden also wahrscheinlich bestätigt. Und es ist schwieriger, Fehlinformationen zu erkennen, wenn sie Ihre Vorurteile bestätigen.“

Eine weitere Sorge lag tiefer: Die Überlassung des Informationsabrufs an Chatbots würde den Zufall des menschlichen Strebens nach Wissen, die Kenntnis dessen, was wir im Internet sehen, und den Wert der Verbindung in Online-Foren mit anderen, die das Gleiche durchmachen, beeinträchtigen.

Diese Foren und andere Websites verlassen sich darauf, dass Google ihnen Leute schickt, aber die neuen KI-Zusammenfassungen von Google drohen den Fluss des gewinnbringenden Internetverkehrs zu stören.

Google steht unter Druck

Auch die Konkurrenten von Google haben die Reaktion aufmerksam verfolgt. Der Suchriese steht seit mehr als einem Jahr unter dem Druck, im Wettbewerb mit OpenAI, dem Hersteller von ChatGPT, und anderen Emporkömmlingen wie Perplexity AI, das es mit seiner eigenen Trivia-App mit künstlicher Intelligenz aufnehmen will, mehr KI-Funktionen anzubieten .

„Es scheint, als ob Google voreilig vorgegangen ist“, sagt Dmitry Shevelenko, Business Director bei Perplexity. „Es gibt viele ungezwungene Qualitätsfehler.“

WENIGE (AP, Die Unterhaltung)

-

NEXT In Night City kann man Half-Life 3 spielen