Eine KI-Suche bei Google ergab fälschlicherweise, dass Obama ein Muslim sei. Nun deaktiviert das Unternehmen einige Ergebnisse

Eine KI-Suche bei Google ergab fälschlicherweise, dass Obama ein Muslim sei. Nun deaktiviert das Unternehmen einige Ergebnisse
Eine KI-Suche bei Google ergab fälschlicherweise, dass Obama ein Muslim sei. Nun deaktiviert das Unternehmen einige Ergebnisse
-

Valeria Ordóñez Ghio

New York (CNN) – Google versprach, dass seine neuen Suchtools mit künstlicher Intelligenz (KI) „die Arbeit für Sie erledigen“ und die Online-Suche nach Informationen schneller und einfacher machen würden. Doch nur wenige Tage nach dem Start macht das Unternehmen aufgrund einiger sachlich falscher Ergebnisse bereits einen Rückzieher.

Google hat Anfang dieses Monats ein KI-generiertes Suchergebnis-Übersichtstool eingeführt, das Suchergebnisse zusammenfasst, sodass Benutzer nicht auf mehrere Links klicken müssen, um schnelle Antworten auf ihre Fragen zu erhalten. Doch später in dieser Woche geriet die Funktion in die Kritik, weil sie auf die Fragen einiger Benutzer falsche oder irreführende Informationen lieferte.

Beispielsweise posteten mehrere Nutzer auf X, dass in der KI-Zusammenfassung von Google stand, dass der ehemalige US-Präsident Barack Obama Muslim sei. Tatsächlich ist Obama ein Christ. Ein anderer Nutzer veröffentlichte eine Google-KI-Zusammenfassung, in der es hieß: „Keines der 54 anerkannten Länder in Afrika beginnt mit dem Buchstaben ‚K‘“, wobei Kenia offensichtlich vergessen wurde.

Nachrichtenredakteure warnen vor einer neuen, auf KI basierenden Google-Suche und warnen vor „katastrophalen“ Auswirkungen

Google bestätigte CNN am Freitag, dass die KI-Zusammenfassungen für beide Abfragen wegen Verstoßes gegen Unternehmensrichtlinien entfernt wurden.

„Die überwiegende Mehrheit der KI-Übersichten bietet qualitativ hochwertige Informationen mit Links, um tiefer in das Web einzutauchen“, sagte Google-Sprecherin Colette Garcia in einer Erklärung und fügte hinzu, dass es sich bei einigen anderen viralen Beispielen für Google-KI-Fehler offenbar um manipulierte Bilder gehandelt habe. „Wir haben vor der Einführung dieser neuen Erfahrung umfangreiche Tests durchgeführt, und wie bei anderen Funktionen, die wir in der Suche eingeführt haben, freuen wir uns über Feedback. „Gegebenenfalls ergreifen wir im Rahmen unserer Inhaltsrichtlinien schnelle Maßnahmen.“

Am Ende jeder Google-KI-Suchübersicht wird anerkannt, dass „generative KI experimentell ist“. Und das Unternehmen gibt an, dass es Tests durchführt, die darauf abzielen, potenzielle böswillige Akteure nachzuahmen, um zu verhindern, dass gefälschte oder minderwertige Ergebnisse in KI-Zusammenfassungen erscheinen.

Die Suchübersichten von Google sind Teil der umfassenderen Bemühungen des Unternehmens, seine Gemini-KI-Technologie in alle seine Produkte zu integrieren, während es versucht, im KI-Wettrüsten mit Konkurrenten wie OpenAI und Meta mitzuhalten. Das Debakel dieser Woche zeigt jedoch das Risiko, dass die Hinzufügung von KI – die dazu neigt, falsche Informationen bereitzustellen – den Ruf von Google als zuverlässige Quelle für die Online-Suche nach Informationen untergraben könnte.

Google zeigt, wie die künstliche Intelligenz von Gmail, Fotos und Online-Käufen funktionieren wird

Selbst bei weniger seriösen Suchanfragen scheint die KI-Übersicht von Google manchmal fehlerhafte oder verwirrende Informationen zu liefern.

In einem Test fragte CNN Google, „wie viel Natrium in Gurkensaft enthalten ist.“ In der IA-Prüfung wurde geantwortet, dass eine 8-Flüssig-Unzen-Portion Gurkensaft 342 Milligramm Natrium enthält, eine weniger als halb so große Portion (3 Flüssigunzen) jedoch mehr als doppelt so viel Natrium (690 Milligramm) enthielt. (Best Maid Pickle Juice, verkauft bei Walmart, enthält 250 Milligramm Natrium in nur 1 Unze.)

CNN suchte auch nach: „Daten, die für das Google-Training für künstliche Intelligenz verwendet werden.“ In seiner Antwort räumte AI Overview ein, dass „unklar ist, ob Google die Aufnahme urheberrechtlich geschützter Materialien verhindert“ in die zum Training seiner KI-Modelle gesammelten Online-Daten und verwies auf große Bedenken hinsichtlich der Art und Weise, wie Datenunternehmen KI betreiben.

Dies ist nicht das erste Mal, dass Google aufgrund eines peinlichen Fehlers die Fähigkeiten seiner Tools für künstliche Intelligenz zurückfahren muss. Im Februar stoppte das Unternehmen die Fähigkeit seines KI-Fotogenerators, Bilder von Menschen zu erstellen, nachdem es dafür kritisiert wurde, historisch ungenaue Bilder zu produzieren, auf denen überwiegend farbige und nicht weiße Menschen zu sehen waren.

Auf der Search Labs-Website von Google können Nutzer in Bereichen, in denen KI-Suchübersichten implementiert wurden, die Funktion ein- und ausschalten.

The-CNN-Wire
™ & © 2024 Cable News Network, Inc., ein Warner Bros. Discovery-Unternehmen. Alle Rechte vorbehalten.

-

NEXT In Night City kann man Half-Life 3 spielen