Die neuen KI-Suchen von Google werden aufgrund ihrer zahlreichen Fehler zum Meme

-

Die Erfassungen mit diesen Fehlern beginnen sich zu vermehren, da sie darauf hindeuten, dass Benutzer Pizzakleber verwenden, täglich Steine ​​essen und häufig alle möglichen fehlerhaften Informationen liefern

Letzte Woche Google begann, bei seinen Suchen eine kleine Zusammenfassung der Ergebnisse anzubieten, die durch sein langes Sprachmodell erstellt wurden. Zwillinge. Die Funktion heißt „Allgemeine Zusammenfassungen der KI” und zeigt vor den normalen Suchergebnissen einen kleinen Text an, der die Antwort auf die Anfrage erklärt, wenn es sich um eine direkte Antwort handelt.

“Manchmal Du brauchst eine schnelle AntwortUnd Sie haben keine Zeit, Informationen zu sammeln von hier und da. „Die Suche erledigt das für Sie mit den mit KI erstellten Zusammenfassungen“, erklärt Liz ReidVizepräsident von Google-Suchedie Abteilung des Unternehmens, die für die Wartung der berühmten Suchmaschine verantwortlich ist, die mit Abstand am häufigsten im Internet verwendet wird.

Im Moment ist die neue Funktion nur in den USA verfügbar, aber obwohl die Antworten schnell sind, scheinen sie nicht immer korrekt zu sein. In nur einer Woche die Beispiele für Zusammenfassungen suchen voller Fehler haben begonnen, in sozialen Netzwerken zu kursieren und weisen auf ein ziemlich ernstes Problem in der hin Gültigkeit die diese KI an die Informationen weitergibt, die sie von satirischen Websites wie der Humorpublikation sammelt Die Zwiebeloder Foren mit geringer Resonanzüberwachung, wie z reddit.

Auf die Frage „Wie viele Steine ​​soll ich am Tag essen?“ antwortet beispielsweise die Suchmaschine Sicher dass es gesund sei, täglich einen kleinen Stein zu essen, unter Berufung auf eine Studie des Universität Berkeley in Kalifornien. Dies ist eine absurde Schlussfolgerung, zu der vermutlich ein einziger Artikel in gelangt ist Die Zwiebel in dem dieselbe Empfehlung in einem klaren Ton des Humors ausgesprochen wird.

Ein anderer Benutzer hat herausgefunden, dass die Suchmaschine empfiehlt, Kleber auf die Pizza aufzutragen, damit der Käse nicht abfällt, wenn man viel Tomatensauce verwendet. Dies ist ein „Vorschlag“, der von einem Benutzer gemacht wurde reddit auch im Klartext sarkastischer Ton dass die KI von Google Sicherheit bietet, wenn nur diese einzige Quelle als Referenz dient.

In Stellungnahmen zur Fachpublikation TechCrunchGoogle-Sprecher versichern, dass es sich hierbei um seltene Fragen handele, die oft speziell für die Erstellung formuliert seien absurde Szenarien. Auf die Frage „Hat jemals ein Hund in der NBA gespielt?“ antwortet beispielsweise die KI von Google mit Ja. Die meisten legitimen Anfragen, die das neue System nutzen, erklären: Erhalten Sie nützliche Antworten.

Doch einige der Beispiele, die Nutzer in sozialen Netzwerken posten, machen deutlich, dass es auch bei recht häufigen Suchanfragen zu Problemen kommt. Künstliche Intelligenz sorgt beispielsweise dafür, dass der ehemalige US-Präsident Barak Obama ist Muslimein Schwindel, der häufig in rechtsextremen Foren kursiert.

Er scheint sich auch sicher zu sein, dass mindestens 13 US-Präsidenten ihren Abschluss an der University of Wisconsin-Madison gemacht haben, viele davon Jahrhunderte nach ihrem Tod. Laut Google AI, Andrew Jacksonder siebte Präsident der Vereinigten Staaten, starb im Jahr 1837schloss im Jahr sein Studium an der Universität ab 2005.

In manchen Fällen können diese Fehler schwerwiegende Folgen für die Gesundheit haben. Mehrere Experten weisen beispielsweise darauf hin, dass es bei der Suchmaschine zu Fehlern bei der Identifizierung gekommen sei Pilzarten oder gibt falscher Rat darüber, was zu tun ist, wenn Sie unter a leiden Schlangenbiss. Google fügt zusammen mit den Zusammenfassungen immer Links zu den Quellen hinzu, die es für die Erstellung verwendet hat, aber wählt nicht immer die Websites aus mit größerer Autorität und kann dazu führen, dass den angezeigten Informationen größeres Gewicht beigemessen wird in verschiedenen Quellen wiederholt, auch wenn sie fehlerhaft sind.

ZWEITER FEHLER

Die Probleme mit dem neuen KI-System zur Generierung von Zusammenfassungen bei Suchanfragen treten Monate später auf Google auch erkennen Misserfolge im System von Bilderzeugung das die gleiche Sprach-Engine verwendet, Zwillinge.

Im Februar musste Google den Einsatz von Gemini aufgrund des Tools stoppen weigerte sich, Weiße zu vertreten in historischen Kontexten, die dies erforderten oder asiatische oder schwarze Menschen einfügten, wenn sie gebeten wurden, Bilder von Wikingern, Nazis oder mittelalterlichen englischen Rittern zu zeigen.

Es ist eine Aussage, Sundar Pichai Der CEO von Google entschuldigte sich öffentlich für die Situation. „Ich weiß, dass einige von euch Die Antworten waren beleidigend an unsere Benutzer und haben gezeigt Vorurteile; „Um es klarzustellen: Das ist völlig inakzeptabel und wir haben einen Fehler gemacht“, erklärte Pichai.

-

NEXT In Night City kann man Half-Life 3 spielen