das ist, was es sagt

das ist, was es sagt
das ist, was es sagt
-

Der direkte und unkomplizierte Titel dieser wissenschaftlichen Studie hat ihr seit ihrer Veröffentlichung am 8. Juni in der Zeitschrift Ethics and Information Technology zu einiger Popularität verholfen. «ChatGPT ist Bullshit» ist ein von drei schottischen Wissenschaftlern der University of Glasgow verfasster Artikel, in dem entmystifiziert das als „Halluzinationen“ bekannte Phänomen (falsche Antworten der künstlichen Intelligenz) und argumentieren, dass diese surrealen Ergebnisse es verdienen, als „Unsinn“ bezeichnet zu werden. Denn wie die Forscher zeigen, sind falsche Antworten nichts anderes als normales Verhalten in Modellen, die nicht wissen, wie man zwischen Wahrheit und Lüge unterscheidet.

In Bezug auf Halluzinationen „argumentieren wir, dass diese Unwahrheiten und die allgemeine Aktivität großer Sprachmodelle am besten als Unsinn in dem von Frankfurt (On Bullshit, Princeton, 2005) untersuchten Sinne verstanden werden können: Den Modellen ist die Wahrheit ihrer Ergebnisse weitgehend gleichgültig.“ „, heißt es in dem Dokument.

Im Vergleich zu der utopischen und optimistischen Geschichte über die vermeintliche Revolution, die diese Chatbots darstellen, vermuten die Forscher, dass dieser weit verbreitete Enthusiasmus oder Hype nicht auf ein Qualitätsprodukt reagiert: „Weil sich diese Programme an sich nicht um die Wahrheit kümmern können, und weil sie sollen Texte produzieren, die der Wahrheit angemessen erscheinen ohne wirkliche Sorge um die Wahrheites erscheint angemessen, ihre Ergebnisse als Unsinn zu bezeichnen“, heißt es in dem Papier.

Und sie argumentieren, dass die Verwendung von Begriffen wie „Halluzinationen“ dazu führen kann, dass die breite Öffentlichkeit eine falsche Vorstellung von den Fähigkeiten dieser Tools bekommt. Denn von Halluzinationen zu sprechen, kann bereits die Annahme bedeuten, dass eine KI in irgendeiner Weise bei Bewusstsein ist oder zur Wahrheit tendiert und dass sie lügt, wenn sie sie nicht findet. Es vermenschlicht sie auch in gewisser Weise und verleiht dem, was nichts weiter als eine falsche Antwort ist, Mystik. Kein aktueller Chatbot hat die geringste Ahnung, was wahr oder falsch ist. Daher „ist es nicht harmlos, ihre Fehler als ‚Halluzinationen‘ zu bezeichnen: Es führt zu der Verwirrung, dass die Maschinen irgendwie falsch wahrnehmen, aber dennoch versuchen, etwas zu vermitteln, was sie glauben oder wahrgenommen haben.“

Daher sei es „die falsche Metapher“, über Halluzinationen zu sprechen. Maschinen versuchen nicht, etwas zu kommunizieren, woran sie glauben oder wahrnehmen. Seine Ungenauigkeit ist nicht auf eine Fehlwahrnehmung oder Halluzination zurückzuführen. Wie wir festgestellt haben, versuchen sie nicht, irgendwelche Informationen zu übermitteln. „Sie lügen“, kommt die Studie zu dem Schluss.

In sozialen Netzwerken hat die Studie Hunderte von Kommentaren hervorgerufen, und einige Benutzer behaupten, dass sie ein für alle Mal darauf warten, dass etwas, was sie für eine Blase halten, die um dieses technologische Produkt herum entstanden ist, entleert werden muss, was sich hinter all dem Marketing eher verbirgt enttäuschende Fähigkeiten.

KIs, „unzuverlässig“ und „unpraktisch“

All dies deckt sich mit einem kürzlich von Microsoft veröffentlichten Artikel, in dem über einige der Hauptmerkmale gesprochen wird, die Chatbots mit künstlicher Intelligenz heute aufweisen. In Bezug auf „KI-Jailbreaks“, bei denen es sich um so etwas wie das Hacken einer KI handelt, sodass diese keine Sicherheitskontrollen mehr anwendet und Dinge sagt, die sie nicht sagen sollte, erklärt Microsoft einige der großen Schwächen dieser Chatbots:

  • Einfallsreich, aber manchmal unzuverlässig
  • Suggestiv und wörtlich gedacht, ohne angemessene Anleitung
  • Überzeugend und potenziell ausnutzbar
  • Sachkundig, aber für einige Szenarien nicht praktikabel

Ebenso glaubt Microsoft, dass KIs dazu neigen, übermütig zu sein und versuchen, den Benutzer mit einem realistischen Erscheinungsbild zu beeindrucken, obwohl sie nicht wissen, ob das, was sie sagen, wahr ist oder nicht, und dass sie allein dadurch, wie eine Frage formuliert oder gestellt wird, sehr beeinflussbar sind.

-

PREV Eines der Top-POCO-Telefone von Xiaomi mit 1,5K-Bildschirm und großem Akku bricht auf AliExpress zusammen
NEXT Dank dieser neuen Funktionen wird watchOS 11 die Aktivitätsringe revolutionieren