KI-Unternehmen haben einen Plan, damit wir ihre Chatbots viel häufiger nutzen: sie lustiger machen

KI-Unternehmen haben einen Plan, damit wir ihre Chatbots viel häufiger nutzen: sie lustiger machen
KI-Unternehmen haben einen Plan, damit wir ihre Chatbots viel häufiger nutzen: sie lustiger machen
-
  • Aktuelle Chatbots sind zu langweilig, und das wissen ihre Ersteller

  • Das Problem besteht jedoch darin, dass die Daten, mit denen sie trainiert wurden, kaum einen Kontext liefern.

ChatGPT, Copilot oder Claude bieten Antworten auf unsere Fragen, die immer kohärent und korrekt erscheinen, auch wenn dies nicht der Fall ist. Eines haben sie jedoch gemeinsam: Ihr Ton ist sehr formell und ernst. Das scheint ein Hindernis für das Benutzererlebnis zu sein, und KI-Unternehmen arbeiten an einer großen Änderung.

Chatbots sind überhaupt nicht lustig. In einer vor einigen Tagen veröffentlichten Studie hat eine Gruppe von DeepMind-Forschern 20 Komiker gebeten, ihre Erfahrungen mit Chatbots zur Vorbereitung ihrer Witze zu teilen. Ihren Antworten zufolge waren Chatbots langweilig, unoriginell und zu politisch korrekt. Einer der Komiker behauptete, die KI habe Witze gemacht, die klangen, als kämen sie aus den 1950er Jahren, „aber etwas weniger rassistisch“.

Humor ist (vorerst) eine menschliche Sache. Laut Bloomberg-Forschern ist Komödie derzeit eine „zutiefst menschliche“ Kunstform, die auf persönlichen Geschichten und sozialen Kontexten basiert. Dies macht aktuelle KI-Modelle hier zu einer besonderen Herausforderung, da sie mit „in der Zeit eingefrorenen“ Daten trainiert werden und Chatbots fast keinen Kontext über die Situationen haben, in denen sie verwendet werden.

Grok, das einem informellen Chatbot am nächsten kommt. Seit seinem Erscheinen unterscheidet sich Grok, der Chatbot von xAI, durch seine sarkastische Art zu antworten vom Rest. Elon Musk positionierte es genau als eine unterhaltsamere Alternative als die seiner Konkurrenten.

Lustige Chatbots. Anthropic hat vor einigen Tagen Claude 3.5 Sonnet auf den Markt gebracht, und seine Entwickler behaupten, dass es besser einfangen kann, wenn Benutzer einen humorvollen Ton für Gespräche verwenden. Daniela Amodei, Mitbegründerin und Präsidentin von Anthropic, erklärte: „Ich glaube nicht, dass Claude ein so lustiger Komiker ist, dass ich dafür bezahlen würde, ihn zu sehen, aber ich denke, wir haben uns definitiv verbessert.“ Unterdessen demonstrierte die neue Version ihres Modells, GPT-4o, auf der OpenAI auch die Fähigkeit, Witze zu erzählen und in diesen Gesprächen auf „menschlichere“ Weise zu interagieren.

Die Zukunft sind weniger langweilige Chatbots. Den Verantwortlichen dieser Unternehmen scheint klar zu sein, dass es wichtig sein wird, mehr Spaß und weniger formelle Töne zu verwenden, um die Nutzer stärker zu fesseln. Amodei bemerkte: „Wenn Sie an die Menschen denken, mit denen Sie gerne zusammenarbeiten, sind sie wahrscheinlich professionell, aber auch zugänglich. Sie sind ehrlich, können aber etwas Humor in ein Gespräch mit Ihnen bringen.“ Das ist hier die Idee.

Aber es ist besser, wenn sie nicht so falsch liegen.. Es ist offensichtlich, dass die Interaktion mit diesen Chatbots umso besser ist, je natürlicher sie erscheint, und der übermäßig formelle und etwas roboterhafte Ton dieser Antworten kann zu Ablehnung führen. Obwohl es wichtig ist, dass diese Erfahrung angenehm ist und sogar Spaß macht, gibt es etwas noch Wichtigeres: dass Chatbots nicht so viele Fehler machen.

Das ist besonders schwer zu lösen, vor allem wenn man bedenkt, dass aktuelle Chatbots auf komplexen Wahrscheinlichkeitsmodellen basieren und nicht wissen, was sie sagen. Aus diesem Grund ist es notwendig, diese Antworten immer zu überprüfen, da sie möglicherweise völlig erfunden sind oder Ungenauigkeiten enthalten.

In Xataka | Künstliche Intelligenzdienste gibt es überall. Und mit ihnen kehrt die Abo-Müdigkeit zurück

-

PREV WhatsApp bietet Unterstützung für ein großes Sticker-Repository
NEXT Dies wird das nächste Premium-Tablet von Samsung sein