Das ist „Project Astra“, Googles menschlichste KI, die sehen, hören, sprechen, sich erinnern und assimilieren kann | (keiner)

Das ist „Project Astra“, Googles menschlichste KI, die sehen, hören, sprechen, sich erinnern und assimilieren kann | (keiner)
Das ist „Project Astra“, Googles menschlichste KI, die sehen, hören, sprechen, sich erinnern und assimilieren kann | (keiner)
-

SIEHE ZUSAMMENFASSUNG

Automatische Zusammenfassung generiert mit künstlicher Intelligenz

Google stellte das Projekt Astra vor, seinen Assistenten für künstliche Intelligenz mit „menschlichen Fähigkeiten“, den sie Ende 2024 starten wollen. Dieser Assistent kann unterbrochen werden, seine Persönlichkeit ändern und mit den Objekten um ihn herum interagieren.

Entwickelt von BioBioChile

Google stellte diesen Dienstag vor Projekt Astra, Ihr Assistent für künstliche Intelligenz (KI) mit „menschlichen Fähigkeiten“, die es Ihnen ermöglichen, zu sehen, zu hören, sich zu erinnern, zu assimilieren und zu sprechen; ein futuristisches Tool, das Ende 2024 auf den Markt kommen soll.

Die Ankündigung, die vor einigen Jahren nur in einem Drehbuch für einen Science-Fiction-Film möglich gewesen wäre, wurde teilweise vom Konkurrenten OpenAI überschattet, einem führenden KI-Unternehmen, das am Montag eine ähnliche Sprachassistentenfunktion vorstellte.

In beiden Fällen, Benutzer können einen Videoanruf mit dem Assistenten tätigen und ihm alle möglichen Fragen stellen.

Google zeigte mehrere Beispiele – nach Angaben des Unternehmens live aufgenommen und in keiner Weise manipuliert– bei dem einer ihrer Arbeiter in London Nachdem er ihm ein Zimmer gezeigt hatte, fragte er den Assistenten, welchen Spitznamen er einem Haustier geben würde, bat ihn um Hilfe bei Programmier- und Mathematikprogrammen und auch bei der Suche nach seiner Brille.

Eine weitere Eigenschaft dieser Technologien ist diese Sie können während ihrer Antworten unterbrochen werden, um zum nächsten Punkt im Gespräch überzugehen, und sie können unterschiedliche Persönlichkeiten habenobwohl in beiden Beispielen eine Frauenstimme verwendet wurde.

„Diese Agenten wurden auf der Grundlage unseres Gemini-Modells und anderer aufgabenspezifischer Modelle aufgebautund wurden entwickelt, um Informationen schneller zu verarbeiten, indem Videobilder kontinuierlich kodiert, Video- und Spracheingaben in einer Zeitleiste von Ereignissen kombiniert und diese Informationen für einen effizienten Abruf zwischengespeichert werden“, erklärt das Unternehmen in einer Erklärung.

Googles „Project Astra“ könnte noch portabler sein

Google weiß esEr hatte ein Ass im Ärmel und überraschte mit der Möglichkeit, diese Technologie mit Datenbrillen zu nutzenzusätzlich zu einem Telefon, obwohl das Unternehmen diesbezüglich keine konkreten Ankündigungen machte.

Auf seiner jüngsten Entwicklerveranstaltung gab Meta außerdem bekannt, dass das Unternehmen seine Datenbrillen so entwickelt, dass sie auf ihre KI zugreifen und die Fragen der Benutzer zu dem, was sie sehen, beantworten können.

Es gibt viele Technologieunternehmen, die sich in diesem Jahr für KI-Tools entschieden haben, die mit dem Benutzer interagieren, ohne dass ein Telefon oder Computer erforderlich ist – wie The Rabbit R1 oder Humane AI Pin – aber keines hat bisher einen durchschlagenden Erfolg erzielt.

-

NEXT In Night City kann man Half-Life 3 spielen