Verwenden Sie Ihre mobile Kamera, um zu erkennen, was sich um Sie herum befindet

Verwenden Sie Ihre mobile Kamera, um zu erkennen, was sich um Sie herum befindet
Verwenden Sie Ihre mobile Kamera, um zu erkennen, was sich um Sie herum befindet
-

Google hat über X ein Video geteilt, in dem Sie eine neue KI-Funktion sehen können, mit der Sie mithilfe der Kamera Ihres Telefons alles um Sie herum identifizieren können

Die neue Funktion von Google sieht aus wie eine KI-gestützte Version von Google Lens

Tritt dem Gespräch bei

Wir sind nur noch wenige Stunden von der diesjährigen Google-Entwicklerkonferenz entfernt, einer Google I/O 2024, die bereits einen Zeitplan enthüllt hat, in dem die neuen Funktionen von Android 15 und Wear OS 5 hervorstechen und in dem auch Platz dafür sein wird großes G Präsentieren Sie uns Ihre Verbesserungen in der generativen KI.

In diesem Sinne wollte das Unternehmen aus Mountain View den Mund öffnen, indem es einen seiner neuen KI-Fortschritte vor der Google I/O 2024 enthüllte, da der amerikanische Riese gerade eine neue Funktion angekündigt hat Damit können Sie mit Ihrer mobilen Kamera erkennen, was sich um Sie herum befindet.

Google ist der I/O 2024 voraus und präsentiert eine seiner großartigen KI-Innovationen für dieses Jahr

Wie von Engadget bestätigt, hat Google kürzlich einen Beitrag auf X, dem alten Twitter, veröffentlicht, in dem es uns ein kurzes Video einer neuen KI-Funktion zeigt, die es Ihnen ermöglicht Verwenden Sie die Kamera Ihres Smartphones, um in Echtzeit zu erkennen, was Sie um sich herum haben.

Das Video zum oben genannten Beitrag, das wir Ihnen hier hinterlassen, ist mit dem Wort „Prototyp“ beschriftet und zeigt uns eine Person mit einem Google Pixel bei geöffneter Kamera Der Schwerpunkt liegt auf dem Google I/O 2024-Szenario, das dem Smartphone Fragen zu dem stellt, was es sieht.

So zum Beispiel zur Frage „Hey, was denkst du ist hier los?“ Diese neue KI-Funktion von Google antwortet dem Pixel-Nutzer per Stimme: „Es hört sich an, als würden sich die Leute auf ein großes Ereignis vorbereiten, vielleicht eine Konferenz oder Präsentation.“ Ebenso können wir nachweisen, dass diese neue Funktionalität in der Lage ist, die Buchstaben „I/O“ zu erkennen und sie so weit mit der Google-Entwicklerkonferenz in Verbindung zu bringen, dass sie bei dieser Veranstaltung erwähnt wird wird bekannt gegeben „Neue Fortschritte in der künstlichen Intelligenz“.

Darüber hinaus erscheint es während des gesamten Gesprächs zwischen der KI und dem Benutzer ein Texttranskript auf dem Bildschirm, das zeigt, was beide Stimmen sagen.

Daher scheint es, dass wir gerade die Geburt einer KI-gestützten Version von Google Lens erleben arbeitet in Echtzeit und ist in der Lage, auf Sprachbefehle zu reagieren Ganz ähnlich wie es die multimodale KI der Datenbrillen von Meta tut.

Es ist nicht üblich, dass Google einen seiner bemerkenswertesten KI-Fortschritte vor seiner großen Keynote ankündigt, aber bei dieser Gelegenheit hat es dies sicherlich getan, um den Auswirkungen der gestrigen Ankündigung von GPT-4o entgegenzuwirken, dem neuen OpenAI-Sprachmodell, das dies tun wird bald auf ChatGPT verfügbar sein.

Du kannst Folgen Andro4all auf Facebook, WhatsApp, Twitter (X) Oder besuchen Sie unseren Telegram-Kanal, um über die neuesten Technologienachrichten auf dem Laufenden zu bleiben.

Tritt dem Gespräch bei

-

PREV Kurzes Isapres-Gesetz im Senat verabschiedet: Dies waren Parlamentarier, die dagegen stimmten, und diejenigen, die sich der Stimme enthielten
NEXT Fury will Emma aus Big Brother rausschmeißen und startet seinen Masterplan mit einem Bösen