Erst vor wenigen Tagen stellte Sundar Pichai in Antwort auf die Chat-KI ChatGPT mit „Bard“ eine eigene künstliche Intelligenz für Konversationen vor. Noch ist das eher ein Testballon zum Ausprobieren, doch die zugrunde liegende Technologie nutzt Google nicht nur für Chatbots, wie der Konzern am Mittwoch in Paris erklärte. Künstliche Intelligenz hält weiter Einzug in alle relevanten Google-Angebote und soll die Erlebnisse, sei es bei der Suche oder bei der Navigation via Maps, natürlicher machen.

Kombi-Suche

Mit Google Lens erlaubt Google es, Bilder nach passenden Inhalten zu durchsuchen. Fotografiere ich ein Wohnzimmer mit einer Couch, kann ich diese Couch via Google Lens in der Google-Suche finden. Lens werde laut Google mittlerweile zehn Milliarden Mal pro Monat verwendet, scheint im täglichen Suchgebrauch vieler Nutzer also angekommen zu sein. Lens wird nun über die sogenannte Kombi-Suche erweitert. Damit können Android-Nutzer ihren Bildschirm durchsuchen.

Auf Webseiten oder in Apps kann dann direkt danach gesucht werden, was der Bildschirm gerade anzeigt. Google nennt das Beispiel eines Videos, dass man von Freunden bekommen hat. Mit Einschalten des Google-Assistenten gibt es jetzt die Funktion Bildschirmsuche, sodass man etwa nach dem Gebäude suchen kann, das im Video zu sehen ist. Google will es ermöglichen, verschiedene Arten der Suche zu kombinieren, sei es Text, Sprache oder Bilder. Mit der Kombi-Suche „In meiner Nähe“ soll zudem die Navigation etwa zum nächsten Schnellrestaurant unterstützt werden. Dies ist aber zunächst nur in den USA verfügbar.

Mehr zum Thema:

Google Maps soll immersiver werden

Apropos Navigation: Auch Google Maps erhält ein umfangreiches KI-Update. Die „Immersive Ansicht“ soll eine neue Möglichkeit bieten, Orte zu erkunden. Mittels KI und maschinellem Sehen soll mit Street-View- und Luftaufnahmen ein digitales Modell der Welt erschaffen werden. In dieser 3D-Umgebung soll der Nutzer dann etwa den Weg durch eine Stadt planen und schon einmal anschauen können – inklusive Live-Wetter-Vorschau und der Möglichkeit zu sehen, wann wie viel los ist, etwa in einem Museum.

Google erklärt die Technologie so: „Um immersive Ansichten so lebensnah wie möglich darzustellen, verwenden wir sogenannte neuronale Strahlungsfelder (NeRF), eine fortschrittliche KI-Technik, die gewöhnliche Bilder in 3D-Darstellungen umwandelt. Mit NeRF können wir den gesamten Kontext eines Ortes genau reproduzieren – einschließlich seiner Beleuchtung, der Textur von Materialien und dem, was sich im Hintergrund befindet.“ Zunächst wird die immersive Erkundungsmöglichkeit in London, Los Angeles, New York, San Francisco und Tokio möglich sein. Weitere Städte sollen in den kommenden Monaten folgen.

Besserer Übersetzer

Auch der Google-Übersetzer soll mithilfe von KI umfangreich erweitert werden. So werden etwa mehr kontextbezogene Übersetzungsoptionen angezeigt. In der Präsentation nennt Prabhakar Raghavan von Google etwa den englischen Begriff „novel“ als Beispiel, bei dem es sich unter anderem um einen Roman oder um etwas Neuartiges handeln kann. Je mehr Kontext der Nutzer in das Eingabefeld eingibt, desto besser soll Google übersetzen.

Besonders spannend: Google hat die Bildübersetzung erweitert. Filme oder fotografiere ich mit Google Lens Text etwa an einem Schild, dann soll es nun möglich sein, dass der Text direkt im Bild – quasi live – übersetzt wird. Wo eben noch deutsche Sprache zu lesen war, ist es auf dem Smartphone-Display plötzlich spanisch oder englisch. Maschinelles Lernen macht's möglich.

Google Übersetzer

Nette Anekdote zum Schluss: An der Live-Übersetzung bei YouTube sollte Google noch etwas arbeiten. Im Livestream der Google-Präsentation machte Googles Liz Reid aus „Thanks Prabhakar“ nicht ganz passend „Thanks for Vodka“. Das automatische Sprachverständnis hat also Nachholbedarf.