fbpx
Visuelle Suche

Google I/O 2018: 4 visuelle Innovationen von der Entwicklerkonferenz

8. Mai 2018
Google I/O 2018 Neuerungen in der visuelle Suche
Lass dir den Text vorlesen
Subscribe

Benötigte Lesezeit: 2 Minuten

Am 8. Mai 2018 übertrug Google live via YouTube die Keynote seiner jährlichen Entwicklerkonferenz aus Kalifornien. CEO Sundar Pichai und andere führende Mitarbeiter des Tech-Unternehmens stellten Innovationen vor, die unser Leben künftig beeinflussen können. Wir haben zugeschaut und stellen euch vier Neuerungen rund um visuelle Suche vor.

Google Lens und Google Fotos sind die wichtigsten visuellen Werkzeuge des Unternehmens aus Silicon Valley. Die interessantesten Innovationen verbinden maschinelles Sehen mit Maps oder dem intelligenten Assistenten. Fast alle Neuerungen werden im Google Assistant, dem Pixel Phone und auf Android Geräten (z.B. LG, Sony) verfügbar sein und innerhalb der kommenden Wochen und Monate ausgerollt.

1) Sprach- und visuelle Suche wachsen zusammen

Produktmanagerin Lilian Ricon verkündete, dass der Google Assistant künftig stärker mit einem Bildschirm verknüpft werden soll. Dies erlaubt Nutzern, YouTube Videos via Sprachkommando aufzurufen oder Videoanrufe zu tätigen, ohne den Bildschirm zu berühren.

Google Maps mit neuen visuellen Hinweisen in Echtzeit

Google Maps mit neuen visuellen Hinweisen in Echtzeit

2) Den richtigen Weg finden mit maschinellem Sehen

Mehr Beifall erntete die neue Version von Maps, dem Navigationswerkzeug von Google. Vorgestellt wurden die Innovationen von Vize Präsidentin Aparna Chennapragada, die von Anfang an ihren Fokus auf die visuelle Suche mit dem Smartphone legte. Google kombiniert das Finden via Kamera mit Navigation: Nutzer können nicht nur den richtigen Weg auf einer gezeichneten Landkarte nachverfolgen, sondern sehen z.B. Richtungspfeile in der Umgebung in Echtzeit. Zusätzlich werden wichtige Orientierungspunkte eingeblendet (Augmented Reality). Dank des visuellen Inputs wird das Finden einer unbekannten Adresse noch einfacher.

3) Lens erleichtert das Finden von Mode 

Die nächste Evolutionsstufe des visuellen Suchwerkzeuges “Lens” wurde mit Spannung erwartet. Aktuell nutzt Lens maschinelles Sehen, um Gegenstände oder z.B. Sehenswürdigkeiten zu erkennen und relevante Informationen bereitzustellen. Im kommenden Monat werden drei zusätzliche Features ausgerollt.

  1. Texterkennung: Die Smartphone-Kamera wird (mit Hilfe von NLP) Text auf fotografierten Dokumenten erkennen und ermöglicht dem Nutzer diesen zu kopieren und auszuschneiden.
  2. Style Match: Lens erkennt Mode und sucht nach ähnlichen Produkten online, die anschließend gekauft werden können.
  3. Echtzeit: Lens wird keinen zusätzlichen Tab (Klick) mehr benötigen, um Bildinformationen zu erkennen. Stattdessen wird es genügen, die Kamera auf ein Objekt zu richten. Hilfreicher Input wird dann in Echtzeit angezeigt.
Google Fotos kolorieren

Google Fotos kolorieren

4) Google Fotos macht Schwarzweißfotografien bunt

Google Fotos wartet ebenfalls mit mehreren neuen Funktionen auf. Sundar Pichai stellte diese persönlich vor und zeigte zum Beispiel die automatische Bildoptimierung. Begeisterung erzeugte der CEO jedoch mit der Möglichkeit, alte Schwarzweißfotos automatisch zu kolorieren. Ein nettes Spielzeug, das sicherlich viele Erinnerungen lebendiger macht.

Mein Fazit: Die Stichworte Artificial Intelligence (AI), Machine Learning (ML) und Deep Learning dominierten die Liveübertragung der Keynote. Wer sich für diese übergreifenden Themen begeistert, dürfte alle erwähnten Updates und Neuerungen mit großer Freude erwarten. Dennoch stellte Google keine bahnbrechenden Entwicklungen vor. Stattdessen stand die Evolution bestehender Tools im Fokus.

Titelbild: Pixaby

Diese Beiträge dürften dir gefallen

Kein Kommentar

Jetzt kommentieren