Nachdem die Bild-Kontexterkennung Google Lens bislang nur auf Smartphones mit englischer Spracheinstellung funktionierte, hat Google in dieser Woche mit der Auslieferung des Dienstes in Deutsch begonnen. Google Lens steht ab sofort als Option über den Google Assistant zur Verfügung. Die Funktion erkennt über die Kamera-Linse des Smartphones aufgenommene Objekte, analysiert sie und ordnet sie zu.
Die neue Schaltfläche für Google Lens ist nach einen langen Druck auf die Home-Taste beim Öffnen des Google Assistant in der rechten unteren Ecke zu finden. Nach einem Tipp auf das kleine Kamera-Icon, öffnet sich automatisch die Kamera-Ansicht des Smartphones. Im Live-View erkennt Lens automatisch Objekte wie etwa Markennamen oder Pflanzen. Um die Funktion zu lenken, genügt ein Fingertipp auf das gewünschte Objekt. Sind viele unterschiedliche Objekte im Live-Bild zu sehen, hat das Feature gelegentlich noch Probleme bei der Erkennung.
Mit unterschiedlichen Objekten geht Lens auch unterschiedlich um, Bäume versucht die KI beispielsweise zu erkennen und mit einer Beschreibung zu versehen. Bei Text besteht wiederum die Möglichkeit, diesen zu kopieren und einzufügen. Web-Adressen können direkt angeklickt werden. Auch wenn die Benutzeroberfläche nun Deutsch ist, liefert Lens einige Erklärungen noch in Englisch. Zudem werden Beta-Teilnehmer früher mit der entsprechenden Funktion versorgt.