Einen Schwerpunkt auf Googles diesjähriger Entwicklerkonferenz Google I/O machte die Nutzung von Smartphone-Kameras für die Eingabe von Suchbegriffen und die Nutzung von Googles Suchmaschine aus. Während die Google-Suche in den vergangenen Jahren überwiegend durch die Texteingabe eines Suchbegriffs gestartet wurde, soll das künftig auch durch den Einsatz der Smartphone-Kamera möglich werden. Als Weiterentwicklung der Bildersuche ist die native Kamera-App dabei direkt an die Google-Suchmaschine angebunden und löst eine Suche über das Live-Bild aus.
Einen wichtigen Baustein dafür liefert die Google-KI Lens . Früher exklusiv für Pixel-Smartphones erhältlich, hat Google die Software mittlerweile auch per App für andere Geräte geöffnet. Im nächsten Schritt soll Lens in den nativen Kamera-Apps der Smartphone-Hersteller zum Einsatz kommen. Hier scannt die künstliche Intelligenz etwa automatisch Texte ein, zeigt Kartenpreise anhand von Konzertpostern an und findet ähnliche Artikel beim Online-Shopping.
Die Umsetzung erweist sich für Google als schwierig. Eine Herausforderung bestünde laut Google-Managerin Aparna Chennapragada darin, nur wirklich relevante Informationen in der Kamera-App-Suche einzublenden. Für die Analyse kommen gleich mehrere spezialisierte Programme zum Einsatz, die das gefilmte analysieren und ihr jeweiliges Wissen zum Objekt besteuern. Ein übergeordnetes System entscheidet dann, welche Details dem Nutzer tatsächlich angezeigt werden. Die zweite Hürde stellt die korrekte Erkennung von Objekten dar. Google Lens müsse in der Lage sein, Objekte zu erkennen, auch wenn sie schlecht ausgeleuchtet oder halb verdeckt sind. Es bleibt abzuwarten, um welche Funktionen der Konzern seine KI künftig noch erweitern wird.