Die Nutzerperspektive
Die Nutzung von Lens erfolgt über ein Smartphone. Es gibt verschiedene Wege, über die auf den Dienst zugegriffen werden kann. Diese sind jeweils abhängig vom verwendeten Betriebssystem des jeweiligen Smartphones. Da Lens nur auf Android und iOS funktioniert, werden in der vorliegenden Fallstudie nur diese beiden Betriebssysteme betrachtet.
Bei dem Betriebssystem Android können sich Nutzer*innen entweder die App “Google Lens” herunterladen oder über bestimmte andere Apps, in welche Lens integriert ist, aktivieren (z.B. Google Assistant, Google Fotos, Google Maps und ausgewählte Kamera-Apps; jeweils mit dem Lens-Logo kenntlich gemacht). Nutzer*innen von Geräten mit iOS hingegen müssen sich die allgemeine Google App oder “Google Fotos” herunterladen, um auf den Dienst zugreifen zu können. Nachdem die App einmal geöffnet bzw. Lens aktiviert ist, unterscheidet sich die Nutzung nicht mehr.⁷
Bei der Aktivierung von Lens durch das Öffnen der App oder das Klicken auf das Lens-Symbol bekommen Nutzer*innen als erstes ihre Umgebung durch die Kamera angezeigt. Am unteren Rand des Bildschirms lassen sich verschiedene Optionen wählen: “Übersetzen”, “Text”, “Suchen”, “Hausaufgaben”, “Shopping”, “Orte” und “Essen”. Je nachdem, um welche Kategorie es sich bei dem Objekt handelt, ist hier eine entsprechende Auswahl zu treffen. Das Bild muss nicht zwingend in dem Moment aufgenommen werden. Über einen Button auf der linken Seite kann man auch ein schon aufgenommenes Bild scannen lassen.
Wird ein Bild aufgenommen oder ein bestehendes ausgewählt, dauert es in der Regel nicht länger als ein bis zwei Sekunden und die Nutzer*innen bekommen, ähnlich wie bei der Suchmaschine, eine Vielzahl von Suchergebnissen mit Bildern angezeigt, die mit einem Link versehen sind. In der Mitte des Bildschirms erscheint eine kurze Beschreibung des Objektes, dass die Lens erkannt hat.
Durch ein Kreuz am oberen linken Bildschirmrand kehrt man zur Ausgangsposition vor der Suche zurück.

