Die Nutzerperspektive
Die
Nutzer-
perspektive
Seeing AI ist eine Kamera-App, die Menschen mit eingeschränktem Sehvermögen und Menschen mit Erblindung ermöglichen, das Umfeld wahrzunehmen.
Für die Nutzer*innen kann Seeing AI Barrieren aufheben. Es ist mit der Anwendung möglich den Alltag für Menschen mit Sehbehinderung angenehmer zu gestalten und Aufgaben ohne Hilfe Dritter zu lösen. Seeing AI funktioniert ohne Vorkenntnisse, nach Start der Anwendung ist die Kamera aktiviert und durch Audiofeedback werden die Nutzer*innen durch die Anwendung geleitet. Sobald ein Werkzeug ausgewählt ist, wird die Auswahl auditiv bestätigt. Die Werkzeuge sind im unteren Teil des Bildschirms, auch eine Auswahl dieser über Spracheingabe ist möglich.
Das erste Werkzeug ist „kurzer Text“. Hier richtet man die Kamera auf einen Text, der dann automatisch vorgelesen wird. Grenzen sind hier keine gegeben, die Anwendung erkennt jegliche Art von Text. Schriftarten, Textgröße und Medium des Textes spielen für die Anwendung keine Rolle. Bei umfangreicheren Schriftstücken hilft das Werkzeug Dokument. Die Kamera kann auf gedruckte Seiten gerichtet werden, diese werden erfasst und anschließend mit Voice-Over Befehlen navigierbar gemacht.
Das Werkzeug-Produkt erkennt Dinge durch einen Barcode. Hier werden die Nutzer*innen angeleitet, bis sie nah genug an dem Barcode sind und die App diesen erkennt. Sie bekommen dann gesagt, um was für ein Produkt es sich handelt.
Ein weiteres Grundmerkmal der App ist die Personenerkennung. Diese Funktion bietet Nutzenden die Möglichkeit die Anzahl der Personen, die Entfernung dieser und den Gesichtsausdruck zu erkennen. Sie können genau sehen, wer wo im Raum steht. Die Anwendung liest hier die Personen von links nach rechts vor und nennt die Position. Eine weitere Funktion der Personenerkennung ist die Zuordnung von bekannten Gesichtern, die der KI antrainiert wurden. Auch das Alter wird meistens gut erkannt.
Als nächstes kann Seeing AI Währungen und einzelne Banknoten erkennen. Die Nutzer*innen richten auch hier das Smartphone in Richtung des Geldstücks und lassen dieses identifizieren.
Eine noch experimentelle Funktion lässt Szenen erkennen. Mit diesem Werkzeug wird ein Foto aufgenommen und die Szene im Anschluss beschrieben. Die KI kann viele Situationen beschreiben und gibt eine auditive Rückmeldung.
Das Werkzeug Welt funktioniert wie die vorherige Szenen Erkennung. Dabei können die Nutzer*innen die Welt mit der Kamera erfassen und mit räumlicher Audiowiedergabe die Orte erkunden. Erkannte Objekte werden mit einem Audiobeacon versehen. Dabei wird ein akustisches Signal ausgegeben, welches die Nutzenden zu dem Objekt leitet und den ihnen hilft zuverlässig das Objekt zu finden. Beispielsweise erkennt die App ein Fenster und die Person kann sich Entfernung und Richtung dazu ansagen lassen. Bei der Entfernungsmessung werden weiter entfernte Objekte mit einem leiseren Ton gekennzeichnet, nähere entsprechend lauter.
Das Werkzeug zur Farberkennung funktioniert wie die bisherigen, die Farben werden erkannt und vorgelesen. Hier ist spielt das Licht eine große Rolle, die Nutzer*innen können je nach Tageszeit und Lichtquelle unterschiedliche Ergebnisse für dasselbe Objekt erhalten.
Die Helligkeit wird von der App im letzten Werkzeug erkannt, hier wird ein Ton als Indikator für die Menge an Licht abgespielt. Die Tonhöhe beruht hier auf der Menge an Licht, die von dem Smartphone erkannt wird. Je mehr Licht vorhanden ist, desto höher ist der Ton.⁴

