Aira ist ein professioneller Fernassistenz-Service für blinde und sehbehinderte Menschen in englischsprachigen Ländern. Die Firma Aira Tech wurde 2015 nach der Markteinführung der Google Glasses in Kalifornien gegründet und sammelte als Startup 38 Millionen Dollar Risikokapital. Bislang hatte das Unternehmen nicht vor, seinen Service auch in deutschsprachigen Ländern anzubieten. Aus diesem Grund habe ich 2022 das Fernassistenz-Projekt gestartet.
Aira hat professionelle Software, sehr viel praktische Erfahrung und arbeitet seit 2024 eng mit Googles KI-Schmiede DeepMind zusammen, weiß aber nur wenig über die speziellen Bedingungen auf dem deutschen und europäischen Markt (Rechtliches, Stakeholder, Fördermöglichkeiten, etc.). Über die Projektseite Fernassistenz.de suche ich geeignete Akteure, Stakeholder und Förderer in Deutschland und der EU, die an einem gemeinnützigen Joint Venture mit Aira interessiert sein könnten.
English version of this article (dubistblind.de/aira/english).
AI & RA
Der Name AIRA besteht aus zwei Komponenten. AI steht für Artificial Intelligence, also künstliche Intelligenz (KI), und RA steht für Remote Assistance, also Fernassistenz. Eigentlich sollte künstliche Intelligenz bereits 2015 eine große Rolle bei Airas Service spielen, aber bald stellte sich heraus, dass AI doch noch nicht gut genug und die menschliche Komponente wesentlich entscheidender war.
Seit März 2024 versucht AIRA erneut, künstliche und menschliche Intelligenz bestmöglich miteinander zu kombinieren. Die Nutzer von Aira können sich Fotos und Szenen automatisch beschreiben lassen und der KI dann weitere Fragen stellen. Diese Funktion bieten zwar auch die Apps von Be My Eyes, Seeing AI, Envision und neuerdings auch die der großen KI-Anbieter, aber mit Airas Service können KI-erzeugte Beschreibungen auf Knopfdruck zusätzlich von geschultem Personal überprüft und gegebenenfalls nachgebessert werden. Eventuelle Halluzinationen der künstlichen Intelligenz können so einfach erkannt und korregiert werden, was für blinde Menschen sehr wichtig ist.
AIRA und Google DeepMind
2024 wurden einige Monate lang Videochat-Sessions von blinden Nutzern mit den menschlichen Fernassistenzkräften von AIRA mitgeschnitten und für das Training eines KI-Modells benutzt. Seit Mai 2025 ist klar, dass es sich dabei um eine Zusammenarbeit mit Google DeepMind handelte. Die beiden Unternehmen haben nun offiziell ihre Partnerschaft angekündigt:
https://deepmind.google/models/project-astra
https://aira.io/introducing-project-astra-join-the-trusted-testers-waitlist-today
Was bedeutet die neue Partnerschaft von Aira mit Google für blinde und sehbehinderte Menschen? Airas CEO Troy Ottilio sprach mit den Machern des Doubletap-Podcasts über Airas bislang geheimgehaltene Partnerschaft mit Google DeepMind, Googles XR Glasses und die innovative Zusammenführung eines speziell trainierten, proaktiven KI-Modells mit der menschlichen Intelligenz professioneller Fernassistenz-Fachkräfte.
Inside Aira’s AI Future with Google DeepMind (Doubletap Video, YouTube, 22. Mai 2025)
Der Zugang zu Informationen ist ein Recht, kein Privileg.
Das sollte auch für visuelle Informationen gelten.
Was ist AIRA?
- Eine innovative Kombination aus assistiver Technologie, KI und zuverlässiger menschlicher Intelligenz.
- Ein visueller Dolmetsch- und Informationszugangsdienst für blinde und sehbehinderte Menschen.
- Eine wichtige Unterstützung bei Ausbildung, Studium, Arbeit, Jobsuche und im täglichen Leben.
- Ein Werkzeug, um unabhängiger von Freunden, Familie, Nachbarn, Kollegen und zufälligen Fremden zu werden.
- Ein Werkzeug, um digitale Barrieren im Web und auf Computern und Smartphones überwinden zu können.
- Ein Werkzeug, um den Umgang mit Fotos, Videos, Bildern, Grafiken und visuellen Layouts barrierefrei zu machen.
- Ein Werkzeug, um Unterstützung bei der Navigation in unbekannter oder schwieriger Umgebung zu erhalten.
- Ein Werkzeug, um mehr über das eigene Aussehen zu erfahren und es besser kontrollieren zu können.
- Ein Werkzeug, um sich bei der Erledigung intimer oder peinlicher Aufgaben diskret unterstützen zu lassen.
- Ein universelles Hilfsmittel, das seinen Nutzern mehr Unabhängigkeit, Flexibilität, Effizienz und Selbstwirksamkeit ermöglicht.
- Ein nach Minuten abgerechneter Service, der Menschen mit Menschen verbindet.
- Ein kleines Stück Sicherheit in der Tasche.
Wie funktioniert der Service?
Aira bezeichnet seine Assistenzkräfte als Agenten bzw. visuelle Dolmetscher und den Kontakt mit den Kunden als Session. Dazu öffnet der Nutzer die Aira-App auf dem Smartphone oder im Browser und fordert Assistenz an. Ein Agent meldet sich via Audioverbindung und der Nutzer schildert kurz, welche Unterstützung er braucht. Der Agent sieht den Videostream der Kamera des Nutzers oder loggt sich auf dessen Computer ein und assistiert dann nach dessen Anweisungen. Zusätzlich zum Videostream stehen den Agenten weitere Hilfsmittel zur Verfügung. Sie nutzen ein ausgeklügeltes Assistenz-Dashboard:
- Sie können den Standort der Nutzer in Echtzeit bei Google Maps sehen.
- Sie können mit der Kamera des Nutzers Fotos machen und diese auf ihrem eigenen Bildschirm vergrößert anzeigen lassen.
- Sie können diverse Tools nutzen (Screensharing, Bildbearbeitung, Recherche etc.).
- Bei Bedarf können sie mittels Fernzugriff auch Zugang zum Computer der Nutzer bekommen, um dort Dinge zu tun, die für diese selbst nicht barrierefrei möglich sind.
Eine Chat-Funktion macht den Dienst auch für taubblinde Menschen zugänglich. Das hilft auch in Situationen, in denen man nicht laut sprechen kann, z.B. bei Meetings und Veranstaltungen oder in der Stille der Nacht.
Während der Sitzung haben die Agenten Zugriff auf die Profilordner der Kunden. Darin befinden sich persönliche, von den Nutzern bereitgestellte Informationen wie z. B. bevorzugte Art von Navigationsanweisungen, Infos über oft besuchte Orte, spezielle Vorlieben, bekannte Allergien, sowie Fotos von wichtigen Personen, Produkten, Kartenausschnitten und Gebäudeplänen. Siehe auch: Fernassistenz mit Profilordnern effizienter machen.
Wer sind die Aira-Agenten?
Airas Agenten werden intensiv geschult, wurden zertifiziert, sind vertrauenswürdig, können gut kommunizieren, beschreiben sorgfältig, beachten den Datenschutz, berücksichtigen die individuellen Vorlieben der Nutzer und bieten einen professionellen Kundenservice.
Sie stellen visuelle Informationen bereit, indem sie beschreiben, vorlesen, erklären oder Navigationshinweise geben. Sie sagen, was im Blickfeld der Kamera oder auf einem Bildschirm zu sehen ist. Sie ersetzen keine blindentechnischen Fähigkeiten. Sie sind kein Ersatz für einen Langstock oder Führhund, sondern nur eine zusätzliche Informationsquelle.
Die Agenten durchlaufen eine Hintergrundüberprüfung und unterzeichnen eine Geheimhaltungsvereinbarung, die sie zur Vertraulichkeit verpflichtet. Nach jeder Sitzung kann man sie bewerten und einen Kommentar schreiben. Dieses Feedback dient der Qualitätssicherung. Bei Beschwerden können Angehörige des Top-Managements die aufgezeichneten Sitzungen kontrollieren und den jeweiligen Agenten bei Bedarf entsprechend nachschulen. Man kann die Aufzeichnung von Sitzungen aber auch jederzeit ablehnen.
Auf welchen Geräten läuft Aira?
Auf Smartphones mit iOS und Android, als Web-App im Browser, auf dem Tastentelefon Blind Shell Classic und dem Kamera-Headset von Envision. Es gibt ein Aira-SDK, um die Adaption für andere Systemumgebungen zu erleichtern.
Apps mit Smart Glasses freihändig nutzen
In vielen Situationen kann es für blinde und sehbehinderte Menschen sinnvoll sein, statt dem Smartphone ein Headset mit integrierter Kamera zu nutzen. Der Aufnahmebereich der Kamera wird durch die Bewegung des Kopfes gesteuert und beide Hände bleiben frei. Wenn das Smartphone in der Tasche bleibt, kann es unterwegs auch nicht versehentlich fallengelassen oder unerwartet von einem Dieb aus der Hand gerissen werden. Alternativ kann man sich das Telefon auch mit der Kamera nach vorn in einer Hülle um den Hals hängen oder es mit einem Brustgeschirr oder Nackenhalter am Körper befestigen.
Das niederländische Unternehmen Envision entwickelt seit 2020 neben seinen KI-basierten Apps für blinde Menschen auch eine modifizierte Version der Google Glass Enterprise Edition 2, die seit 2022 auch mit Aira genutzt werden kann. Google verkaufte diese „Brille“ mit dem technischen Stand von 2016 für circa 1000 Dollar und stellte den Vertrieb 2023 ein. Derzeit kosten die Envision Glasses in Deutschland noch zwischen 3.000 und 4.000 Euro. 2023 wurden sie ins Hilfsmittelverzeichnis der deutschen Krankenkassen aufgenommen.
Da viele Firmen wegen der zahlreichen Einsatzmöglichkeiten von künstlicher Intelligenz inzwischen an Headsets mit integrierter Kamera arbeiten, wird es wahrscheinlich bald eine größere Auswahl dieser Wearables geben. Beispiele dafür sind die Smart Glasses von Meta und Ray Ban, das bereits etwas ältere Modell von ARX Vision und die für den Spätsommer 2025 angekündigten Echovision Smart Glasses von Agiga, die speziell für blinde Menschen entwickelt werden und rund 500 Dollar kosten sollen.
Da AIRA im Mai 2025 bekannt gegeben hat, dass sie schon seit einem Jahr eng mit Google zusammenarbeiten, wird Airas Service voraussichtlich auch auf den XR Glasses laufen, die Google bei der Entwicklerkonferenz I/O 2025 vorgestellt hat. Auf den Smart Glasses von Meta wird bislang nur die App von Be My Eyes angeboten; AIRA-Nutzern bleibt dort nur der Umweg über einen WhatsApp-Videochat.
Weltweit träumen viele blinde Menschen von einem bezahlbaren Headset ohne Display und mit integrierter Kamera, mit dem man die Apps auf seinem Smartphone direkt nutzen kann. Die Hoffnungen sind groß!
Wer nutzt Aira?
Aira bezeichnet seine Kunden als Explorer, also Entdecker. Bei diesen handelt es sich vor allem um blinde und sehbehinderte Menschen. Es gibt aber auch anderweitig eingeschränkte Personen, die den Service ebenfalls nutzen. Die Bedürfnisse und Fähigkeiten blinder Menschen sind sehr unterschiedlich. Manche brauchen viel Hilfe, manche nur selten. Manchmal dauert es nur eine Minute, manchmal wesentlich länger.
Airas Community-Arbeit war lange Zeit vorbildlich. Sie haben bereits über 100 Podcasts veröffentlicht und sind oft auch bei anderen Podcasts zu Gast. Sie sind in den sozialen Medien aktiv (Facebook, Twitter, Mastodon, YouTube, Instagram); Es gibt eine Kunden-Hotline, eine Mailingliste, eine Facebook-Gruppe sowie einen Slack-Kanal für Betatester.
Wofür wird Aira genutzt?
Es existieren zahlreiche Erfahrungsberichte blinder und sehbehinderter Aira-Nutzer. Beim Einsatz professioneller Fernassistenz sind der Fantasie nur wenige Grenzen gesetzt. Hier sind einige aus dem Englischen übersetzte Beispiele:
- Digitale Barrieren im Internet und auf dem Computer überwinden (38 Beiträge).
- Unabhängiger sein von Freunden, Familie, Nachbarn, Kollegen und zufälligen Fremden (38 Beiträge).
- Orientierung und Mobilität in unbekannter/schwieriger Umgebung (42 Beiträge).
- Fernassistenz hilft gegen Ängste beim allein unterwegs sein (15 Beiträge).
- Reisen und alleine sein an fremden Orten (12 Beiträge).
- Sehr private oder unangenehme Aufgaben erledigen (12 Beiträge).
- Kulturelles, Kinder, Kochen, Ausflüge, Beschreiben, Vorlesen, Low Vision und mehr (28 Beiträge).
- Fotos machen, bearbeiten, betiteln und beschreiben lassen (20 Beiträge).
- Dinge zusammenbauen, verstehen, einstellen, bedienen und finden (22 Beiträge).
- Persönliche Profilordner machen Fernassistenz effizienter (12 Beiträge).
- Besser aussehen mit Fernassistenz (14 Beiträge).
- Fernassistenz als Arbeitsassistenz in Ausbildung, Studium und Beruf (14 Beiträge).
Wir haben uns so daran gewöhnt, dass wir nur dann Hilfe bekommen, wenn es jemandem passt, und nicht, wenn wir sie brauchen oder wollen. Ich werde immer besser darin, Aira in meinen Alltag zu integrieren. Wenn ich die Beiträge von anderen Nutzern lese, entdecke ich oft neue Möglichkeiten, den Dienst zu nutzen, auf die ich sonst nie gekommen wäre.
Über das Unternehmen Aira Tech
Die Idee zu Aira entstand 2014 in Kalifornien. 2015 wurde daraus ein Startup. Aira beschäftigt bereits mehr als 120 Mitarbeiter und ist weltweit in fünf englischsprachigen Ländern rund um die Uhr an 365 Tagen aktiv. Aira gehört der Blue Diego Investment Group. Die aktuellen Besitzer sind nicht namentlich bekannt. Der CEO heißt Troy Ottilio.
Mit bislang über 5 Millionen Anrufen wird der Service von Privatpersonen, Angestellten und Kunden von vielen Organisationen genutzt, darunter Behörden, Universitäten, ÖPNV-Anbieter, Flughäfen, Banken, Softwarefirmen, Finanzdienstleister und Einzelhändler. Dazu zählen unter anderem auch Google, Microsoft, Amazon, Freedom Scientific, Sales Force, Intuit, Target, Starbucks und Bundesstaaten wie Connecticut, Colorado und Alabama.
Aira nennt seinen Service „visual interpreting“,also visuelles Dolmetschen, und setzt sich in den USA gerade dafür ein, diese Form der Assistenzleistung rechtlich mit dem dort bereits anerkannten Anspruch auf Gebärdensprachdolmetschen und Video-Telekommunikationsdienste gleichstellen zu lassen.
Die Firma hat seit 2015 laut eigenen Angaben 38 Millionen Dollar Risikokapital bekommen. Einiges davon floß in die Entwicklung einer virtuellen Assistentin namens Cloe und in die Entwicklung eines Kamera-Headsets. Diese Arbeiten wurden jedoch 2019 eingestellt. Noch mehr Geld wurde in die großzügigen Angebote gesteckt, die auch nicht zahlenden Aira-Nutzern kostenlos zur Verfügung standen und teilweise immer noch stehen, z.B. bis zu fünfminütige freie Anrufe und als Unterstützung bei der Jobsuche und bei der Durchführung von Covid-Schnelltests.
2019 wurde ein Großteil des Risikokapitals anscheinend wieder abgezogen und wichtige Stakeholder verließen das Unternehmen. Anfang 2020 gab es dann einen Besitzerwechsel, eine Umstrukturierung und einen neuen Geschäftsführer. 2023 war wieder einiges im Umbruch. Die kostenlosen Angebote wurden weiter eingeschränkt. Der Service wird nach Minuten abgerechnet. Der Preis lag lange bei circa einem Dollar pro Minute, wurde Anfang 2023 aber stark erhöht.
Airas Geschichte
Di Idee zur Gründung von Aira entstand 2014, als die beiden Intuit-Mitarbeiter Suman Kanuganti und Yuja Chang sich in San Diego mit dem blinden Kommunikationsprofi Matt Brock anfreundeten. Die drei diskutierten über die typischen Probleme blinder und sehbehinderter Menschen und darüber, wie die damals neuartige Google Glass- Technologie genutzt werden könnte, um dieser Personengruppe zu mehr Mobilität und Unabhängigkeit zu verhelfen. Suman war besonders beeindruckt von einem Kommentar von Matt, der sagte: „Die größte Herausforderung für blinde Menschen ist nicht unbedingt der Sehverlust, sondern der fehlende Zugang zu Informationen, die den meisten sehenden Menschen täglich zur Verfügung stehen.“
Diese Gespräche führten dazu, dass Suman und Yuja anfingen, einen Prototyp zu entwickeln, der Google Glass mit menschlicher Unterstützung durch Fernassistenzkräfte kombinierte, um blinden Menschen spontanen Zugang zu visuellen Informationen und Unterstützung zu bieten, wann und wo sie es wünschen. Kurz danach lernte Suman Larry Bock kennen, einen prominenten Unternehmer und Risikokapitalgeber. Bock, selbst seit langem sehbehindert und inzwischen fast blind, war von der Idee von Aira so begeistert, dass er nicht nur Nutzer wurde, sondern als Investor auch Airas erster Business Angel und später erster Vorsitzende des Leitungs- und Kontrollgremiums.
Siehe auch: Larry Bock – sehbehinderter Entrepreneur, Multimillionär und Visionär.
2014 begannen die Aira-Gründer mit ersten Versuchen. Es wurden mehr als 50 Experimente und 200 ausführliche Interviews mit blinden Nutzern durchgeführt. Im Sommer 2015 gab es dann bereits mehr als 100 Beta-Tester und 8 formelle Fokusgruppen mit Mobilitäts- und Orientierungsspezialisten, Hilfsmittelexperten und Reha-Beratern. Ab diesem Zeitpunkt stieg auch die Selbsthilfeorganisation NFB mit ein. Viele blinde Menschen engagierten sich ebenfalls für Aira, so z.B. Jonathan Mosen, Paul Schroeder, Greg Stilson, Ryan Bishop, Joshua Miele, Michael Hingson, Jenine Stanley, Everette Bacon und viele andere.
Typische Einsatzbereiche für Fernassistenz
Computer:
Bei 30% der Aira-Sitzungen geht es um Aktivitäten auf dem Computer. Mittels Fernzugriffswerkzeugen wie TeamViewer oder Microsofts Quick Assist und Screensharing können die Nutzer sich bei vielen Dingen helfen lassen.
Typische Aufgaben: Beschreiben von Produkten beim Online-Shopping. PDF-Dokumente ausfüllen und unterschreiben. Texte visuell formatieren. Layouts überprüfen. Mit Grafiken und Bildern arbeiten. Aktionen auf Websites und in Programmen ausführen, die nicht barrierefrei bedienbar sind. Lösen von visuellen Sicherheitsabfragen (Captchas). Bildschirminhalte beschreiben. Mit Screenreadern nicht zugängliche Fehlermeldungen vorlesen. 38 Erfahrungsberichte.
Navigation:
Bei 15 Prozent der Sitzungen geht es um die Navigation in unbekannter oder schwieriger Umgebung. Die Agenten werden bezüglich der unterschiedlichen Orientierungs- und Mobilitätsfähigkeiten blinder Menschen geschult. Man kann Fernassistenz zwar nicht als alleinige Mobilitätshilfe benutzen. In Verbindung mit einem weißen Langstock oder Führhund bekommt man damit aber viele nützliche Informationen. Für einen blinden Menschen mit Langstock kann ein Agent ähnliche Dinge tun wie ein Führhund, beispielsweise Auffinden von Türen, Treppen, Fahrstühlen, Ampelpfosten, Servicepoints, aber auch Ampelphasen und fahrende Autos ansagen und natürlich auch die Umgebung beschreiben.
Typische Aufgaben: Hilfe bei der Orientierung. Wege finden. Freiflächen überqueren. Navigationshinweise bekommen. Kennenlernen und Einüben neuer Routen. Reiseinfos auf Bildschirmen lesen. Umsteigehilfe auf Bahnhöfen und Haltestellen. Sitzplatz finden. Wo ist mein Taxi?Kann der Fahrer mich sehen? Es kommt auch immer wieder vor, dass man von Taxifahrern an der falschen Stelle abgesetzt wird, was man aber meist zu spät bemerkt. In diesem Fall kann man sich dann an den richtigen Ort lotsen lassen. 42 Erfahrungsberichte.
Angst und Sicherheit:
Fernassistenz verbessert das Sicherheitsgefühl, da man unterwegs bei Bedarf jederzeit Hilfe bekommen könnte. Fernassistenz in der Tasche zu haben, hilft gegen die Angst beim Gehen unvertrauter Wege und auch, wenn man nachts oder an einsamen Orten unterwegs ist oder sich in ungewisse Situationen begibt. 14 Erfahrungsberichte.
Fotos:
Die Agenten können Fotos machen, sie bearbeiten, mit einem Namen und einer Bildbeschreibung versehen und auf dem Gerät des Nutzers oder in seinem Aira-Profilordner speichern oder auch als E-Mail schicken. Wenn etwas vorgelesen werden soll oder man etwas sucht, ist es oft praktischer, wenn der Agent schnell ein Bild macht, um es zu vergrößern. Dazu gibt er Hinweise, so dass der Nutzer seine Kamera optimal ausrichten kann. Vielleicht will man auch mal ein schönes Foto von einer besonderen Situation, einem Haustier oder Menschen machen, um es in sozialen Medien oder mit Familienmitgliedern oder Freunden teilen zu können. Zitat einer Aira-Nutzerin: „Mein Facebook-Profil sieht jetzt sehr viel ähnlicher aus wie das von sehenden Menschen“. 21 Erfahrungsberichte.
Aussehen:
Kleidung auswählen. Ein Outfit zusammenstellen. Farbliche Abstimmung. Verschiedene Meinungen einholen. Fleckenkontrolle. Make Up überprüfen. 12 Erfahrungsberichte.
Unangenehmes und Privates:
Gelegentlich braucht man Hilfe bei Dingen, mit denen man eigentlich niemanden belästigen möchte, die aber erledigt werden müssen. Die Aira Agenten sind das gewohnt. Sie helfen beim Lokalisieren und Beseitigen von Tierkot und Erbrochenem und beschreiben auch menschliche Wunden sowie Urin- und Stuhlproben. 12 Erfahrungsberichte. Andere Einsatzszenarien bei Haustieren: Optische Kontrolle auf Verschmutzung, Wunden, Krankheitssymptome und Zecken sowie Hilfe bei der dosierung und Verabreichung von Medikamenten.
Unterwegs:
Vorlesen von Aushängen und Anzeigetafeln. Hilfe bei der Bedienung von Automaten, Terminals und nummernbasierten Anmeldesystemen. Öffentliche Toiletten finden und vor Benutzung auf Sauberkeit überprüfen. Gastronomie: Auffinden eines freien Tisches. Vorlesen der Karte. Personal auf sich aufmerksam machen.
In Hotel oder Krankenhaus:
Verstehen der technischen Einrichtungen wie Thermostat, Badezimmerarmaturen, Telefon, TV-Fernbedienung. Vorlesen von WLAN-Passwort und Preislisten. Identifizierung bereitgestellter Körperpflegeprodukte. Was gibts in der Minibar? Was zeigt der Blick aus dem Fenster? Eigenes Zimmer, Frühstücksraum, Rezeption etc finden. Hilfe beim Frühstücksbuffet. Spazierengehen auf dem Gelände. Besuch der Cafeteria. Einkaufen von Kleinigkeiten. 12 Erfahrungsberichte.
Studien- und Arbeitsassistenz:
Ausbildung, Studium und Beruf: Präsentationsfolien beschreiben. Eigene Präsentationen erstellen und kontrollieren. Etwas über die Reaktionen der Zuhörerschaft bei Vorträgen erfahren. Moderationsunterstützung. Hebt gerade jemand die Hand? Wurde mein Hand heben bemerkt? Ein Whiteboard oder unzugängliche gedruckte Handouts lesen. Über den Campus streifen. Zurechtfinden am Veranstaltungsort. Ein Büro oder einen bestimmten Arbeitsplatz finden. Bürogeräte bedienen. Post und Papiere sortieren. Handschriftliche Notizen von Kollegen lesen, usw. 14 Erfahrungsberichte.
Dinge verstehen, einstellen und bedienen:
Inbetriebnahme neuer Geräte. Kennenlernen der Bedienelemente und ihrer Funktionen. Tasten auf Fernbedienung lernen. Zugänglichmachung nicht-barrierefreier Anleitungen. Dinge zusammenbauen. Durch die Menüs von Fernsehern oder Videospielen navigieren. Ist das Gerät an? Leuchtet das Lämpchen? Wo stecke ich das Kabel hinein? Funktioniert der Drucker richtig? Wie lautet die Seriennummer?
Weiterführende Links
Airas Website aira.io
Aira bei Linkedin
Aira bei YouTube
** Geschrieben von Per Busch, zuerst veröffentlicht im Februar 2023, seitdem gelegentlich überarbeitet **