Die Türerkennung von Apple nutzt Fortschritte in Hardware, Software und maschinellem Lernen, um Menschen zu helfen blinde oder sehbehinderte Menschen verwenden ihr iPhone und iPad, um die letzten paar Meter zu ihrem zu navigieren Ziel.
Dies ist eine von mehreren innovativen Softwarefunktionen, die am Dienstag mit neuen Möglichkeiten für Benutzer mit Behinderungen vorgestellt wurden. Dazu gehören Live-Untertitel, Apple Watch Mirroring und mehr.
Apple setzt sich für Barrierefreiheit ein
„Apple bettet Barrierefreiheit in jeden Aspekt unserer Arbeit ein und wir sind bestrebt, die besten Produkte zu entwickeln und Services für alle“, sagte Sarah Herrlinger, Senior Director of Accessibility Policy and Apple Initiativen. „Wir freuen uns, diese neuen Funktionen vorzustellen, die Innovation und Kreativität von Teams kombinieren über Apple hinweg, um Benutzern mehr Möglichkeiten zu bieten, unsere Produkte so zu verwenden, wie es ihren Bedürfnissen am besten entspricht Leben."
Die Ankündigungen sind Teil von Apples Beobachtung des Global Accessibility Awareness Day am 19. Mai.
Finden Sie Ihr Ziel mit Door Detection
![Apple Door Detection-Demo Apple Door Detection-Demo](/f/9aaa279d52b511d24912fe63c51e1b34.jpeg)
Apple sagt, dass seine Türerkennungsfunktion Benutzern helfen kann, eine Tür zu finden, dem Benutzer mitzuteilen, wie weit sie von ihr entfernt sind, und sogar die Tür zu beschreiben.
Dazu gehört, ob es offen oder geschlossen ist. Wenn es geschlossen ist, muss es durch Drücken, Drehen eines Knopfes oder Ziehen eines Griffs geöffnet werden.
Die Türerkennung kann auch Zeichen und Symbole rund um die Tür lesen, wie z. B. die Zimmernummer in einem Büro.
Die kommende Funktion nutzt LiDAR und die Kamera des Mobilgeräts und wird auf iPhone- und iPad-Modellen mit integriertem LiDAR-Scanner verfügbar sein.
Die Türerkennung wird zusammen mit der Personenerkennung und den Bildbeschreibungen Teil eines neuen Erkennungsmodus in der Magnifier-App sein.
Live-Untertitel kommen auf iPhone, iPad und Mac
Apple führt Live-Untertitel für eine Reihe seiner Geräte ein. Ziel ist es, dass gehörlose und schwerhörige Benutzer allen Audioinhalten leichter folgen können, egal ob es sich um einen Telefon- oder FaceTime-Anruf, das Streamen von Medieninhalten oder ein Gespräch mit jemandem neben ihnen handelt.
Untertitel werden auf dem Gerät generiert, sodass sie privat bleiben.
Apple Watch-Spiegelung
Benutzer können eine Apple Watch von ihrem gekoppelten iPhone mit Apple Watch Mirroring fernsteuern. Benutzer können das Wearable mit den Hilfsfunktionen des iPhones wie Sprachbefehlen, Tonaktionen oder Kopfverfolgung als Alternative zum Tippen auf das Apple Watch-Display steuern.
„Apple Watch Mirroring verwendet Hardware- und Softwareintegration, einschließlich Fortschritten, die auf AirPlay aufbauen, um sicherzustellen, dass sich Benutzer darauf verlassen können Diese Mobilitätsfunktionen können von einzigartigen Apple Watch-Apps wie Blutsauerstoff, Herzfrequenz, Achtsamkeit und mehr profitieren“, so Apfel.
Weitere Sprachen für VoiceOver
VoiceOver, der Bildschirmleser von Apple, fügt Unterstützung für mehr als 20 zusätzliche Gebietsschemata und Sprachen hinzu, darunter Bengalisch, Bulgarisch, Katalanisch, Ukrainisch und Vietnamesisch. Benutzer können auch aus Dutzenden neuer Stimmen auswählen.
Diese neuen Sprachen, Gebietsschemata und Stimmen werden auch für „Auswahl sprechen“ und „Bildschirm sprechen“ verfügbar sein.
Quelle: Apfel