Apple przedstawiał nowe funkcje ułatwień dostępu w swoich systemach operacyjnych, które pojawią się jeszcze w tym roku.
Nowe funkcje obejmują etykiety ułatwień dostępu w App Store, lupę dla komputerów Mac, dostęp do alfabetu Braille'a i czytnik ułatwień dostępu, a także aktualizacje funkcji Live Listen, visionOS, Personal Voice.
Użytkownicy niewidomi lub niedowidzący będą mogli odkrywać, uczyć się i wchodzić w interakcje dzięki nowej aplikacji Lupa dla komputerów Mac, robić notatki i wykonywać obliczenia dzięki nowej funkcji dostępu do alfabetu Braille'a, a także korzystać z systemu kamer Apple Vision Pro dzięki nowym aktualizacjom systemu visionOS.
Etykiety dostępności
Etykiety dostępności to nowa sekcja na stronach produktów w App Store, która będzie podkreślać funkcje ułatwień dostępu w aplikacjach i grach. Etykiety te dają użytkownikom nowy sposób sprawdzenia, czy aplikacja będzie dla nich dostępna przed jej pobraniem, a deweloperom możliwość lepszego informowania i edukowania użytkowników na temat funkcji obsługiwanych przez ich aplikacje. Obejmują one VoiceOver, sterowanie głosowe, powiększony tekst, wystarczający kontrast, ograniczony ruch, napisy i wiele innych.
Nowa lupa dla komputerów Mac
Od 2016 roku lupa na iPhone'ach i iPadach zapewnia użytkownikom niewidomym lub niedowidzącym narzędzia do powiększania, czytania tekstu i wykrywania obiektów w otoczeniu. W tym roku lupa pojawi się na komputerach Mac, aby ułatwić dostęp do świata fizycznego użytkownikom z wadami wzroku. Aplikacja Lupa na komputery Mac łączy się z aparatem użytkownika, umożliwiając powiększanie otoczenia, np. ekranu lub tablicy. Lupa współpracuje z funkcją Continuity Camera w telefonach iPhone oraz podłączonymi kamerami USB i obsługuje czytanie dokumentów dzięki widoku Desk View.
Dzięki wielu oknom sesji na żywo użytkownicy mogą wykonywać wiele zadań jednocześnie, oglądając prezentację dzięki kamery internetowej i śledząc ją w książce dzięki widoku Desk View. Dzięki dostosowanym widokom użytkownicy mogą regulować jasność, kontrast, filtry kolorów, a choćby perspektywę, aby tekst i obrazy były łatwiejsze do zobaczenia. Widoki można również przechwytywać, grupować i zapisywać, aby dodać je później. Ponadto aplikacja Magnifier dla komputerów Mac jest zintegrowana z inną nową funkcją ułatwień dostępu, Accessibility Reader, która przekształca tekst ze świata fizycznego na dostosowany, czytelny format.
Nowe doświadczenie brajla
Dostęp do alfabetu Braille'a to zupełnie nowe doświadczenie, które zmienia iPhone'a, iPada, Maca i Apple Vision Pro w w pełni funkcjonalny notatnik brajlowski, głęboko zintegrowany z ekosystemem Apple. Dzięki wbudowanemu uruchamianiu aplikacji użytkownicy mogą łatwo otwierać dowolną aplikację, pisząc dzięki ekranowego wprowadzania brajlowskiego lub podłączonego urządzenia brajlowskiego. Dzięki Braille Access użytkownicy mogą gwałtownie robić notatki w formacie braille'a i wykonywać obliczenia dzięki Nemeth Braille, kodu braille'a często używanego w salach lekcyjnych do nauki matematyki i nauk ścisłych. Użytkownicy mogą otwierać pliki w formacie Braille Ready Format (BRF) bezpośrednio z Braille Access, uzyskując dostęp do szerokiej gamy książek i plików utworzonych wcześniej na urządzeniu do robienia notatek w braille'u. Zintegrowana forma napisów na żywo pozwala użytkownikom transkrybować rozmowy w czasie rzeczywistym bezpośrednio na wyświetlaczach braille'a.
Accessibility Reader
Accessibility Reader to nowy systemowy tryb czytania, zaprojektowany w celu ułatwienia czytania tekstu użytkownikom z różnymi rodzajami niepełnosprawności, takimi jak dysleksja lub słaby wzrok. Dostępny na iPhone'ach, iPadach, komputerach Mac i Apple Vision Pro, Accessibility Reader oferuje użytkownikom nowe sposoby dostosowywania tekstu i skupiania się na treści, którą chcą przeczytać, dzięki szerokim opcjom czcionek, kolorów i odstępów, a także obsłudze funkcji Spoken Content. Accessibility Reader można uruchomić z dowolnej aplikacji i jest on wbudowany w aplikację Magnifier dla systemów iOS, iPadOS i macOS, dzięki czemu użytkownicy mogą wchodzić w interakcję z tekstem w świecie rzeczywistym, na przykład w książkach lub menu restauracji.
Napisy na żywo na Apple Watch
Dla użytkowników niesłyszących lub niedosłyszących funkcja Live Listen została wzbogacona o nowy zestaw funkcji, w tym napisy na żywo wyświetlane w czasie rzeczywistym. Funkcja Live Listen zamienia iPhone'a w zdalny mikrofon, który przesyła strumieniowo treści bezpośrednio do słuchawek AirPods, aparatów słuchowych Made for iPhone lub słuchawek Beats. Gdy sesja jest aktywna na iPhonie, użytkownicy mogą wyświetlać napisy na żywo z tego, co słyszy ich iPhone, na sparowanym zegarku Apple Watch, jednocześnie słuchając dźwięku. Apple Watch służy jako pilot do uruchamiania i zatrzymywania sesji funkcji Live Listen lub powrotu do sesji, aby uchwycić coś, co mogło zostać pominięte. Dzięki Apple Watch sesjami funkcji Live Listen można sterować z drugiego końca pokoju, więc nie ma potrzeby wstawania w trakcie spotkania lub lekcji. Funkcja Live Listen może być używana wraz z funkcjami wspomagającymi słyszenie dostępnymi w słuchawkach AirPods Pro 2, w tym pierwszą w swoim rodzaju funkcją aparatu słuchowego klasy klinicznej.
Funkcja Live Captions została rozszerzona o obsługę języków angielskiego (Indie, Australia, Wielka Brytania, Singapur), chińskiego mandaryńskiego (Chiny kontynentalne), kantońskiego (Chiny kontynentalne, Hongkong), hiszpańskiego (Ameryka Łacińska, Hiszpania), francuskiego (Francja, Kanada), japońskiego, niemieckiego (Niemcy) i koreańskiego.
Aktualizacje CarPlay obejmują obsługę dużego tekstu. Dzięki aktualizacjom funkcji rozpoznawania dźwięków w CarPlay kierowcy lub pasażerowie niesłyszący lub niedosłyszący mogą teraz otrzymywać powiadomienia o płaczu dziecka, a także o dźwiękach dochodzących z zewnątrz samochodu, takich jak klaksony i syreny.