Dostępnik o technologiach asystujących
Technologie asystujące to takie, które kompensują ograniczenia wynikające z niepełnosprawności. A jednak korzystają z nich niemal wszyscy, bo są po prostu wygodne.
Sam zaproponowałem, to mam. Na linkedin opublikowałem ankietę z pytaniem, co ma być tematem kolejnego Dostępnika. Zdziwiłem się trochę, bo najwięcej głosów padło na technologie asystujące. Temat jest bardzo rozległy i zasługuje na całą książkę, a nie newsletter. Musiałem zatem przyjąć jakiś klucz. Znalazłem go, ale o tym za chwilę.
Czym są technologie asystujące?
Technologie asystujące (ang. assistive technologies) są technologiami pomagającymi w codziennym funkcjonowaniu. Pomagają zobaczyć, usłyszeć, zrozumieć lub przemieścić się. Takimi technologiami są zatem alfabet Braille’a, aparat słuchowy, ETR czy wózek inwalidzki. Są nimi także biała laska, piktogramy, winda, podjazd, pętla indukcyjna i setki innych rozwiązań. Nie da się tego wszystkiego opisać, więc moim kluczem będzie mój iPhone i jego centrum ułatwień dostępu. Potraktuj to jednak tylko jako przykład, bo podobny zestaw technologii znajdziesz w niemal każdym systemie operacyjnym. A zatem zaczynajmy podróż.
Czytnik ekranu
Czytnik ekranu to oprogramowanie, które pozwala na odczytanie informacji z graficznego interfejsu użytkownika i przekazać je do syntezatora mowy. Celowo nie piszę, że z ekranu, bo zazwyczaj tego akurat czytnik ekranu nie robi. Jeszcze 20 lat temu czytniki ekranu były dostępne za grubą kasę. Teraz wszystko się zmieniło. Czytniki ekranu są wszędzie.
W Windows jest Narrator, który możesz uruchomić skrótem Ctrl+Windows+Enter.
MacOS ma VoiceOver, który uruchomisz skrótem Cmd+F5.
ChromeOS jest wyposażony w ChromeVox, który odpalisz naciskając Ctrl+Alt+z.
iOS ma VoiceOver, który uruchomisz trzykrotnym naciśnięciem przycisku blokady ekranu lub przycisku Home, jeżeli go jeszcze masz.
Android ma swój własny czytnik TalkBack, który jest uruchamiany na 100 różnych sposobów. Najpewniejszym jest otwarcie ustawień i włączenie go w tym miejscu.
Nadal istnieją komercyjne czytniki ekranu za kilka tysięcy złotych. Jednak sens ich kupowania jest właściwie żaden. Jeżeli chcesz spróbować używania, to pamiętaj że na komputerze musisz zapomnieć o myszce i touchpadzie, a na smartfonie o standardowych gestach. Możesz też obejrzeć nagranie z webinaru o używaniu czytnika ekranu NVDA:
Czytnik eranu musi mieć jakiś interfejs na wyjściu. Obecnie najczęściej jest to syntezator mowy, ale może to być także monitor wyświetlający alfabet braille’a. Poszukiwania kolejnych interfejsów trwają i jednym z takich innowacyjnych jest sygnalizowanie dźwiękiem informacji z wykresu. Dźwięk zmienia wysokość, w zależności od wartości na wykresie, dzięki czemu można usłyszeć przebieg. Takie rozwiązanie jest w iOS i można je sprawdzić na przykład w aplikacji Czas przed ekranem.
Dostosowanie wyglądu ekranu
Użytkowników z ograniczeniami widzenia jest znacznie więcej, niż osób niewidomych. W pewnych warunkach nawet dobrze widzące osoby mogą mieć problem, na przykład w ostrym słońcu. Dlatego zestaw technologii asystujących dla takich użytkowników jest bardzo bogaty. Można tu wymienić:
Zwykłe powiększenie ekranu, czyli lupa.
Powiększanie samego tekstu. W przeglądarce internetowej służy do tego skrót Ctrl +.
Odwracanie kolorów i stosowanie filtrów barwnych.
Powiększanie i pogrubianie czcionek.
Wyróżnianie fokusu klawiatury na komputerach.
Obrysowywanie aktywnych elementów interfejsu na smartfonach.
Zachęcam wszystkich do zajrzenia do tych narzędzi. Może przestaniesz mrużyć oczy przy wpatrywaniu się w cieniutkie fonty na pastelowych tłach. Dodam jeszcze, że smartfon może być pomocny w oglądaniu odległych rzeczy. Od czego fokus sprzętowy i cyfrowy w aparaacie.
Sterowanie urządzeniem
Nie dla każdego idealnym interfejsem jest ekran dotykowy lub myszka. Czasem trudno jest wykonać precyzyjny gest na ekranie, poruszyć myszką, wcelować w ikonę. A czasem do dyspozycji pozostają tylko oczy i usta. Tu także odpowiedzią są technologie asystujące, na przykład:
Klawisze trwałe ułatwiające wykonanie skrótu klawiaturowego.
Sterowanie głosem, czyli wydawanie komputerowi lub smartfonowi poleceń głosowych. Jeżeli masz dostęp do komputera od Apple, możesz to wypróbować.
Dostosowywanie precyzji i szybkości działania klawiatury, myszy, ekranu dotykowego.
Dostosowanie gestów i tworzenie nowych.
Przełączniki (ang. switch), czyli sterowanie jednym przyciskiem. Może to być przycisk w postaci oddzielnego urządzenia, ekranu smartfona, a nawet ruchów głowy. Opiszę działanie na przykładzie ekranu z ikonami aplikacji. System przestawia fokus, czyli podświetlenie ikon co 2 sekundy. W momencie gdy trafi na odpowiednią ikonę, użytkownik musi tylko nacisnąć przełącznik. Wyobraź sobie, ile jest roboty z pisaniem na klawiaturze tą metodą…
Metod sterowania jest jeszcze znacznie więcej. Można sterować wzrokiem, dmuchając w specjalny ustnik, a wkrótce zapewne będzie można sterować myślami.
Jak zobaczyć dźwięk?
Technologie dla osób z ograniczeniami słuchu rozwinęły się w ostatnim czasie zupełnie niesamowicie. To już nie tylko napisy w filmach i język migowy. A część z tych rozwiązań jest dość nieoczywistych.
Rozpoznawanie mowy jest idealnym rozwiązaniem komunikacyjnym. Firma Google wydała aplikację działającą w czasie rzeczywistym. Jest darmowa, więc możesz się nią pobawić, chociaż tylko na Androidzie.
Rozpoznawanie dźwięków to jedna z tych niezwykłych technologii, które mało komu przychodzą do głowy. W iOS jest narzędzie, które potrafi rozpoznać szczekanie psa, płacz dziecka, syrenę alarmową i wiele innych dźwięków. A potem wyświetlić powiadomienie o tym na ekranie, zawibrować i zaświecić diodą. Zainteresuj się tym rozwiązaniem, jeżei pracujesz ze słuchawkami na uszach. Nie umknie Ci dzwonek do drzwi lub płacz dziecka.
Pętle indukcyjne kojarzą się zazwyczaj z pętlami kabli i wzmacniaczem, o ile w ogóle ktoś kojarzy to rozwiązanie. Jednak od pewnego czasu są montowane w smartfonach, dzięki czemu aparat słuchowy otrzymuje sygnał bezpośrednio, a nie poprzez ucho.
Do tego warto dodać drobiazgi w rodzaju powiadomień wizualnych zamiast słuchowych, programowalne wibracje i diody. Można zatem zobaczyć dźwięki, gdy nie można ich usłyszeć.
Co jeszcze?
Warto jeszcze wspomnieć o kilku technologiach, które rozwijają się bardzo dynamicznie.
Alternatywna i rozszerzona komunikacja (AAC) to cała rodzina narzędzi przeznaczonych dla osób, które nie mogą mówić. Osoby z afazją, porażeniem mózgowym, autyzmem, głuche.
Rozpoznawanie obrazów, począwszy od rozpoznawania tekstu, przedmiotów, osób, aż po emocje, wiek i co tam sobie jeszcze wymyślisz.
Uproszczone interfejsy użytkownika przeznaczone dla seniorów, osób o obniżonej normie intelektualnej lub przeładowanych informacjami.
Technologie wspomagające czytanie, w tym podkreślanie tekstu, zamiana wyrazów na grafiki itp. Zachęcam Cię mocno do pogrzebania w ustawieniach trybu Reader w przeglądarce Edge. Uruchomisz ten tryb klawiszem F9.
Mógłbym tak jeszcze długo, ale i tak jest tego dużo. Przed nami zaś coraz większe rzeczy, na przykład automatyczne tłumaczenia na język migowy, interfejsy adaptujące się do użytkownika, przyjazne awatary i tylko niebo nas ogranicza.
Jaki to ma związek z dostępnością?
Kilkanaście lat temu ułożyłem sobie takie 3 stopnie dostępu do informacji dla osób z niepełnosprawnościami:
Kompetencje użytkownika, w tym w korzystaniu z technologii asystujących.
Dostęp do technologii asystujących.
Dostępność treści i interfejsów.
Kompetencje użytkowników zależą przede wszystkim od nich samych, bo trzeba się nauczyć korzystania z technologii. Same technologie są już szeroko obecne i w zasadzie nie trzeba wydawać dodatkowych pieniędzy, poza pewnymi wyjątkami. Natomiast dostępność zależy od twórców: programistów, projektantów, redaktorów treści. Technologie asystujące działają świetnie z treściami dostępnymi. Czasem pozwalają zamienić coś niedostępnego w dostępne lub prawie dostępne. Czasem są jednak bezradne. Dlatego ta cała cyfrowa dostępność jest tak ważna.
Zadaniem projektanta, programisty, redaktora jest zatem dostarczanie dostępnych treści i interfejsów. Natomiast nie jest ich zadaniem dodawanie technologii asystujących, nawet jak kusi. Nie dodawaj mówiących stron, powiększania, zmiany kolorów i innych ficzerów. No chyba że inaczej się nie da.
Wieści o dostępności
Grupa robocza “Sztuczna inteligencja i dostępność” zebrała się po raz drugi. Gościem specjalnym był Dominik Batorski, który na SI zjadł zęby. Opisał nam, na czym polega działanie dużych modeli językowych, na czym polega tokenizacja, pretraining, douczanie, czym jest halucynowanie. Potem pomęczyliśmy go pytaniami. Mam kolejne klocki powkładane do układanki. Teraz nadszedł czas na generowanie pomysłów na wykorzystanie AI. Może zapytam o to GTP. A może Ty masz pomysł na wykorzystanie AI w Dostępności?!
W podcaście Fundacji Katarynka pojawił się kolejny epizod, tym razem o grach. O tym jak w różne gry grają osoby niewidome i jak sobie radzą. Zaczyna się od gier RPG w różnych odmianach, a do tego wątek na temat dostępności gier wideo. Jest też fragment dobrze korespondujący z tym numerem Dostępnika.
Agata Gawska nagrała wideotutorial o używaniu Planera. Na razie materiał jest bardzo surowy, ale niechże idzie w świat.
I to by było na tyle. Piszę ten tekst w Jastarni podczas zasłużonego urlopu. Mam nadzieję, że Ty też odpoczniesz w wakacje. Spotykamy się za kolejne 2 tygodnie. A ponieważ pomysł z ankietą się sprawdził, to pewnie zrobię to znowu. Niech moc będzie z Tobą.