Będziemy sterowali iPhone’em dzięki myśli

3 godzin temu

W maju dość ciekawą informację podał Business Wire. Z ich raportu wynika, iż Apple pracuje nad funkcją, która umożliwi sterowanie ich urządzeniami dzięki sygnałów mózgowych. Doniesienia te zbiegły się w czasie z obchodami Światowego Dnia Świadomości Dostępności, a samo Apple zaprezentowało nowe funkcje Dostępności, które pojawią się jeszcze w tym roku.


Ten artykuł pochodzi z archiwalnego iMagazine 6/2025


Nie ma przypadków, a przynajmniej nie w przypadku Apple i ich obsesji na punkcie rozwoju technologii i funkcji, które sprawiają, iż ich urządzenia po prostu lepiej nam służą.

16 elektrod

Technologia, o której informuje Business Wire, powstaje we współpracy ze start-upem neurotechnologicznym Synchron, twórcą implantu Stentrode.

To taki interfejs mózg-komputer (ang. Brain-Computer Interface – BCI), który pozwala osobom z poważnymi zaburzeniami ruchowymi, np. chorującym na ALS, kontrolować urządzenia Apple siłą umysłu. W kontekście implantów mózgowych oznacza to, iż do mózgu wprowadza się urządzenie (elektrody lub mikroczipy), które odczytuje aktywność neuronów i przekazuje ją do systemów zewnętrznych – lub działa też w drugą stronę: przesyła informacje do mózgu. W przypadku Stentrode tym urządzeniem jest mała sonda, którą wprowadza się przez żyłę szyjną i umieszcza w naczyniu krwionośnym nad korą ruchową mózgu, bez potrzeby otwierania czaszki.

Polecam przeczytać jeszcze raz ostatnie zdanie, bardzo powoli i zastanowić się nad skalą tego, o czym tutaj piszę. Naprawdę ciężko to jeszcze przyjąć do wiadomości.

Faktem jednak jest to, iż Stentrode potrafi odczytywać aktywność neuronów i przekładać ją na polecenia cyfrowe, dzięki 16 elektrodom. Synchron wszczepił implant dziesięciu pacjentom od 2019 roku w ramach zgody Amerykańskiej Agencji ds. Żywności i Leków (ang. Food and Drug Administration – FDA) na eksperymentalne badania w tym zakresie.

Apple Vision Pro sterowane myślami? To już się dzieje!

Jeden z uczestników, niezdolny do poruszania rękami, steruje komputerem przestrzennym Apple Vision Pro wyłącznie dzięki myśli, dzięki Stentrode. Tu i teraz, w 2025 roku, dzięki współpracy Apple z Synchro. Sądzę, iż śmiało można stwierdzić, iż Mark Jackson, o którym mowa, chory na ALS – odzyskał dzięki temu w jakiejś części normalne życie.

Business Wire utrzymuje, iż Apple planuje wdrożyć tę technologię na szerszą (być może masową) skalę jeszcze w tym roku, co jest niesamowite. Jak chcą to zrobić? I tutaj sięgamy do tego, o czym wspominałem na początku, czyli obsesji inżynierów Apple nad nieustanną rozbudową funkcji Dostępności ich systemów i całego ekosystemu usług oraz urządzeń. Od czasów Macintosha, czyli od ponad czterdziestu lat, każde urządzenie produkowane przez firmę musi wspierać w maksymalnym, możliwym stopniu osoby z niepełnosprawnościami. Sam Tim Cook podkreślał to wielokrotnie.

W przypadku urządzeń BCI Apple skorzysta z systemu dostępności o nazwie Switch Control, który obsługuje alternatywne formy sterowania (np. joysticki czy specjalne przełączniki) i już istnieje parę ładnych lat, z powodzeniem ułatwiając życie tysiącom ludzi na całym świecie. Rozwiązanie Apple i Synchron różni się od bardziej inwazyjnego podejścia firmy Neuralink Elona Muska, która wszczepia chipy bezpośrednio do tkanki mózgowej. Choć Neuralink oferuje większą precyzję i możliwości (np. sterowanie kursorem), Apple stawia na bezpieczniejsze, mniej inwazyjne rozwiązanie, z potencjałem do stworzenia nowego standardu w branży. Firma z Cupertino ma też coś, czego nigdy Neuralink mieć nie będzie – wspomniane cztery dekady doświadczeń i ekspertyzy oraz już działające narzędzia w ramach zamkniętego ekosystemu.

Warto wspomnieć, iż Apple planuje rozszerzyć integrację z Stentrode na iPhone’a, iPada i Maca, czyli swoje najważniejsze urządzenia, platforma macOS ma to wsparcie otrzymać jako ostatnia.

A co zyska na tym Kowalski i Smith?

Zakładając, iż nie jesteśmy osobami z niepełnosprawnościami, możemy się zastanawiać, co takie projekty wnoszą dla nas – przeciętnych użytkowników urządzeń i usług od Apple, prawda?

Te same wątpliwości czy pytania można sobie zadawać, gdy czyta się podsumowania dotyczące wprowadzania nowych funkcji Dostępności, które Apple zapowiedziało na ten rok w maju.

„Apple ogłosiło dziś nowe funkcje ułatwień dostępu, które pojawią się jeszcze w tym roku, w tym etykiety dostępności (Accessibility Nutrition Labels), które zapewnią bardziej szczegółowe informacje o dostępności aplikacji i gier w App Store. Osoby niewidome lub niedowidzące będą mogły korzystać z nowej aplikacji Lupa dla Maca, robić notatki i wykonywać obliczenia dzięki funkcji Braille Access, a także korzystać z zaawansowanego systemu kamer w Apple Vision Pro dzięki nowościom w systemie visionOS”.

– pisał Dominik, a cała lista jest zdecydowanie dłuższa.

Otóż to, co napędza DNA Apple, całkowicie różni się od innych firm technologicznych. Zwłaszcza w kontekście wykorzystania ekspertyzy i innowacji z zakresu Dostępności we wdrożeniach dla masowych klientów i użytkowników ich urządzeń. Apple najpierw rozwija najcięższego kalibru technologie, dopracowując najdrobniejsze szczegóły w zakresie działania ich dla osób z niepełnosprawnościami, przez co jest od dekad liderem tego typu rozwiązań na świecie, a później bierze z tych wdrożeń to, co konieczne dla masowych odbiorców. Marketing robi dalej to, co potrafi równie dobrze, czyli pokazuje nam wszystkim te niewidoczne mechanizmy pod płaszczykiem „Magii Apple”.

Przykłady? Rozpoznawanie obiektów na zdjęciach, dyktowanie, Memoji, precyzyjna lokalizacja przedmiotów w pomieszczeniach, wywoływanie dźwiękiem Apple Watcha i iPhone’a, przesuwanie kursora między literami dzięki Force Touch na klawiszu spacji w klawiaturze ekranowej iOS i iPadOS, wzywanie pomocy z wykorzystaniem ultradźwięków w Apple Watchu Ultra, haptyczne odpowiedzi Apple Watcha czy dźwięk informujący o tym, iż nasze AirPods są bliskie rozładowania. To tylko kilka przykładów zachowań i funkcji, których protoplastami są bardziej rozbudowane rozwiązania związane z Dostępnością, obecne od dekad w systemach Apple. Jak to się ma do sterowania iPhone’em dzięki myśli?

Zachęcam, aby sięgnąć do mojego felietonu na temat rzekomo nadchodzących inteligentnych okularów Apple Glasses w poprzednim, majowym wydaniu iMagazine. Pisałem tam, iż to właśnie lekcje zebrane przez Apple po wdrożeniu komputera przestrzennego Apple Vision Pro oraz właśnie doświadczenie lidera branży Dostępności mogą pozwolić Apple na stworzenie kolejnej rewolucji. Albo raczej ewolucji tego, co już mamy na rynku, ale właśnie w tym „magicznym” wydaniu, o którym po ewentualnej premierze Apple Glasses media branżowe prawdopodobnie napiszą: „Tylko Apple mogło to zrobić w ten sposób!”. Tak samo było, gdy debiutował Apple Watch, który nie był pierwszym smartwatchem, ale to on jest dziś najpopularniejszym i najlepiej sprzedającym się zegarkiem (ogólnie ujmując) w historii ludzkości. A przy okazji urządzeniem, które uratowało już setki ludzkich istnień, dzięki swoim funkcjom zdrowotnym.

Apple ma do tego wszystko, czego im potrzeba: czterdzieści lat badań i wdrożeń, własne, potężne procesory i DNA, w którym nic nie dzieje się przypadkiem. Jestem o tym przekonany, jak nigdy wcześniej.

Jeśli artykuł Będziemy sterowali iPhone’em dzięki myśli nie wygląda prawidłowo w Twoim czytniku RSS, to zobacz go na iMagazine.

Idź do oryginalnego materiału