Podczas konferencji WWDC 2025, która odbyła się 9 czerwca, Apple zapowiedziało szereg aktualizacji systemów operacyjnych oraz przedstawiło własny zestaw funkcji opartych na sztucznej inteligencji – Apple Intelligence. Wydarzenie przyniosło największą od lat zmianę w wyglądzie interfejsu oraz szereg nowych funkcji dostępnych na iPhone’ach, iPadach, Macach i Apple Watchach, – informuje The Verge.
Nowy styl „Liquid Glass” i zmiany w systemach operacyjnych
Wszystkie systemy – iOS 26, iPadOS 26, macOS Tahoe, watchOS 26, tvOS 26 i visionOS 26 – otrzymały nowy, spójny styl graficzny nazwany „Liquid Glass”.

Przezroczyste i przestrzenne elementy interfejsu, takie jak przyciski czy suwaki, zmieniają wizualny charakter platform Apple i nadają im bardziej nowoczesny wygląd.
W iOS 26 zmodernizowano aplikacje systemowe: Kamera, Safari i Telefon. Szczególnie wyróżnia się nowa funkcja „Lista życzeń” w aplikacji Telefon, umożliwiająca grupowanie nieodebranych połączeń, wiadomości i notatek głosowych.

iPadOS 26 wprowadza istotne zmiany w zarządzaniu oknami: użytkownicy mogą teraz swobodnie rozmieszczać i skalować okna w trybie Stage Manager, a na górze ekranu pojawił się pasek menu inspirowany macOS. macOS Tahoe to ostatnia duża wersja dla komputerów z procesorami Intel – Apple zapowiedziało, iż kolejne aktualizacje będą ograniczone do poprawek bezpieczeństwa. Ulepszony Spotlight pozwala na wykonywanie poleceń głosowych i tekstowych bez otwierania aplikacji.
W visionOS 26 pojawiły się przestrzenne widżety umieszczane w rzeczywistym otoczeniu oraz wsparcie dla kontrolerów PS VR2. W tvOS 26 numeracja została dopasowana do roku, a wygląd interfejsu dostosowany do stylu „Liquid Glass”.
watchOS 26 oferuje nowy gest odrzucania powiadomień (wymachnięcie nadgarstkiem) i funkcję Workout Buddy – inteligentnego asystenta treningowego, który reaguje głosem dostosowanym do stylu użytkownika.
Apple Intelligence i integracja z ChatGPT
Apple Intelligence to zestaw funkcji opartych na modelach językowych, które działają lokalnie na urządzeniu i mogą być wykorzystywane bez połączenia z chmurą. System analizuje treść e-maili, stron i dokumentów, tworzy podsumowania, a także generuje obrazy i emoji w stylu personalizowanym (Genmoji, Image Playground). Wbudowany tłumacz na żywo (Live Translate) działa w Wiadomościach, FaceTime i rozmowach telefonicznych.
Apple ogłosiło także integrację z ChatGPT – użytkownicy będą mogli skorzystać z niego z poziomu Siri oraz Safari. Firma zapewnia, iż prywatność pozostaje kluczowa: dane nie są zapisywane ani przesyłane bez zgody użytkownika. Deweloperzy zyskują dostęp do frameworka Foundation Models, który pozwala na użycie lokalnych modeli AI bez konieczności integracji z zewnętrznymi API.
Nowe funkcje sprzętowe i terminy dostępności
Nowością dla AirPods jest możliwość zdalnego wykonania zdjęcia dzięki stuknięcia w trzonek słuchawki oraz funkcja izolacji głosu choćby w hałaśliwym otoczeniu. Apple zapowiada, iż jakość rozmów ma osiągnąć poziom nagrań studyjnych.
Wersje deweloperskie wszystkich systemów są już dostępne, publiczne bety trafią do użytkowników w lipcu, a oficjalne aktualizacje – jesienią 2025 roku. Apple Intelligence będzie dostępne jedynie na iPhone 15 Pro i nowszych, iPadach z chipem M1+ oraz Macach z Apple Silicon.