Google ogłosiło swój nowy chip kwantowy o nazwie Willow. Nie było by w tym nic szczególnego, gdyby nie fakt, iż firma deklaruje, iż to pierwszy na świecie procesor kwantowy otwierający realnie drogę do użytecznego, pełnoskalowego komputera kwantowego.
Google chcąc podkreślić, jak duży krok technologiczny udało się poczynić, chwali się, iż chip Willow wykonał obliczenia testowe w czasie 5 minut. Tymczasem jednemu z najszybszych na świecie współczesnych superkomputerów (konkretnie odniesiono się do superkomputera Frontier) te same obliczenia zajęłyby… 10 kwadrylionów lat (Google podaje 10 septylionów, ale taką nazwę ma interesująca nas tu wartość według stosowanej w USA skali krótkiej). Innymi słowy, to 10 do potęgi 25. 1 i 25 zer: 10 000 000 000 000 000 000 000 000 lat. Znacznie, znacznie dłużej niż to, co uważamy dziś za wiek wszechświata.
Nowy najpotężniejszy superkomputer na świecie – El Capitan – już działa
Niewątpliwy sukces, choć nie oznacza jeszcze, iż już w przyszłym roku pojawią się komercyjnie użyteczne komputery kwantowe. Do tego jeszcze długa droga, niemniej Willow znacząco przybliżył ludzkość w stronę komercyjnie dostępnych aplikacji kwantowych, które byłyby faktycznie użyteczne.
Jeżeli jesteście zainteresowani technicznymi szczegółami, to zachęcam do zapoznania się z artykułem stworzonym przez zespół Google Quantum AI, opublikowanym w Nature. Skupia się on na kolejnym osiągniętym przełomie: redukcji błędów systemu kwantowego w miarę jego wzrostu. Dotychczas w badaniach nad układami kwantowymi tendencja była odwrotna: im więcej kubitów starano się użyć do obliczeń kwantowych, tym poziom błędów wzrastał na skutek niepożądanych interakcji kubitów z otoczeniem i zmianę danych, zanim uzyskamy wynik kwantowego algorytmu.
W skrócie: kubit, jednostka kwantowej informacji, aby był użytecznym narzędziem, musi być zdolny utrzymać dane na tyle długo, by dało się na nich przeprowadzić pożądane obliczenia kwantowe. Z kolei interakcje kwantowe z otoczeniem (przecież atomy są praktycznie wszędzie) znacząco to utrudniają.
I tu właśnie uzyskano przełom. W miarę testowania przez Google Quantum AI coraz większych macierzy fizycznych kubitów, wraz z każdą zmianą rozmiaru siatki kubitów (3×3, 5×5, 7×7) uzyskiwano zmniejszenie współczynnika błędów o połowę. Tym samym im więcej kubitów użyto w Willow, tym bardziej kwantowy stawał się cały system. Jak wyjaśnia Harmut Neven na blogu Google:
To historyczne osiągnięcie jest znane w tej dziedzinie (kwantowych obliczeń – dop. red.) jako „below threshold” — możliwość zmniejszenia błędów przy jednoczesnym zwiększeniu liczby kubitów. Musisz wykazać, iż jesteś poniżej progu, aby pokazać rzeczywisty postęp w korekcji błędów, a to było wyjątkowe wyzwanie od czasu wprowadzenia kwantowej korekcji błędów przez Petera Shora w 1995 roku.
Testem, któremu poddano system oparty na układzie kwantowym Willow był tzw. test porównawczy losowego próbkowania obwodów (random circuit sampling (RCS) benchmark). Jest to najtrudniejszy test porównawczy, jaki można wykonać w tej chwili na komputerze kwantowym. Jest to wręcz metoda weryfikująca użyteczność systemu kwantowego, bo dowodzi jego umiejętności przeprowadzenia obliczeń, których realizacja w klasycznym komputerze (nawet najpotężniejszym) jest praktycznie niemożliwa. Tak, to właśnie wspomniane 5 minut versus 10 kwadrylionów lat.
Kontekst tego sukcesu jest szerszy niż czysta wydajność obliczeniowa systemu kwantowego. Sukces układu Willow potwierdza pogląd, iż obliczenia kwantowe zachodzą w wielu równoległych wszechświatach, zgodnie z ideą, iż żyjemy w multiwersum, co jako pierwszy przewidział David Deutsch.
Ilustracja otwierająca wygenerowana przez AI, Gemini, Imagen 3
Jeśli artykuł Willow – najnowszy chip kwantowy Google to imponujące osiągnięcie wykraczające poza czyste obliczenia kwantowe nie wygląda prawidłowo w Twoim czytniku RSS, to zobacz go na iMagazine.