Asus pokazuje Google i Apple dokładnie, jak obsługiwać prywatność mobilną sztuczną inteligencją

prawica.net 4 godzin temu

Obstawianie następnego telefona prawie całkowicie na sztucznej inteligencji to duże ryzyko, które do tej pory nie opłaciło się żadnego telefona. Honor Magic 7 Pro został podważony przez zbyt mocno opierając się na podkładanych funkcjach, podczas gdy seria Samsung Galaxy S25 jest nieaktualnym ulepszeniem, chyba iż jesteś wielki w Galaxy AI. Asus Zenfone 12 Ultra zależy również od swojej sprzedaży praktycznie całkowicie na sztucznej inteligencji, i chociaż nie sądzę, żeby było to szczególnie mądre, Asus przynajmniej pokazał, jak dać użytkownikom adekwatny wybór, jeżeli chodzi o prywatność AI, i myślę, iż jest to prywatność AI, i myślę Każdy powinien robić notatki. Kluczem jest to, iż prawie wszystkie funkcje AI ASUS mogą uruchamiać się online lub offline – wyjątkiem Kręgu Google do wyszukiwania, które jest zawsze online. W przeciwieństwie do tego, funkcje tłumacza i obrazowania zawsze działają lokalnie. Niezależnie od tego, czy usuwasz fotografię, czy podsumowujesz niektóre notatki, kontrolujesz sposób obsługi danych. Trudno jest podać cenę na ten poziom prywatności w czasie, gdy coraz bardziej jasne jest, iż firmy macierzyste mogą korzystać z wszystkiego, co udostępniasz z Internetu AI. Niezbędne jest lokalne uruchomienie wszystkich narzędzi AI wszystkich telefonów.Robert Triggs / Android Authoritybest ze wszystkich, możesz mieszać i dopasować, jeżeli chcesz. Chcesz podsumować swoje bardziej prywatne dokumenty dotyczące bezpieczeństwa Zenfone, jednocześnie umożliwiając chmurze skondensowanie tych długich publicznych artykułów internetowych w coś bardziej strawnego? Asus pozwala ci to zrobić.

Wolisz swoją sztuczną inteligencję online czy offline?

4 Votesonline, ma najlepsze wyniki 50%offline, jest bardziej bezpieczne. 50%Robert Triggs / Android Authority, KTÓRE Nie musisz nakładać czapki z tuszą, aby zobaczyć tutaj drugą pozycję. Ukryty w ASUS UI to codzienny „limit usług w chmurze” – bez wątpienia początek ponurego nowego trendu. To wystarczająco hojne, iż nie mogłem się zamknąć po kilku prośbach, ale podkreśla, iż ​​AI oparte na chmurze niekoniecznie pozostanie wolne na zawsze. Galaxy AI Samsunga może zacząć ładować pod koniec 2025 r., Google ma już koszty subskrypcji zaawansowane przez Gemini, a raporty sugerują, iż Apple może również ostatecznie pobierać opłaty za inteligencję Apple. Cloud AI jest droga, a koszt ten ostatecznie będzie musiał zostać przekazany konsumentom, chyba iż możesz uruchomić funkcje na urządzeniu. Pharging, ASUS zajmuje się tym elegancko. Po raz pierwszy uruchomisz dowolną funkcję AI, zachęca do wyboru przetwarzania online (szybkiego) lub offline (prywatnego). Możesz ustawić spójne lub jednorazowe preferencje, dzięki czemu możesz zamieniać się między chmurą lub lokalnym przetwarzaniem, jak uznasz za stosowne. jeżeli wybierzesz opcję offline, ASUS skieruje Cię do pobrania aktualizacji zestawu AI, aby uruchomić funkcję. jeżeli istnieje jedno zastrzeżenie tych opcji offline, wymagają dodatkowych pobrań i nie są małe. W sumie zestawy AI ASUS mogą zjeść dodatkowe 6 GB przestrzeni (kolejny powód, dla którego 256 GB powinno być podstawowym modelem pamięci), który jest również zbyt duży, aby pobrać plan mobilny. choćby w przypadku nieograniczonych danych nie będziesz czekać na kilka minut (lub prawdopodobnie dłużej), aby po raz pierwszy wykonać podsumowanie tekstu offline. Prostą poprawką byłoby zintegrowanie pytania AI online/offline w ramach procesów konfiguracji telefonu i wstępne pobranie wszelkich żądanych narzędzi AI offline przez Wi-Fi.samsung ma podobną opcję, która wyłącza funkcje AI w chmurze, ale jest ukryte głęboko W menu Ustawienia, w którym niewielu go znajdzie. choćby wtedy nie wszystkie funkcje Samsunga mogą działać offline. Edyty generatywne w galerii już nie działają, auto formatowanie i pisownię Note przestają działać, a więc podsumowania rejestratora głosowego. Asus nie ma takiego kompromisu; Kompromis polega na tym, iż jakość niektórych funkcji ma obniżkę, a czas przetwarzania jest dłuższy podczas pracy w bardziej ograniczonej mocy przetwarzania telefonu, ale przynajmniej przez cały czas działają. Pomiędzy zabezpieczeniem się przed kosztami a utrzymaniem prywatnych danych, AI offline jest dla mnie koniecznością. Po eksperymentowaniu z uruchamianiem modeli AI bezpośrednio na moim telefonie, wiem, iż najnowsze telefony są wystarczająco mocne, aby przetworzyć szereg mniejszych modeli, szczególnie gdy do równania dodaje się przyspieszenie NPU. Na przykład ASUS przyspiesza 8 miliardów parametrów META PARAMETR LLAMA3 dla zadań tekstowych, ale Qwen lub Phi Microsoft to opcje, które mogą również działać na tekst zamiast niewielkiego Nano Gemini Nano w Google. Istnieje szereg równie otwartych modeli, które mogą być używane do generowania obrazu, przetwarzania dźwięku i wielu innych. Mam nadzieję, iż to dopiero początek lepszego kierunku dla mobilnej sztucznej inteligencji, w której konsumenci są uprawnieni do uruchamiania narzędzi AI lokalnie i Być może mają choćby większą kontrolę nad tym, jakie aplikacje i modele mogą również używać do zadań. Aby się tam dostać, potrzebujemy programistów, aby odblokowali NPU i GPU naszych procesorów, ale nie jesteśmy tak daleko. Do tego czasu danie konsumentom możliwość przeprowadzenia wszystkich zadań AI offline jest kolejną najlepszą rzeczą; Apple, Google i Samsung powinni podążać za potencjalnym potencjalnym klientem Asusa.

Idź do oryginalnego materiału