
Apple rozwija funkcje Apple Intelligence – w tym Siri, narzędzia do pisania czy podsumowań – jednocześnie dbając o prywatność użytkowników. Zamiast zbierać dane osobiste, firma stosuje innowacyjne techniki AI, takie jak prywatność różnicowa (differential privacy) i syntetyczne dane.
Jak to działa?
Apple generuje syntetyczne maile o popularnych tematach (np. zaproszenie na mecz tenisa), tworzy z nich tzw. embeddingi językowe i porównuje je z rzeczywistymi wiadomościami na wybranych iPhone’ach (z włączoną opcją Analityki urządzenia).
iPhone lokalnie wybiera najbardziej pasujący syntetyczny wariant – bez udostępniania treści Apple. Firma analizuje tylko zbiorcze dane, dzięki czemu doskonali modele AI, nie naruszając prywatności.
Aby ulepszyć Apple Intelligence, Apple musi wymyślić opcje ochrony prywatności dla szkolenia AI, a niektóre z metod stosowanych przez firmę zostały przedstawione w nowym poście na ich blogu Machine Learning Research.
Apple tworzy syntetyczne dane, które są reprezentatywne dla zagregowanych trendów w rzeczywistych danych użytkowników i wykorzystuje wykrywanie na urządzeniu do dokonywania porównań, zapewniając firmie wgląd bez konieczności uzyskiwania dostępu do poufnych informacji.
Genmoji i inne funkcje
Podobnie wygląda rozwój Genmoji – Apple analizuje tylko popularne i anonimowe wzorce zapytań, wykluczając unikalne dane mogące identyfikować użytkownika. Firma nie powiązuje danych z Apple ID, IP ani konkretnym urządzeniem.
Apple planuje rozszerzyć te techniki w iOS 18.5, iPadOS 18.5 i macOS Sequoia, by ulepszyć m.in. funkcje Image Playground, Memories Creation, Writing Tools i Visual Intelligence.
Jeśli artykuł Jak Apple rozwija Apple Intelligence z poszanowaniem prywatności użytkowników nie wygląda prawidłowo w Twoim czytniku RSS, to zobacz go na iMagazine.