Przejście na AI działające na urządzeniach wymaga wyższego poziomu prywatności. Wprowadzamy Provably Private Insights (PPI), aby umożliwić niezbędną analizę funkcji GenAI przez deweloperów z weryfikowalną gwarancją, że surowe dane użytkowników nigdy nie są ujawniane. Ten system jest kluczowym elementem odpowiedzialnego budowania AI. PPI wykorzystuje otwartoźródłowy model Gemma LLM wewnątrz Zaufanego Środowiska Wykonawczego (Prywatna Analiza Federacyjna), aby kategoryzować dane nieustrukturyzowane i wyciągać wnioski. Tylko zaggregowane, różnicowo prywatne statystyki opuszczają bezpieczne środowisko. Udostępniliśmy kod, aby umożliwić zewnętrzną weryfikację gwarancji prywatności end-to-end. Przeczytaj więcej o jego wdrożeniu w Recorder oraz naszym planie autorstwa Artema Lagzdina i Daniela Ramage'a: Preprint: