Anunciamos nossos mais recentes marcos e avanços em privacidade diferencial

OUT 31, 2024
Miguel Guevara Product Manager Privacy Safety and Security

Com o surgimento de novos serviços e plataformas digitais, o desafio de manter a segurança on-line das informações dos usuários torna-se mais complexo, pois novas tecnologias exigem novas soluções de privacidade. No Google, continuamos a investir em tecnologias de aprimoramento de privacidade (PETs), uma família de ferramentas avançadas que ajudam a resolver a tarefa crítica do processamento de dados, fornecendo às pessoas garantias de que suas informações pessoais serão mantidas em sigilo e segurança.

Na última década, integramos as PETs a todo o nosso pacote de produtos, as utilizamos para ajudar a enfrentar os desafios da sociedade e disponibilizamos gratuitamente muitas de nossas próprias ferramentas para desenvolvedores e pesquisadores de todo o mundo por meio de projetos de código aberto.

Hoje, temos o prazer de compartilhar atualizações sobre nosso trabalho com a privacidade diferencial, um framework matemático que permite a análise de conjuntos de dados com a preservação da privacidade para ajudar a garantir que informações individuais nunca sejam reveladas.


Um marco na privacidade diferencial

A privacidade diferencial é uma PET desconhecida pela maioria dos usuários, mas ela é uma heroína anônima por trás de alguns dos recursos tecnológicos mais utilizados atualmente. Mas, como muitas PETs, a adoção da privacidade diferencial pelo setor pode ser desafiadora por muitas razões: integrações técnicas complexas, escalonabilidade limitada para aplicativos grandes, altos custos para recursos de computação e muito mais.

Temos o prazer de anunciar que alcançamos o que sabemos ser a maior aplicação de privacidade diferencial do mundo, abrangendo cerca de três bilhões de dispositivos no ano passado e ajudando o Google a melhorar produtos como o Google Home, a Pesquisa Google no Android e as Mensagens. Por meio dessa tecnologia, conseguimos melhorar a experiência geral do usuário nesses produtos.

Por exemplo, conseguimos identificar as causas raiz de travamentos de dispositivos Matter no Google Home para ajudar a aumentar a satisfação do cliente. O Matter é um padrão da indústria que simplifica a configuração e o controle de dispositivos domésticos inteligentes em ecossistemas domésticos inteligentes. À medida que o Google Home continuou a adicionar suporte para novos tipos de dispositivos, nossa equipe descobriu e corrigiu rapidamente alguns problemas de conectividade com o aplicativo Home usando insights desbloqueados por nossa ferramenta de privacidade diferencial.

Essa implantação de três bilhões de dispositivos foi possível por meio de mais de seis anos de pesquisa em nosso modelo "shuffler", que efetivamente embaralha dados entre modelos "locais" e "centrais" para obter análises mais precisas em conjuntos de dados maiores, mantendo as mais fortes garantias de privacidade.


Democratização do acesso à privacidade diferencial

Há mais de cinco anos, partimos em uma missão para democratizar o acesso às nossas PETs, lançando a primeira versão de código aberto de nossas bibliotecas fundamentais de privacidade diferencial. Nosso objetivo é disponibilizar gratuitamente para qualquer pessoa muitas das mesmas tecnologias que usamos internamente, reduzindo a barreira de entrada para desenvolvedores e pesquisadores em todo o mundo.

Como parte desse compromisso, abrimos o código de um transpilador inédito de criptografia totalmente homomórfica (FHE, na sigla em inglês) há dois anos e continuamos a remover barreiras à entrada ao longo do caminho. Fizemos o mesmo com nosso trabalho sobre aprendizado federado e outras tecnologias de privacidade, como a computação multipartidária segura, que permite que duas partes (por exemplo, duas instituições de pesquisa) combinem seus dados e façam análises dos dados combinados sem jamais revelar as informações subjacentes.

Desde 2019, expandimos o acesso a essas bibliotecas publicando-as em novas linguagens de programação para alcançar o maior número possível de desenvolvedores. Hoje, anunciamos o lançamento do PipelineDP para máquina virtual Java (JVM, na sigla em inglês), chamado PipelineDP4j. Esse trabalho é uma evolução do trabalho conjunto que fizemos com a OpenMined. O PipelineDP4j permite que os desenvolvedores executem cálculos altamente carregáveis em paralelo usando o Java como linguagem de linha de base e abre as portas para novas aplicações de privacidade diferencial, reduzindo a barreira de entrada para desenvolvedores que já trabalham em Java. Com a adição desta versão da JVM, agora cobrimos algumas das linguagens de desenvolvimento mais populares, Python, Java, Go e C++, potencialmente alcançando mais da metade de todos os desenvolvedores do mundo.

Além disso, alguns de nossos mais recentes algoritmos de privacidade diferencial agora estão ajudando a impulsionar ferramentas exclusivas, como o Google Trends. Um de nossos desenvolvimentos de modelos agora permite que o Google Trends forneça insights maiores sobre localidades de baixo volume. Para privacidade diferencial, e a maioria das garantias de privacidade em geral, os conjuntos de dados precisam atender a um limite mínimo para garantir que os dados dos indivíduos não sejam revelados. Nossa nova oferta pode ajudar profissionais como pesquisadores e jornalistas locais a obter mais insights sobre cidades ou áreas menores e, assim, esclarecer temas importantes. Por exemplo, um jornalista em Luxemburgo que faça consultas para obter resultados em português agora pode acessar insights que não estavam disponíveis antes.


Auditoria para algoritmos de privacidade diferencial

O aumento da adoção da privacidade diferencial, tanto pelo setor privado quanto pelos governos, é um grande avanço no tratamento de dados de usuários de forma privada. No entanto, essa adoção generalizada também pode levar a um aumento do risco de falhas em projetos e implementações do mecanismo. O vasto volume de algoritmos desenvolvidos nesse campo torna a inspeção manual de sua implementação impraticável, sem falar na falta de ferramentas flexíveis e capazes de testar a gama diversificada de técnicas sem suposições significativas.

Para permitir que os profissionais testem se um determinado mecanismo viola uma garantia de privacidade diferencial, estamos lançando uma biblioteca, DP-Auditorium, que utiliza apenas amostras do próprio mecanismo, sem exigir acesso a nenhuma propriedade interna do aplicativo.

Testes eficazes para uma garantia de privacidade envolvem duas etapas principais: avaliar a garantia de privacidade em relação a um conjunto de dados fixo e explorar conjuntos de dados para encontrar a garantia de privacidade do "pior caso". O DP-Auditorium introduz interfaces versáteis para ambos os componentes, facilitando testes eficientes e superando consistentemente os testadores de acesso de caixa preta existentes. Mais importante ainda, essas interfaces são projetadas para serem flexíveis, permitindo contribuições e expansões da comunidade de pesquisa e, assim, expandindo continuamente os recursos de teste da ferramenta.

Continuaremos a ampliar nosso investimento de longa data nas PETs e nosso compromisso de ajudar desenvolvedores e pesquisadores a processar e proteger com segurança os dados e a privacidade dos usuários.