A medida que surgen nuevas plataformas y servicios digitales, el desafío de proteger la información de los usuarios en línea es cada vez más complejo: las nuevas tecnologías requieren nuevas soluciones de privacidad. En Google, seguimos invirtiendo en tecnologías de mejora de la privacidad (PET), una familia de herramientas de vanguardia que ayudan a resolver la tarea crítica del procesamiento de datos, ya que ofrecen a los usuarios garantías de que su información personal permanece privada y segura.
Durante la última década, integramos tecnologías de mejora de la privacidad en toda nuestra gama de productos, las usamos para ayudar a abordar los desafíos sociales y pusimos gran parte a disposición de desarrolladores e investigadores de todo el mundo a través de proyectos de código abierto.
Hoy nos complace compartir novedades sobre nuestro trabajo con la privacidad diferencial, un marco de trabajo matemático que permite analizar conjuntos de datos de una manera que preserva la privacidad para garantizar que la información individual nunca se revele.
La privacidad diferencial es una PET desconocida para la mayoría de los usuarios, pero uno de los héroes anónimos detrás de algunas de las funciones tecnológicas más utilizadas en la actualidad. Sin embargo, al igual que muchas PET, la adopción de la privacidad diferencial por parte de la industria puede ser un desafío por muchas razones: integraciones técnicas complejas, escalabilidad limitada para aplicaciones grandes, altos costos para los recursos informáticos y más.
Nos complace anunciar que logramos lo que sabemos que es la mayor aplicación de privacidad diferencial en el mundo, que abarcó cerca de tres mil millones de dispositivos el año pasado y ayudó a Google a mejorar productos como Google Home, la Búsqueda de Google en Android y Mensajes. Con esta tecnología, pudimos mejorar la experiencia general del usuario en estos productos.
Por ejemplo, pudimos identificar las causas principales de los fallos de los dispositivos Matter en Google Home para ayudar a aumentar la satisfacción del cliente. Matter es un estándar de la industria que simplifica la configuración y el control de los dispositivos domésticos inteligentes en todos los ecosistemas domésticos inteligentes. A medida que Google Home continuó agregando compatibilidad con nuevos tipos de dispositivos, nuestro equipo descubrió y solucionó rápidamente algunos problemas de conectividad con la aplicación Home mediante el uso de información obtenida con nuestra herramienta de privacidad diferencial.
Esta implementación de tres mil millones de dispositivos fue posible gracias a más de seis años de investigación sobre nuestro modelo “shuffler”, que mezcla datos de manera efectiva entre modelos “locales” y “centrales” para lograr un análisis más preciso en conjuntos de datos más grandes y, al mismo tiempo, mantener las garantías de privacidad más sólidas.
Hace más de cinco años, nos propusimos democratizar el acceso a nuestras PET lanzando la primera versión de código abierto de nuestras bibliotecas base de privacidad diferencial. Nuestro objetivo es ofrecer muchas de las mismas tecnologías que utilizamos internamente sin costo para cualquier persona, lo que a su vez reduce la barrera de entrada para desarrolladores e investigadores de todo el mundo.
Como parte de este compromiso, cambiamos a código abierto un transpilador de encriptación totalmente homomórfica (FHE), el primero de su tipo, hace dos años y seguimos eliminando las barreras de entrada en el camino. También hicimos lo mismo con nuestro trabajo sobre el Aprendizaje federado y otras tecnologías de privacidad, como la computación de varias partes segura, que permite que dos partes (por ejemplo, dos instituciones de investigación) unan sus datos, los combinen y analicen sin revelar la información subyacente.
Desde 2019, ampliamos el acceso a estas bibliotecas publicándolas en nuevos lenguajes de programación para llegar al mayor número posible de desarrolladores. Hoy, anunciamos el lanzamiento de PipelineDP para Java Virtual Machine (JVM) llamado PipelineDP4j. Esta es una evolución del trabajo conjunto que hicimos con OpenMined. PipelineDP4j permite a los desarrolladores ejecutar cálculos altamente paralelizables utilizando Java como lenguaje de base, y abre la puerta a nuevas aplicaciones de privacidad diferencial porque reduce la barrera de entrada para los desarrolladores que ya trabajan en Java. Con la incorporación de esta versión de JVM, ahora cubrimos algunos de los lenguajes de desarrollo más populares: Python, Java, Go y C++, que potencialmente llegan a más de la mitad de todos los desarrolladores del mundo.
Además, algunos de nuestros más recientes algoritmos de privacidad diferencial ahora están ayudando a potenciar herramientas únicas como Google Trends. Uno de nuestros desarrollos de modelos ahora permite a Google Trends proporcionar más estadísticas para configuraciones regionales con poco volumen. Para la privacidad diferencial, y la mayoría de las garantías de privacidad en general, los conjuntos de datos deben cumplir con un umbral mínimo a fin de garantizar que no se revelen los datos de los individuos. Nuestra nueva oferta puede ayudar a profesionales, como investigadores y periodistas locales, a obtener más estadísticas sobre ciudades o áreas más pequeñas y, por lo tanto, arrojar luz sobre temas importantes. Por ejemplo, un periodista en Luxemburgo que realiza consultas sobre resultados en portugués ahora puede acceder a información que antes no estaba disponible.
La mayor adopción de la privacidad diferencial tanto por parte de la industria como de los gobiernos es un avance importante en el manejo de los datos de los usuarios de forma privada. Sin embargo, esta adopción generalizada también puede conducir a un mayor riesgo de diseño e implementación defectuosos del mecanismo. El gran volumen de algoritmos desarrollados en este campo hace que la inspección manual de su implementación sea poco práctica, y hay una falta de herramientas flexibles capaces de probar la diversa gama de técnicas sin suposiciones significativas.
Para permitir que los profesionales prueben si un mecanismo determinado infringe una garantía de privacidad diferencial, lanzaremos una biblioteca, DP-Auditorium, que utiliza solo muestras del propio mecanismo, sin requerir acceso a ninguna propiedad interna de la aplicación.
La prueba efectiva de una garantía de privacidad implica dos pasos clave: evaluar la garantía de privacidad sobre un conjunto de datos fijo y explorar los conjuntos de datos para encontrar el "peor de los casos" correspondiente. DP-Auditorium presenta interfaces versátiles para ambos componentes, lo que facilita las pruebas eficientes y supera constantemente a las pruebas de acceso de caja negra existentes. Lo más importante es que estas interfaces están diseñadas para ser flexibles, lo que permite contribuciones y expansiones de la comunidad de investigación, y a su vez aumenta continuamente las capacidades de prueba de la herramienta.
Continuaremos desarrollando nuestra inversión de larga data en PET y nuestro compromiso de ayudar a los desarrolladores e investigadores a procesar y proteger los datos y la privacidad de los usuarios.