Cuando se comunica con sus usuarios o inicia una nueva campaña de marketing, debe asegurarse de hacerlo bien. Las pruebas A/B pueden ayudarle a encontrar la redacción y la presentación óptimas probando variantes de mensajes en partes seleccionadas de su base de usuarios. Ya sea que su objetivo sea una mejor retención o conversión de una oferta, las pruebas A/B pueden realizar análisis estadísticos para determinar si una variante de mensaje supera la línea de base para su objetivo seleccionado.
Para realizar pruebas A/B de variantes de funciones con una línea de base, haga lo siguiente:
- Crea tu experimento.
- Valide su experimento en un dispositivo de prueba.
- Gestiona tu experimento.
Crear un experimento
Un experimento que utiliza Firebase In-App Messaging te permite evaluar múltiples variantes de un único mensaje en la aplicación.
Inicie sesión en Firebase console y verifique que Google Analytics esté habilitado en su proyecto para que el experimento tenga acceso a los datos de Analytics.
Si no habilitó Google Analytics al crear su proyecto, puede habilitarlo en la pestaña Integraciones , a la que puede acceder usando > Configuración del proyecto en Firebase console .
En la sección Engage del menú de navegación de Firebase console , haz clic en Pruebas A/B .
Haga clic en Crear experimento y luego seleccione Mensajería en la aplicación cuando se le solicite el servicio con el que desea experimentar.
Como alternativa, en el menú de navegación de la consola Firebase , expanda Engage y luego haga clic en Mensajería dentro de la aplicación . Luego haga clic en Nuevo experimento .
Ingrese un Nombre y una Descripción opcional para su experimento y haga clic en Siguiente .
Complete los campos de Orientación y elija primero la aplicación que utiliza su experimento. También puede dirigirse a un subconjunto de sus usuarios para que participen en su experimento eligiendo opciones que incluyan lo siguiente:
- Versión: una o más versiones de tu aplicación.
- Audiencia de usuarios: audiencias de Analytics utilizadas para dirigirse a los usuarios que podrían incluirse en el experimento.
- Propiedad de usuario: una o más propiedades de usuario de Analytics para seleccionar usuarios que podrían incluirse en el experimento.
- País/Región: uno o más países o regiones para seleccionar usuarios que podrían incluirse en el experimento.
- Idioma del dispositivo: uno o más idiomas y configuraciones regionales utilizados para seleccionar usuarios que podrían incluirse en el experimento.
- Primera apertura: oriente a los usuarios según la primera vez que abrieron su aplicación.
- Última interacción con la aplicación: oriente a los usuarios según la última vez que interactuaron con su aplicación.
Establezca el porcentaje de usuarios objetivo: seleccione el porcentaje de la base de usuarios de su aplicación que coincide con los criterios establecidos en Usuarios objetivo que desea dividir uniformemente entre la línea base y una o más variantes en su experimento. Puede ser cualquier porcentaje entre 0,01% y 100%. Los porcentajes se reasignan aleatoriamente a los usuarios para cada experimento, incluidos los experimentos duplicados.
En la sección Variantes , configure un mensaje de referencia en la aplicación para enviarlo al grupo de referencia mediante la interfaz de diseño de mensajes que utiliza para una campaña de mensajería en la aplicación normal.
Para agregar una variante a su experimento, haga clic en Agregar variante . De forma predeterminada, los experimentos tienen una línea base y una variante.
(opcional) Ingrese un nombre más descriptivo para cada variante.
(opcional) En la parte superior de la sección Variantes , haga clic en el botón Comparar variantes para comparar una variante más del mensaje en paralelo con el mensaje base.
Defina una métrica de objetivo para que su experimento la utilice al evaluar las variantes del experimento junto con cualquier métrica adicional que desee utilizar de la lista. Estas métricas incluyen objetivos integrados (participación, compras, ingresos, retención, etc.), eventos de conversión de Analytics y otros eventos de Analytics.
Configure la programación para el experimento:
- Establezca una fecha de inicio y finalización para el experimento.
- Establezca cómo se activan los mensajes dentro de la aplicación en todas las variantes.
Haga clic en Revisar para guardar su experimento.
Se le permiten hasta 300 experimentos por proyecto, que podrían consistir en hasta 24 experimentos en ejecución, y el resto como borrador o completado.
Valide su experimento en un dispositivo de prueba
Para cada instalación de Firebase, puedes recuperar el token de autenticación de instalación asociado a ella. Puede utilizar este token para probar variantes de experimentos específicas en un dispositivo de prueba con su aplicación instalada. Para validar su experimento en un dispositivo de prueba, haga lo siguiente:
- Obtenga el token de autenticación de instalación de la siguiente manera:
Rápido
do { let result = try await Installations.installations() .authTokenForcingRefresh(true) print("Installation auth token: \(result.authToken)") } catch { print("Error fetching token: \(error)") }
C objetivo
[[FIRInstallations installations] authTokenForcingRefresh:true completion:^(FIRInstallationsAuthTokenResult *result, NSError *error) { if (error != nil) { NSLog(@"Error fetching Installation token %@", error); return; } NSLog(@"Installation auth token: %@", [result authToken]); }];
Java
FirebaseInstallations.getInstance().getToken(/* forceRefresh */true) .addOnCompleteListener(new OnCompleteListener<InstallationTokenResult>() { @Override public void onComplete(@NonNull Task<InstallationTokenResult> task) { if (task.isSuccessful() && task.getResult() != null) { Log.d("Installations", "Installation auth token: " + task.getResult().getToken()); } else { Log.e("Installations", "Unable to get Installation auth token"); } } });
Kotlin+KTX
val forceRefresh = true FirebaseInstallations.getInstance().getToken(forceRefresh) .addOnCompleteListener { task -> if (task.isSuccessful) { Log.d("Installations", "Installation auth token: " + task.result?.token) } else { Log.e("Installations", "Unable to get Installation auth token") } }
- En la barra de navegación de la consola Firebase , haga clic en Pruebas A/B .
- Haga clic en Borrador (y/o Ejecutando para experimentos de Remote Config), coloque el cursor sobre su experimento, haga clic en el menú contextual ( more_vert ) y luego haga clic en Administrar dispositivos de prueba .
- Ingrese el token de autenticación de instalación para un dispositivo de prueba y elija la variante del experimento para enviar a ese dispositivo de prueba.
- Ejecute la aplicación y confirme que la variante seleccionada se reciba en el dispositivo de prueba.
Para obtener más información sobre las instalaciones de Firebase, consulte Administrar instalaciones de Firebase .
Gestiona tu experimento
Ya sea que cree un experimento con Remote Config, el compositor de notificaciones o Firebase In-App Messaging, luego puede validar e iniciar su experimento, monitorearlo mientras se ejecuta y aumentar la cantidad de usuarios incluidos en su experimento en ejecución.
Cuando finalice el experimento, puede tomar nota de la configuración utilizada por la variante ganadora y luego implementar esa configuración para todos los usuarios. O puede realizar otro experimento.
iniciar un experimento
- En la sección Engage del menú de navegación de Firebase console , haz clic en Pruebas A/B .
- Haga clic en Borrador y luego haga clic en el título de su experimento.
- Para validar que su aplicación tenga usuarios que se incluirían en su experimento, expanda los detalles del borrador y verifique un número mayor al 0% en la sección Orientación y distribución (por ejemplo, 1% de usuarios que cumplen con los criterios ).
- Para cambiar su experimento, haga clic en Editar .
- Para iniciar su experimento, haga clic en Iniciar experimento . Puede ejecutar hasta 24 experimentos por proyecto a la vez.
Monitorear un experimento
Una vez que un experimento se ha estado ejecutando por un tiempo, puede verificar su progreso y ver cómo se ven los resultados para los usuarios que han participado en su experimento hasta ahora.
- En la sección Engage del menú de navegación de Firebase console , haz clic en Pruebas A/B .
Haga clic en Ejecutando y luego haga clic o busque el título de su experimento. En esta página, puede ver varias estadísticas observadas y modeladas sobre su experimento en ejecución, incluidas las siguientes:
- % de diferencia con respecto a la línea de base : una medida de la mejora de una métrica para una variante determinada en comparación con la línea de base. Se calcula comparando el rango de valores de la variante con el rango de valores de la línea base.
- Probabilidad de superar la línea de base : la probabilidad estimada de que una variante determinada supere la línea de base para la métrica seleccionada.
- observed_metric por usuario : según los resultados del experimento, este es el rango previsto en el que caerá el valor de la métrica con el tiempo.
- Total observed_metric : el valor acumulado observado para la línea de base o variante. El valor se utiliza para medir el rendimiento de cada variante del experimento y para calcular la mejora , el rango de valores , la probabilidad de superar el valor inicial y la probabilidad de ser la mejor variante . Dependiendo de la métrica que se mida, esta columna puede denominarse "Duración por usuario", "Ingresos por usuario", "Tasa de retención" o "Tasa de conversión".
Después de que el experimento se haya ejecutado durante un tiempo (al menos 7 días para FCM y mensajería en la aplicación o 14 días para Remote Config), los datos de esta página indican qué variante, si la hay, es la "líder". Algunas mediciones van acompañadas de un gráfico de barras que presenta los datos en formato visual.
Implementar un experimento para todos los usuarios.
Después de que un experimento se haya ejecutado durante el tiempo suficiente como para tener un "líder" o variante ganadora para su métrica de objetivo, puede publicar el experimento para el 100 % de los usuarios. Esto le permite seleccionar una variante para publicarla para todos los usuarios en el futuro. Incluso si su experimento no ha creado un ganador claro, aún puede optar por lanzar una variante para todos sus usuarios.
- En la sección Engage del menú de navegación de Firebase console , haz clic en Pruebas A/B .
- Haga clic en Completado o En ejecución , haga clic en un experimento que desee publicar para todos los usuarios y haga clic en el menú contextual ( ) Implementar variante .
Implemente su experimento para todos los usuarios realizando una de las siguientes acciones:
- Para un experimento que utiliza el redactor de notificaciones , utilice el cuadro de diálogo Implementar mensaje para enviar el mensaje a los usuarios objetivo restantes que no formaron parte del experimento.
- Para un experimento de Remote Config , seleccione una variante para determinar qué valores de parámetros de Remote Config actualizar. Los criterios de orientación definidos al crear el experimento se agregan como una nueva condición en su plantilla, para garantizar que la implementación solo afecte a los usuarios a los que se dirige el experimento. Después de hacer clic en Revisar en Remote Config para revisar los cambios, haga clic en Publicar cambios para completar la implementación.
- Para un experimento de mensajería en la aplicación , utilice el cuadro de diálogo para determinar qué variante debe implementarse como una campaña de mensajería en la aplicación independiente. Una vez seleccionado, se le redirigirá a la pantalla de redacción de FIAM para realizar cambios (si es necesario) antes de publicar.
Ampliar un experimento
Si descubre que un experimento no atrae suficientes usuarios para que las pruebas A/B lo declaren líder, puede aumentar la distribución de su experimento para llegar a un porcentaje mayor de la base de usuarios de la aplicación.
- En la sección Engage del menú de navegación de Firebase console , haz clic en Pruebas A/B .
- Seleccione el experimento en ejecución que desea editar.
- En la descripción general del experimento , haga clic en el menú contextual ( ) y luego haga clic en Editar experimento en ejecución .
- El cuadro de diálogo Orientación muestra una opción para aumentar el porcentaje de usuarios que están en el experimento en ejecución. Seleccione un número mayor que el porcentaje actual y haga clic en Publicar . El experimento se enviará al porcentaje de usuarios que haya especificado.
Duplicar o detener un experimento
- En la sección Engage del menú de navegación de Firebase console , haz clic en Pruebas A/B .
- Haga clic en Completado o En ejecución , mantenga el puntero sobre su experimento, haga clic en el menú contextual ( ) y luego haga clic en Duplicar experimento o Detener experimento .
Orientación al usuario
Puede dirigirse a los usuarios para incluirlos en su experimento utilizando los siguientes criterios de orientación de usuarios.
Criterio de focalización | Operador(es) | Valores) | Nota |
---|---|---|---|
Versión | contiene, no contiene, coincide exactamente, contiene expresiones regulares | Ingrese un valor para una o más versiones de la aplicación que desee incluir en el experimento. | Cuando utilice cualquiera de los operadores contiene , no contiene o coincide exactamente , puede proporcionar una lista de valores separados por comas. Al utilizar el operador contiene expresiones regulares , puede crear expresiones regulares en formato RE2 . Su expresión regular puede coincidir total o parcialmente con la cadena de la versión de destino. También puede utilizar los anclajes ^ y $ para hacer coincidir el principio, el final o la totalidad de una cadena de destino. |
Audiencias de usuarios | incluye todo, incluye al menos uno de, no incluye todos, no incluye al menos uno de | Seleccione una o más audiencias de Analytics para dirigirse a los usuarios que podrían incluirse en su experimento. | Algunos experimentos dirigidos a audiencias de Google Analytics pueden requerir algunos días para acumular datos porque están sujetos a la latencia del procesamiento de datos de Analytics. Es más probable que encuentre este retraso con usuarios nuevos, que generalmente se inscriben en audiencias calificadas entre 24 y 48 horas después de la creación, o para audiencias creadas recientemente . |
Propiedad del usuario | Para texto: contiene, no contiene, coincide exactamente, contiene expresiones regulares Para números: <, ≤, =, ≥, > | Una propiedad de usuario de Analytics se utiliza para seleccionar usuarios que podrían incluirse en un experimento, con una variedad de opciones para seleccionar valores de propiedad de usuario. En el cliente, solo puede establecer valores de cadena para las propiedades del usuario. Para condiciones que utilizan operadores numéricos, el servicio Remote Config convierte el valor de la propiedad de usuario correspondiente en un número entero/flotante. | Al utilizar el operador contiene expresiones regulares , puede crear expresiones regulares en formato RE2 . Su expresión regular puede coincidir total o parcialmente con la cadena de la versión de destino. También puede utilizar los anclajes ^ y $ para hacer coincidir el principio, el final o la totalidad de una cadena de destino. |
País/Región | N / A | Uno o más países o regiones solían seleccionar usuarios que podrían incluirse en el experimento. | |
Idiomas | N / A | Uno o más idiomas y configuraciones regionales utilizados para seleccionar usuarios que podrían incluirse en el experimento. | |
Primero abierto | Más que Menos que Entre | Diríjase a los usuarios según la primera vez que abrieron su aplicación, especificada en días. | |
Última interacción con la aplicación | Más que Menos que Entre | Diríjase a los usuarios según la última vez que interactuaron con su aplicación, especificada en días. |
Métricas de pruebas A/B
Cuando crea su experimento, elige una métrica principal o de objetivo que se utiliza para determinar la variante ganadora. También debe realizar un seguimiento de otras métricas que le ayudarán a comprender mejor el rendimiento de cada variante del experimento y realizar un seguimiento de las tendencias importantes que pueden diferir para cada variante, como la retención de usuarios, la estabilidad de la aplicación y los ingresos por compras dentro de la aplicación. Puede realizar un seguimiento de hasta cinco métricas sin objetivos en su experimento.
Por ejemplo, supongamos que agregó nuevas compras dentro de la aplicación y desea comparar la efectividad de dos mensajes de "empujón" diferentes. En este caso, puede decidir establecer Ingresos por compras como su métrica objetivo porque desea que la variante ganadora represente la notificación que generó los mayores ingresos por compras en la aplicación. Y como también desea realizar un seguimiento de qué variante generó más conversiones futuras y usuarios retenidos, puede agregar lo siguiente en Otras métricas para realizar un seguimiento :- Ingresos totales estimados para ver en qué se diferencian las compras integradas en la aplicación y los ingresos publicitarios entre las dos variantes.
- Retención (1 día) , Retención (2-3 días) , Retención (4-7 días) para realizar un seguimiento de la retención de usuarios diaria/semanal
Las siguientes tablas proporcionan detalles sobre cómo se calculan las métricas de objetivos y otras métricas.
Métricas de objetivos
Métrico | Descripción |
---|---|
Usuarios sin fallos | El porcentaje de usuarios que no encontraron errores en su aplicación que fueron detectados por el SDK de Firebase Crashlytics durante el experimento. |
Ingresos publicitarios estimados | Ingresos publicitarios estimados. |
Ingresos totales estimados | Valor combinado de compra e ingresos publicitarios estimados. |
Ingresos por compras | Valor combinado para todos los eventos purchase e in_app_purchase . |
Retención (1 día) | La cantidad de usuarios que regresan a su aplicación diariamente. |
Retención (2-3 días) | La cantidad de usuarios que regresan a su aplicación dentro de 2 o 3 días. |
Retención (4-7 días) | La cantidad de usuarios que regresan a su aplicación dentro de 4 a 7 días. |
Retención (8-14 días) | La cantidad de usuarios que regresan a su aplicación dentro de 8 a 14 días. |
Retención (más de 15 días) | La cantidad de usuarios que regresan a su aplicación 15 días o más después de la última vez que la usaron. |
primero_abierto | Un evento de Analytics que se activa cuando un usuario abre por primera vez una aplicación después de instalarla o reinstalarla. Se utiliza como parte de un embudo de conversión. |
Otras métricas
Métrico | Descripción |
---|---|
notificación_desestimar | Un evento de Analytics que se activa cuando se descarta una notificación enviada por el redactor de notificaciones (solo Android). |
notificación_recibir | Un evento de Analytics que se activa cuando se recibe una notificación enviada por el redactor de notificaciones mientras la aplicación está en segundo plano (solo Android). |
actualización_OS | Un evento de Analytics que rastrea cuándo se actualiza el sistema operativo del dispositivo a una nueva versión. Para obtener más información, consulte Eventos recopilados automáticamente . |
vista_pantalla | Un evento de Analytics que rastrea las pantallas vistas dentro de su aplicación. Para obtener más información, consulte Seguimiento de vistas de pantalla . |
inicio_sesión | Un evento de Analytics que cuenta las sesiones de usuario en su aplicación. Para obtener más información, consulte Eventos recopilados automáticamente . |