La importancia de una buena auditoría de datos

aa

Hace dos semanas estaba trabajando en un proyecto para un cliente y de repente recibí un email de un proveedor externo avisando que había visto “cosas raras” en los datos.

Para que tengáis algo de contexto, el cliente quería analizar el número de registros y activaciones que los usuarios realizaban como parte de su interacción con las apps y webs con la marca.

Nuestro cliente esperaba obtener un flujo de al menos un registro por usuario recogido y, si seguían el proceso que tenían en mente, poco después se mediría una activación para el usuario registrado. En este caso la activación se realiza después del registro; el usuario confirma su activación clicando en un email que ha recibido posterior al registro.

Sin esta activación el usuario no puede interaccionar completamente con la plataforma del cliente.

Sin embargo, en la medición obteníamos usuarios con múltiples registros y muchas más activaciones, así como usuarios que no completaban la activación.

¿Qué podía significar esto?

¿Errores en la medición, comportamientos inesperados de los usuarios…?

Nos pusimos a investigar y detectamos varios temas interesantes: por un lado, el código encargado de medir el evento de activación no estaba funcionando adecuadamente y, por el otro, en ocasiones y bajo ciertas plataformas y versiones de las aplicaciones en el sistema operativo Android el usuario entraba en un bucle entre el proceso de registro y activación, que le llevaba a repetir muchas veces la parte del email de activación, y o bien no llegaba a activarse cansado de intentarlo o lo intentaba repetidas veces y de ahí las múltiples activaciones.

 

¿Cómo podemos evitar o detectar estos errores en los datos lo antes posible para que el impacto sea mínimo?

Lamentablemente no existe una única forma de asegurar el gobierno y calidad del dato, pero si seguimos algunos pasos prácticos no será tan difícil ni tan costoso:

  • Auditorías periódicas: Dependiendo de la arquitectura de datos con la que contemos: SDK’s, implementación a través de tag manager, implementación manual de píxel en las páginas, S2S (servidor a servidor), Datafeed, API… estableceremos controles periódicos de forma que podamos detectar cualquier fallo.
  • Verificación inicial: Al inicio de una implementación, la verificación será una fase en sí misma del proyecto pero más adelante será suficiente con una verificación trimestral o semestral. Cada método de recolección de datos aplicado tendrá su correspondiente proceso de verificación. Ejemplo: una web recolecta datos sobre el comportamiento de los usuarios a través de píxel y llamadas S2S. Cada uno de estos métodos de recolección de datos llevarán aparejados comprobaciones oportunas del funcionamiento y la calidad del dato.
  • Verificación de nuevos lanzamientos: Cualquier nuevo lanzamiento o actualización de la aplicación o web llevará asociada una revisión de la medición de dicha funcionalidad. Un obstáculo que me he encontrado muchas veces es que no se comunica a los equipos de desarrollo convenientemente la importancia de testar en cada pequeño lanzamiento, de forma que no se deje para el final el comprobar si algo funciona o no. En el workflow del equipo debe incorporarse el testeo como una fase más del proceso de desarrollo y lanzamiento. Esta es la fase más olvidada de todas en el desarrollo de software y en los proyectos de implantación de la analítica.
  • La Analítica como control básico: El análisis periódico de los datos nos permitirá descubrir fallos en el proceso de medición o particularidades en los datos. Por ejemplo: un aumento en la frecuencia de recarga de página, debido a nuevos contenidos de última hora, generará un aumento de la media de páginas vistas por usuario sin que eso corresponda con un mayor engagement del usuario.
  • Cultura de calidad de datos: Es importante crear una cultura de responsabilidad por la calidad del dato donde se incentive la cualidad frente a la cantidad y los insights y acciones derivadas de los datos frente a los cuadros de mandos completísimos y muy visuales pero que nadie entiende ni utiliza. Si nadie siente que es responsabilidad garantizar una medición conforme a los requerimientos, o dejamos ese proceso para el final, nos encontraremos con desagradables sorpresas que podrían haberse evitado.

 

Ya para finalizar me gustaría compartir con vosotros varias soluciones gratuitas para el testing de los datos.

  • HTTPFox: en mi opinión la más conveniente y sencilla de usar. Funciona con Firefox y se instala como un complemento en el navegador. Activamos el filtro e introducimos la variable que queremos detectar y voilà!
  • HTTPWatch: exactamente igual que el anterior pero también Explorer, IPhone y IPad.
  • Firebug: mucho más completa y permite realizar tareas de debugging en las páginas y  comprobaciones mucho más profundas que permitan monitorizar, editar y realizar debugging sobre el código HTML, JavaScript y CSS.
  • Charles: funciona para Windows, Mac y Linux y permite emular entorno app en el navegador para realizar los testeos de la implementación en las apps correctamente. Tiene un periodo de prueba gratuito.
  • ScreamingFrog: es una araña que recorre una zona del sitio que hayamos definido y permite encontrar contenido sin taguear así como links rotos.

 

¡Feliz testeo!

Previous Post Next Post

You Might Also Like

1 Comment

  • Reply Julien Coquet 10 Septiembre, 2015 at 16:47

    Lo mas importante es, como lo propones, establecer una cultura de calidad de datos en la empresa.
    Yo trabajo en Hub’Scan y hemos desarollado una herramienta automatizada de control de la calidad de datos que ahorra tiempo y dinero verificando miles de tags (incluyendo Webtrekk ;-))

  • Leave a Reply