Accediendo al universo de la analítica

Header_Universo_Analítica 

¿Cuándo se produce el origen de la analítica?

Los albores de la analítica digital en el sector profesional se remontan a finales del siglo XIX, mucho antes de que se concibieran los sistemas informáticos. Sin embargo, la comercialización de Internet, que comenzó aproximadamente en 1995, y la posterior introducción de aplicaciones analíticas basadas en los sitios web, sin duda alguna han asegurado la presencia analítica en nuestras vidas por muchos años más.

A pesar de ello, la analítica web tradicional es algo del pasado. Es un término que todos intentan (intentamos) evitar, utilizando derivados más cool y que generen un componente emocional. Estos nuevos conceptos cobran protagonismo cuando se combinan con un sustantivo que no sea “web”, por ejemplo: análisis de clientes, análisis predictivo, análisis de marketing, análisis de productos y análisis integrados.

En la actualidad la industria digital presenta una tendencia hacia términos genéricos y a menudo vagos; acuñados en base a la necesidad de conceptualizar nuevos conceptos para demostrar a sus público objetivo su nivel de “trendiness”.


Pese a ello, una cosa es cierta. Todas estas definiciones tienen dos objetivos en común para el mercado analítico: comprender el modelo de negocio y comprender a sus clientes (internos o externos).

La evolución de la analítica

La analítica web se puede definir como la antesala en la que los expertos en materia digital están ocupados a día de hoy. Al principio, cumplió su propósito, pero progresivamente se fue debilitando a medida que la web pasó de ser el único canal digital de una compañía a ser uno de muchos (aunque no por ello perdió protagonismo).

Fue entonces cuando el concepto evolucionó. Se requerían términos inclusivos para dar respuesta a los nuevos canales digitales y fue entonces cuando nombramos a la combinación de la analítica web, app y móvil marketing como Digital Intelligence.  Tristemente también le llegó su “expire date”.

El mercado se está volviendo cada vez más customer-centric gracias a la posibilidad de conectar datos de diversas fuentes enriqueciendo los sistemas de gestión de relación con los clientes (CRM). Estos sistemas están diseñados para lograr una comprensión más detallada del comportamiento y las actividades de los clientes. Y fué en este momento cuando los sistemas CRM inspiraron el nacimiento de un nuevo concepto: Customer Intelligence.

Para rizar el rizo, tras la existencia del término anteriormente citado, nació uno nuevo: Business Intelligence; el cual encapsulaba los datos anteriormente descritos así como fuentes de datos no estructuradas, semi-estructuradas y estructuradas; desde ERP (Enterprise Resource Planning) hasta CRM ( Customer Relationship Management).

Con el paso del tiempo, el sector digital fue acuñando una gran variedad de términos analíticos. Pero…¿son términos aislados?, ¿o son eslabones de una cadena unificada?.

Si estás más perdido que un pulpo en un garaje… No eres el único.

La era de una sociedad hiperconectada

Estamos en la era del cliente hiperconectado. Incluso afirmaríamos que estamos en la era de la sociedad hiperconectada.

Según un artículo de 2016 de McKinsey & Company, “Para 2020, se conectarán unos 50 mil millones de dispositivos inteligentes, junto con miles de millones adicionales de sensores inteligentes, asegurando que el suministro global de datos continuará más que duplicando cada dos años”.

Manejar esta marea de datos es una tarea mayúscula. Según GSMA Intelligence, actualmente hay más dispositivos conectados en la Tierra que personas: alrededor de 8,2 mil millones. Tenemos un gran desafío entre manos de cara al futuro, y de alguna manera, nosotros hemos sido los responsables. 

En aras de un cálculo fácil, supongamos que, en promedio, estos dispositivos generan aproximadamente 1 kilobyte de datos (la estructura es irrelevante para este ejemplo) cada hora. Esto equivaldría a 8,2 Terabytes (TB) de datos cada hora; ~197 TB de datos todos los días; 5,904 TB de datos cada mes; y 2,154,960 TB de datos cada año, lo que equivale a aproximadamente 2,105 Petabytes (PB) de datos… una salvajada.

El Gran Colisionador de Hadrones (LHC) en el CERN – el acelerador de partículas más grande y más poderoso del mundo – produjo alrededor de 500 PB solo en 2015. Este montón de datos es el comienzo de nuestro problema: la forma en la que usamos esos datos es el key de la cuestión. 

El resultado inevitable de una sociedad hiperconectada

¿Qué es exactamente el Big Data? Aunque no es un término reciente, no tenemos una respuesta clara sobre su definición.

A continuación plasmamos nuestras interpretaciones:

1. Un resultado inevitable de los avances tecnológicos en la era digital.

2. Un profundo problema técnico que debe abordarse con nuevos métodos (Machine Learning, Deep Learning, Neural Nets y AI) porque, debido a su gran volumen, ningún ser humano puede analizarlo.

3. Una herramienta con un potencial increíble para permitir avances en la investigación científica y en la sociedad.

4. Un buque peligroso cada vez más cerca de despojarnos de nuestra libertad y privacidad, esclavizando a la humanidad en una distopía de tipo Minority Report 😉 

Todas las interpretaciones anteriores son aplicables al Big Data.

El adjetivo “Big” crea debate en torno a este término, inclinando las discusiones hacia su cuantificación. Sin embargo, la clave reside en cómo lo abordamos (e interpretamos)
   
Por ejemplo, pasar nuestra tarjeta de entrada en la oficina, o los datos recopilados sobre cuánto gastamos en comida cada mes con nuestra tarjeta de crédito. No son solo las interacciones personales, sino las interacciones con miles de millones de dispositivos (sensores, etc.)  que recopilan datos sin que nosotros lo sepamos.

En general, el Big Data se utiliza para detectar patrones de conducta ya existentes y7o emergentes, lo que lo convierte en el candidato ideal para análisis predictivos (predictive analysis). Sin embargo, el gran tamaño de Big Data hace que ejecutar el análisis sea una tarea hercúlea debido a la gran potencia tecnológica requerida.

Por otra parte, ¿acaso los humanos no  destacamos por nuestra creatividad para rectificar los problemas que hemos creado?

El fundador de Webtrekk y nuestro CTO Norman Wahnschaff afirma:

“No necesitamos Big Data sino Smart Data”.

Llegados a este punto es cuando algunos lectores se plantean  la siguiente pregunta: “Los datos son datos, ¿cómo podrían definirse como “inteligentes”?” .

La respuesta, de hecho, no está entre las definiciones comúnmente aceptadas de Big Data por Gartner, conocida como las 3V (Volumen, Variedad y Velocidad), sino dentro de las últimas definiciones agregadas conocidas como Variabilidad y Veracidad, que describen la consistencia y la calidad del conjunto de datos recopilados, respectivamente, y el posible impacto en la precisión del procesamiento y el análisis.




 


Previous Post Next Post

You Might Also Like

No Comments

Leave a Reply