Ya hablamos en uno de nuestros blogs de Big Data, para contraponerlo al Small Data. Hasta hace pocos años, seguíamos centrándonos en características como “las tres V”: Volumen, Velocidad y Variedad de Datos. Este es el modelo de Big Data clásico, que se caracteriza por gran Volumen, gran Velocidad y gran Variedad.
- Volumen: Hemos pasado de GigaBytes a PetaBytes. Grandes empresas como Google, Facebook o Youtube ya miden su actividad en este tipo de unidades.
- Velocidad: Desde invertir días o incluso semanas en procesar algunas transacciones, hemos pasado a transacciones en tiempo real o prácticamente en tiempo real, que es lo que caracteriza el Big Data.
- Variedad: Big data suma a los datos estructurados, los datos semi-estructurados, no estructurados o estructurados de manera compleja. Se calcula que el 90% de los datos generados por una organización no son estructurados.
Las nuevas Vs del Big Data
Sin embargo, de unos años para acá el modelo de Big Data ha cambiado. El experto Mark van Rijmenam habla de otras cuatro Vs más:
- Veracidad: Si los datos contienen errores o no son veraces, la cantidad de errores que pueden provocar es enorme. Especialmente en procesos automatizados de toma de decisiones, las empresas deben asegurarse que tanto los datos como su análisis son veraces. Es además un factor crítico si la empresa nos dedicamos a la gestión de información. Hay una estrecha relación entre veracidad de los datos y calidad.
- Valor: Es la rentabilidad resultante de la gestión de datos. En este punto, lo clave no es la cantidad de datos, sino el uso y manejo que se haga de ellos. Por poner un ejemplo, según McKinsey & Company, el valor potencial anual de los datos del Sistema de Salud de los Estados Unidos es de 300.000 millones, más del cuatro veces del gasto del Sistema de Salud en España.
- Variabilidad: Los datos provienen de entornos diferentes y su significado es cambiante con el tiempo, lo que hace necesario el uso de algoritmos para comprender el significado dependiendo del contexto y el momento en que se recogen.
- Visualización: La cantidad de datos recogidos y organizados deben ser comprensibles y sencillos de leer. Numerosas startups están poniendo el acento en traducir las ingentes cantidades de datos en diagramas y gráficos complejos que creen tendencias y relaciones causa-efecto útiles para las empresas.
Si bien los tres primeros puntos definen lo que básicamente es el Big data, los otros cuatro empiezan a hablar de lo útil que resulta para nuestros modelo de negocio y el valor que nos pueden aportar. Lo importante del Big Data no es tanto lo que lo caracteriza, como lo que nos puede aportar.
Cambios en el modelo de Big Data
Por otra parte, escándalos como el de Cambridge Analytica, han planteado hasta dónde puede llegar el mal uso del Big Data, de ahí que pasen a primer plano aspectos como la veracidad de los datos, la privacidad de los mismos, y el valor que suponen para las empresas. El uso de Big Data para difundir datos no veraces (Veracidad) a grupos de población cuyos datos han sido obtenidos invadiendo su privacidad (más de 87 millones, según datos de Facebook), ha generado sustanciosos ingresos a esta empresa (Valor). Pero lo importante es que se han cruzado líneas rojas que no se deberían haber cruzado.
En Europa, la aplicación del RGPD se ha diseñado para combatir este tipo de prácticas. Su aplicación ha recortado enormemente los ingresos de las empresas cuyo valor eran los datos a gran escala para acciones comerciales y publicitarias. Aún estamos inmersos en las consecuencias para las empresas (sobre todo las multinacionales) con esta regulación.
En conclusión, nuevas variables como la Veracidad de los datos, o el Valor que puede ser obtenido por los mismos, son fundamentales para comprender modelo de Big Data en la actualidad, y sus complicaciones legales y morales. Otros elementos como la Variabilidad se introducen para hacer más complejo el análisis de los datos, y la Visibilidad es un objetivo claro para muchas empresas que quieren hacer de Big Data parte de su modelo de negocio.