El tratamiento de datos masivos o big data ha irrumpido en las organizaciones de todo el mundo en los últimos años. Un concepto que ha sido clave en la creación de estrategias y en la toma de decisiones, que ha creado nuevos puestos de trabajo y que ha convertido a los especialistas analistas de datos en un perfil clave en muchas compañías. Pero las empresas empiezan a buscar formas más efectivas de tratar la información, y también más accesibles para sus empleados.
Los cambios se producen cada vez más rápido, y situaciones como la pandemia global causada por la COVID-19 han demostrado que algunas tendencias tomadas como inmutables pueden evolucionar rápidamente en muy poco tiempo. También los datos. Los analistas de información han comprobado cómo el tratamiento masivo de esta no es siempre la vía óptima a implementar en los sistemas de inteligencia artificial (IA), y son muchas las compañías que exploran ya nuevos caminos.
Y es que, en este sentido, el 70 % de las organizaciones empresariales reenfocarán sus estructuras de análisis hacia la minería de precisión, según las predicciones de Gartner para 2025. En su informe, la prestigiosa consultora estadounidense apunta a un importante cambio de tendencia en el próximo lustro. Esto implica que la gran mayoría de empresas reorientarán su análisis de datos desde los macrodatos hacia el wide y small data, conjuntos de información más pequeños y combinados para un filtrado más preciso.
Esta forma de tratar los datos potencia que la IA aplicada a partir de lo extraído sea más sólida y tarde más en quedarse obsoleta. Además, permite una interpretación más fina y acertada de la información, así como más eficiente, ya que las aplicaciones tecnológicas no necesitarán recibir tanto volumen de conocimiento para arrojar resultados.
‘Wide data’ y ‘small data’
La minería de datos se ha establecido como un proceso de extracción de conjuntos de información muy grandes para su posterior examen en busca de patrones que permitan planificar estrategias por parte de las organizaciones. El problema es que la información extraída, además de muy amplia, contiene datos demasiado heterogéneos para realizar análisis efectivos en algunos casos. Esto complica la ejecución de tareas como la creación de bases de datos, el uso del big data en procesos de optimización o en tecnologías de aprendizaje automático o machine learning.
Así, la obsolescencia provocada por los cambios “está rompiendo muchos modelos de producción basados en IA y machine learning”, tal y como afirma Jim Hare, vicepresidente de Gartner, quien además indica que “la toma de decisiones tanto por parte de humanos como de la IA se ha vuelto más compleja y exigente”. Esto ha llevado a muchos especialistas en análisis de información a poner la vista en nuevas técnicas conocidas como small y wide data.
El uso combinado de estos dos conjuntos de datos permite la utilización más eficiente de la información recogida. Además, al tratarse de paquetes más pequeños, reduce la cantidad necesaria de información a extraer para la posterior evaluación.
¿Cuál es la diferencia entre ‘small data’ y ‘big data’?
Por definición, el small data es una técnica avanzada en el análisis de datos que maneja conjuntos más limitados de información para predecir el comportamiento de usuarios y clientes. Mientras que el big data nos permite conocer a grandes rasgos la conducta de consumidores o mercados, el small data posibilita ahondar en ciertas actitudes concretas y analizar estrategias muy definidas.
Siguiendo con el símil de la minería de datos, el small data nos permite extraer con mayor precisión información más refinada en base a los objetivos planteados. A pesar de la relevancia que está empezando a cobrar actualmente, esta manera de agrupar los datos lleva ya muchos años entre nosotros y es ampliamente utilizado en algunos sectores. En realidad, se trata de usar la base del big data, una forma de tratar la información masiva que se generalizó gracias al aumento de las fuentes y a nuevas tecnologías que permitieron a las compañías abordar y procesar mayores cantidades de datos en diversos ámbitos de actuación.
En ese maremágnum de información masiva, muchas organizaciones han vuelto a poner la vista en el small data por diversos motivos. Por un lado, permite afinar la información extraída mediante el big data y convertirlos en small para tratar conjuntos más pequeños y más manejables tanto por aplicaciones tecnológicas como por las personas encargadas de analizar e interpretar esos datos. Por otro lado, es más asequible y permite su empleo a muchos otros roles dentro de la empresa, como áreas de negocio y marketing, y no solo a trabajadores exclusivamente del área tecnológica.
Y entonces, ¿qué es el ‘wide data’?
Por su parte, el wide data es uno de los conceptos más novedosos aparecidos en la ciencia de datos. Responde a la necesidad de las organizaciones de conocer cada vez una variedad más amplia en la información para entender a sus clientes. Las técnicas basadas en estos conjuntos de datos permiten el análisis combinado de diversas fuentes de información y buscan las relaciones entre ellas y los diferentes formatos en los que se han obtenido los datos, algo que Gartner llama X Analytics.
Es en la conjugación de ambas técnicas donde se desarrolla su mayor potencial, haciendo más robusto el trabajo analítico y facilitando una IA más capaz y destilada. Esto facilita procesos menos dependientes de grandes volúmenes de información y más centrados en aplicaciones específicas. Una combinación que, según Gartner, será aplicable en ámbitos como la atención al cliente mediante el uso de inteligencia emocional en tiempo real para facilitar la hiperpersonalización y la mejora de su experiencia.
Habrá que ver cómo se adaptan las organizaciones en los próximos años a estos nuevos cambios y tendencias. Pero si algo ha demostrado el análisis de datos hasta el día de hoy es la importancia para las compañías de renovarse y adelantarse al futuro para prevalecer en un mercado globalizado.
Fotos: Sigmund – Unsplash