Raúl J. Pérez Rodríguez
El Ciclo de Inteligencia y el Análisis como parte de su fase neurálgica (elaboración) es una metodología que data desde los inicios de la inteligencia como disciplina, la cual sigue en pleno uso por los excelentes resultados que ha arrojado a través del tiempo en la producción de inteligencia, sin embargo ante el desarrollo exponencial de las tecnologías de la información y las comunicaciones que signan la Era del Conocimiento, debe adaptarse y digitalizarse para afrontar eficientemente el tratamiento y análisis de los grandes volúmenes de datos que se generan (Big Data).
Peter Drucker en su libro del año 1969 “La Era de la Discontinuidad” manifiesta la necesidad de que se genere una teoría económica que coloque el conocimiento en el centro de la producción de la riqueza, destacando que lo más importante no era la cantidad de conocimiento, sino más bien su productividad; en consecuencia surge la Era del Conocimiento caracterizada por la conversión del conocimiento en factor de produccción y el incremento del valor de los intangibles de las organizaciones. Todo esto decanta en la transformación de la sociedad industrial en sociedad del conocimiento, con su respectiva fuerza laboral o el trabajador del conocimiento.
El auge, desarrollo y crecimiento exponencial de las tecnologías de la información y las comunicaciones ha derivado en un aumento similar de la información que se produce e intercambia, volviendo la misma prácticamente inmanejable para la capacidad humana, obligándoles a desarrollar tecnologías basadas en softwares de tratamiento y análisis de información para administrar la misma a fin de producir conocimiento que agregue y genere valor.
Big Data se refiere al análisis masivo de datos, de tal magnitud que los softwares tradicionales son incapaces de gestionar. Igualmente, define a las nuevas tecnologías que posibilitan la captura, almacenamiento y procesamiento de estos datos y al uso que se hace de la información y del conocimiento obtenido a través de dichas tecnologías. El concepto de Big Data es relativamente nuevo, sus orígenes se remontan a las décadas de 1960 y 1970 con los primeros centros de datos y el desarrollo de las bases de datos relacionales. No es hasta el año 2005 – 2006 que se hizo evidente la cantidad de datos que generaban las redes sociales y otros servicios online, desarrollándose Hadoop y luego Spark como códigos abiertos creados específicamente para almacenar y analizar grandes conjuntos de datos, fáciles de usar y económicos para almacenar. La producción de datos no deja de crecer y con la tecnología 5G junto al Internet de las Cosas, la gran cantidad de dispositivos, artefactos y objetos conectados a la red generan aún más datos; sin hablar de lo que viene con la aparición de la Inteligencia Artificial como tecnología catalizadora en la producción de datos como en su tratamiento.
Las características del Big Data se definen generalmente sobre la base de las “V”, que coincidencialmente es la letra del alfabeto por la cual comienzan todas estas propiedades:
- Velocidad: asociada a la inmediatez requerida para el tratamiento de los datos.
- Variedad: referida a la diversidad de técnicas para tratar datos procedentes de numerosas fuentes y en distintos formatos.
- Volumen: cantidad de datos en aumento que inciden en el crecimiento de las aplicaciones y la arquitectura construida para soportar la recogida y almacenamiento de datos cada vez más variados.
- Veracidad: trata sobre la fiabilidad de la información recogida, para obtener datos de calidad.
- Valor: eficiencia en la consecusión de los datos que representen informaciones de valor.
- Variabilidad: adaptabilidad de los modelos o tratamientos que se aplican a los datos en virtud de su constante cambio.
- Visualización: sintetizar el conocimiento producido de manera clara y sencilla en gráficos amigables y de fácil comprensión.
El Glosario de Inteligencia del Ministerio de la Defensa de España del año 2007, define el Ciclo de Inteligencia como el “Proceso de generación y comunicación de conocimiento nuevo, veráz y ajustado a las necesidades y los requerimientos de un usuario, a partir de la obtención y transformación de información apropiada. Secuencia de actividades mediante las cuales se obtiene información que, debidamente tratada, se convierte en conocimiento (inteligencia) que se pone a disposición de un usuario”.
El Centro Nacional de Inteligencia (CNI) de España emplea cuatro pasos o fases: dirección, obtención, elaboración y difusión; cada fase con sus respectivas subfases:
Fuente: Centro Nacional de Inteligencia (CNI)
Sin embargo, este modelo tradicional ha sido cuestionado por muchos profesionales en la materia por considerarlo algo obsoleto en sus principios esenciales y su propensión a afrontar las nuevas realidades de la Era del Conocimiento. En los últimos años han sido frecuentes los intentos por modificarlo, mejorarlo y transformarlo en su propia naturaleza; no obstante sigue siendo un esquema orientativo y la metodología generalmente aceptada para la generación de conocimiento útil y ajustado a los requerimientos del destinatario final, el tomador de decisiones.
Algunos autores especialistas en Big Data consideran un Ciclo de Inteligencia o de Gestión de la Información para tratar ingentes cantidades de datos basado en cuatro pasos:
- Captura de Información: orientado a conocer dónde está la información que se necesita y cómo se puede capturar. La información está en todas partes y se trata de saber obtenerla. Para la captura existen varios métodos, entre otros: el Web Scraping es una técnica que mediante programas de software se extrae información de sitios web; la gestión de información a través de diversas API creadas a tal efecto que facilitan la comunicación entre diversos componentes de softwares; y servicios como Apache Flume diseñados para recopilar y agregar grandes volúmenes de datos.
- Almacenamiento: una vez capturados los datos, es necesario guardarlos; para ello y dependiendo del empleo que se les vaya a dar y al tipo de información que se trate, se cuenta con hojas de cálculo para la información estructurada tradicional, o con sistemas NoSQL para el almacenamiento de la información no estructurada de forma rápida y flexible.
- Tratamiento: completada la captura y almacenamiento de los datos, corresponde su tratamiento el cual depende del tipo de información que sea y su uso; pudiendo extraerse conocimiento y buscar patrones repetitivos en los datos por medio de la estadística y de la inteligencia artificial (machine learning).
- Puesta en valor: se basa en el tratamiento y análisis adecuado de los datos e información para establecer relaciones entre ellos que proporcionen patrones orientados a producir conocimiento útil y alineado con los requerimientos y necesidades de información de los decisores. La difusión de la inteligencia producida puede presentarse en informes gráficos (dashboards) de fácil entendimiento y comprensión.
Dentro del entorno organizacional, específicamente el corporativo o empresarial, el Big Data constituye la base de la Inteligencia de Negocios (Business Intelligence) al tratar la gran cantidad de datos e información interna con softwares de inteligencia analítica diseñados para tal fin, de manera cuantitativa. Para la Inteligencia Competitiva que trata los datos e información del entorno organizacional, el Big Data también es de utilidad pero alterna con métodos tradicionales que le proporcionan el tilde cualitativo al producto de este análisis.
El Ciclo de Inteligencia y el Análisis como parte de su fase neurálgica (elaboración) es una metodología que data desde los inicios de la inteligencia como disciplina, la cual sigue en pleno uso por los excelentes resultados que ha arrojado a través del tiempo en la producción de inteligencia, sin embargo ante el desarrollo exponencial de las tecnologías de la información y las comunicaciones que signan la Era del Conocimiento, debe adaptarse y digitalizarse para afrontar eficientemente el tratamiento y análisis de los grandes volúmenes de datos que se generan (Big Data).