Publicado en
En los últimos años, debido al avance de las Tecnologías de la Información, estamos siendo testigos de una verdadera explosión en la cantidad de datos disponibles, listos para ser analizados y así convertirse en información importante para la inteligencia de negocio. Este nuevo escenario se refiere no sólo al volumen de datos, sino también a la velocidad, complejidad y variedad de los tipos de información disponible, como acontece con los datos de las redes sociales, logs de acceso a Internet o datos generados por máquinas, por ejemplo. Por lo tanto, los modelos tradicionales de data warehouse y soluciones analíticas, desarrolladas para ofrecer soporte a ese mundo de informaciones, encuentran un nuevo desafío relacionado, sobre todo, a la manipulación de ese contenido, acompañado de toda esa complejidad y dinamismo: es aquí donde surge el concepto de Big Data.
Los Big Data o Grandes Datos son datos ricos y extremadamente útiles para análisis, pero que no se encuentra disponibles —al menos inicialmente— de una manera estructurada, ya sea por la alta velocidad con que son producidos o por los mecanismos a través de los cuales son generados. Siendo así, más allá de la gran cantidad de información disponible hoy, los Big Data se relacionan directamente a la capacidad de manipular y analizar datos multi-estructurados no relacionados, que requieren de una interacción rápida y adaptable.
Como soporte a esa nueva realidad, ya están disponibles nuevas técnicas y tecnologías como MapReduce o Hadoop, que resuelven limitaciones de SQL tradicional, para tratar los variados tipos de datos complejos disponibles en Internet o en otras fuentes. Desde el punto de vista de hardware, los Big Data pueden recurrir a tecnologías existentes, como las arquitecturas de Procesamiento Paralelo Masivo (MPP), que permiten el rápido procesamiento de estos grandes y complejos volúmenes de datos.
Muchas empresas ya están comenzando a desarrollar su propia lógica utilizando ese tipo de infraestructura, posibilitando análisis importantes como el comportamiento de los clientes en casos de optimización del marketing digital, las interacciones entre usuarios en las redes sociales, transacciones e interacciones on-line para detección y prevención del fraude y la eficiencia operacional por datos generados por máquinas, entre otros.
En esos escenarios, surge también la figura del científico de datos o desarrollador analítico, que es un profesional responsable por el desarrollo e implementación de esos tipos de análisis para beneficio del negocio. Este no es el mismo analista tradicional de BI (Business Inteligence) que conocemos hoy: son personas que conocen con detalle la necesidad del negocio, los datos disponibles y, al mismo tiempo, utilizan estas nuevas tecnologías para perfeccionar análisis que puedan traer nuevas directrices para la gestión estratégica.
Como se podrá usted imaginar, un aspecto importante a ser considerado, es el de desarrollar dentro de los usuarios y profesionales de TI las habilidades y conocimientos necesarios para aprovechar el potencial del Big Data en beneficio de las empresas. Esto sucede porque la mayoría de los usuarios y personal de TI están acostumbrados al desarrollo e implementación de proyectos relacionados con los sistemas, aplicaciones y análisis tradicionales de BI, que también son necesarios y vitales pero que —en la mayoría de los casos— consisten básicamente en la obtención de datos de sus fuentes tradicionales de origen (tales como el ERP) a fin de disponerlos en informes pre-concebidos para los usuarios.
En este vasto universo de capacidades analíticas, el contexto de los Big Data incrementa el potencial de las empresas, aprovechando la utilización de las nuevas tecnologías y herramientas cada vez más importantes para el análisis de las inagotables fuentes de información que están disponibles hoy, trayendo consigo conocimiento, nuevas perspectivas y oportunidades para vencer en un mercado cada vez más competitivo.
Francisco Bernal es Director General de Teradata México.
- Log in to post comments