Publicado en
Autor
La información es indudablemente el activo de negocio más importante de toda organización. De tal manera que, un mal manejo de la información puede afectar la toma de decisiones al no haber procesos, políticas y tecnología que permitan garantizar la confiabilidad de los datos.
El término de Gobernabilidad se refiere precisamente a ese conjunto de políticas que definen cómo es que se deberían de administrar los datos. Sin este proceso establecido, los datos generados día con día dejan de ser verificados, se encuentran incompletos y desactualizados.
Ahora bien, pensemos en el mundo de big data en donde los datos tienen comúnmente una vida útil corta y además se pueden acumular rápidamente, de manera que se vuelve imperativo definir las políticas del ciclo de vida de éstos evitando dicha acumulación y así determinar cómo y cuándo eliminar y mantener los datos.
Big data está cambiando las características de los datos de cada sistema y para hacerlos utilizables necesitan ser gobernados de una manera más segura y confiable.
Recordemos los aspectos de big data definidos a través de las 4 V's: volumen, velocidad, variedad y veracidad. El aspecto de la veracidad cobra especial importancia ya que necesitamos confiar en la información que utilizamos para tomar decisiones. ¿Cómo poder intervenir en la información si no es confiable?
Depurando el big data
Si bien es posible pensar que cualquier forma de gobierno o intento por “limpiar” nuestra big data en realidad podría eliminar información valiosa, es necesario determinar si los datos deben limpiarse con el mismo criterio que se aplicaría a los datos tradicionales o si se pierde valor al hacerlo. Entonces, ¿deberían establecerse procesos de gobernabilidad de datos para Big Data?, la respuesta es sí, aunque va directamente relacionado con el objetivo de los datos.
Existen diversos casos de uso, por ejemplo, el análisis de clientes, el cual se ve más beneficiado cuando los datos tienen mayor calidad. Sin embargo otros casos como el análisis de identidades sospechosas, requiere que los datos sean analizados exactamente cómo son introducidos para descubrir patrones de identidad falsos.
Muchos casos de big data incluyen el análisis de información sensible; de tal modo que las organizaciones deben definir las políticas de seguridad para proteger dicha información y esas políticas deben ser monitoreadas y aplicadas.
Otro caso interesante es la integración entre un proyecto de gestión de datos maestros (MDM) y big data. Por ejemplo, se pueden extraer los acontecimientos importantes sobre las redes sociales tales como un cambio en el estado civil, el nacimiento de un nuevo integrante de familia o un cambio de domicilio para enriquecer la información maestra actuando como un tipo de fuente de ese sistema. Así, MDM puede desempeñar un papel fundamental en las iniciativas de gobernabilidad para Big Data, proporcionando una única versión, obteniendo como resultado final información valiosa.
Conclusión
Durante el proceso de gobierno de datos, la primera etapa, y la más importante, es decidir si nuestro big data necesita ser gobernada, y en qué medida tiene que serlo. El llevar a cabo esta decisión, puede ser la clave en el éxito del diseño de sus proyectos, pues ese es el verdadero valor de la integración de información y su gobernabilidad. El éxito en el análisis de grandes volúmenes de datos depende finalmente en la extracción y entrega de información de confianza.
Referencias
[1] S. Soares. Big Data Governance: An Emerging Imperative. MC Press, 2013. http://swgu.ru/sg40r11
[2] P. Zikopolous et al. Harness the Power of Big Data. McGraw-Hill, 2013. http://swgu.ru/sg40r12
Ricardo Barranco Fragoso es especialista en Information Management en IBM México. Sus áreas de especialidad son: big data, master data management e integración y calidad de datos. Previo a su incorporación a IBM, Ricardo participó en diversos proyectos de software como desarrollador, líder técnico y arquitecto.
- Log in to post comments