5 consejos antes que te unas a la fiesta de big
data
Forbes -
miércoles, 26 de noviembre de 2014
Las instituciones financieras sólo utilizan 1%
de los datos que tienen para propósitos analíticos. El resto es una mina de oro
que pueden comenzar a explorar.
Con el big data, los desafíos del gobierno de
datos incrementan de muchas maneras:
A partir de la experiencia de los primeros
adoptadores de big data podemos diseñar algunas lecciones aprendidas y formar
algunas consideraciones para aquellos que se están uniendo a la fiesta.
1. Atrincherar el gobierno de datos desde el
inicio
Como lo había dicho previamente, el no
incorporar un marco fuerte de gobierno de datos desde el inicio probablemente
transformará la laguna de datos en un pantano de datos.
Las cuestiones más importantes a considerar en
esos primeros días son:
2. Designar nuevos administradores de datos
Típicamente, los proyectos de big data se
inician de dos maneras muy diferentes:
Ambos escenarios son igualmente malos, y es
aquí donde el gobierno de datos puede ayudar.
Para muchas organizaciones, el gobierno de
datos es una práctica naciente que aún no se ha establecido por completo como
una función empresarial, y en este momento necesitan repensar su acercamiento
para poder hacer frente a los requerimientos específicos de las iniciativas de
big data.
Mi recomendación es expandir el marco existente
de gobierno de datos, reusar las prácticas existentes cuando sea posible, pero
sin asumir que la misma receta funcionará para el big data. Designar nuevos
administradores de datos específicamente enfocados en el big data puede ser una
buena idea considerando que el big data requiere un cambio fundamental en la
cultura y acercamiento al manejo de datos.
3. Enfocarse en el manejo de metadata
Algunas veces, el metadata es tan valioso como
el contenido mismo. Si no se puede aplicar el mismo nivel de rigor al gobierno
del big data sin poner en peligro sus beneficios, es crucial captar metadata.
El manejo tradicional de metadata incluye el
desarrollo de un modelo lógico de datos y una descripción de cómo las bases de
datos interactúan entre ellas. Pero un buen modelo de big data describe cómo
los servidores mapean hacia fuentes internas y externas de datos y reducen las
oleadas de datos hacia información útil y relevante.
4. Encontrar el balance entre control y
velocidad
Más datos no necesariamente significan mejores
decisiones. Al final del día, una decisión tomada sobre petabytes de datos
malos no es mejor que una decisión basada en una pequeña serie de información
imprecisa.
Aplicar un nivel de control de calidad de datos
sobre nuevas fuentes de datos asegurará que los beneficios esperados se
alcanzan. Al mismo tiempo es necesario proteger uno de los aspectos más
valiosos del big data, que es la velocidad y la habilidad de juntar una vasta
cantidad de datos desiguales desde varias fuentes de forma oportuna y procesar
este flujo de datos.
En algunos casos es preferible manejar la
calidad de datos al punto del uso, opuesto a hacerlo durante el proceso de
consolidación. Para este fin es útil proveer a los usuarios de métodos fáciles
de cálculo DQ y servicios de perfil de datos para que puedan calcular la
pertinencia de las series de datos para sus propósitos específicos.
5. Comenzar con los datos existentes antes de
traer nuevas fuentes de datos
La recomendación final es comenzar a aprovechar
la vasta cantidad de datos que ya está disponible antes de intentar aprovechar
las fuentes externas de datos. Esto puede incluir datos históricos que son muy
costosos de manejar en un almacén tradicional de datos empresariales, datos no
estructurados como emails, registros de llamadas, visitas web, etcétera.
Se estima que las instituciones financieras
sólo utilizan 1% de los datos que tienen para propósitos analíticos. El resto
algunas veces es llamado “datos oscuros” y representan una mina de oro que se
puede comenzar a explorar y extraer sin la complicación y costo de traer nuevas
oleadas de datos.
Adoptar estas directrices simples cuando se
embarca en el viaje del big data sólo ayudará a reducir los riesgos y maximizar
el valor, así como modernizar la adopción de las nuevas tecnologías y uso de
los escenarios involucrados. Con el elevado número de organizaciones que
actualmente experimentan con big data podemos esperar una rápida curva de
aprendizaje en las industrias sobre lo que se necesita para extraer con éxito
el valor del big data.
No hay comentarios:
Publicar un comentario