- Obtener enlace
- Correo electrónico
- Otras aplicaciones
- Obtener enlace
- Correo electrónico
- Otras aplicaciones
Big Data es una de las tendencias tecnológicas más
importantes para la transformación digital de las empresas, ya que ha
representado uno de los mayores impactos en diferentes sectores económicos y
empresariales. La aplicación de este tipo de tecnologías es variada y va desde
la toma de decisiones, pasando por la segmentación de clientes, hasta el
aumento drástico de la productividad.
Big data puede cargar información adicional que ya no
se encuentra dentro de los dominios de la empresa: Comentarios
o likes en redes sociales, resultados de campañas de marketing, datos
estadísticos de terceros, etc. Todos estos datos nos ofrecen
información que nos ayuda a saber si nuestros productos o servicios están
funcionando bien o por el contrario están teniendo problemas.
Algunos desafíos a los que se
enfrenta la calidad de datos de Big Data son:
1. Muchas fuentes y tipos de
datos
Con tantas fuentes, tipos de datos
y estructuras complejas, la dificultad de integración de datos aumenta.
Las fuentes de datos de big data
son muy amplias:
Datos de internet y móviles.
Datos de Internet de las
Cosas.
Datos sectoriales
recopilados por empresas especializadas.
Datos experimentales.
Y los tipos
de datos también lo son:
Tipos de datos no
estructurados: documentos, vídeos, audios, etc.
Tipos de datos
semi-estructurados: software, hojas de cálculo, informes.
Tipos de
datos estructurados
Solo el 20% de información es
estructurada y eso puede provocar muchos errores si no acometemos un proyecto
de calidad de datos.
2. Tremendo volumen de datos
Como ya hemos visto, el
volumen de datos es enorme, y eso complica la ejecución de un proceso de
calidad de datos dentro de un tiempo razonable.
Es difícil recolectar, limpiar,
integrar y obtener datos de alta calidad de forma rápida. Se necesita mucho tiempo para
transformar los tipos no estructurados en tipos estructurados y procesar esos
datos.
3. Mucha volatilidad
Los datos cambian
rápidamente y eso hace que tengan una validez muy corta. Para solucionarlo
necesitamos un poder de procesamiento muy alto. Si no lo hacemos bien, el procesamiento y análisis basado en estos datos puede
producir conclusiones erróneas, que pueden llevar a cometer errores en la toma
de decisiones.
4. No existen estándares de
calidad de datos unificados
En 1987 la Organización
Internacional de Normalización (ISO) publicó las normas ISO 9000 para
garantizar la calidad de productos y servicios. Sin embargo, el estudio de los
estándares de calidad de los datos no comenzó hasta los años noventa, y no fue hasta 2011 cuando ISO publicó las normas de calidad
de datos ISO 8000.
Estas normas necesitan madurar y
perfeccionarse. Además, la investigación sobre la calidad de
datos de big data ha comenzado hace poco y no hay resultados.
La calidad de datos de big data es
clave, no solo para poder obtener ventajas competitivas sino también impedir
que incurramos en
graves errores estratégicos y operacionales basándonos en datos erróneos con
consecuencias que pueden llegar a ser muy graves.
- Obtener enlace
- Correo electrónico
- Otras aplicaciones
Comentarios
Publicar un comentario