6 beneficios al rentar equipo de cómputo

Los desafíos de Big Data en la actualidad

 

Big Data es una de las tendencias tecnológicas más importantes para la transformación digital de las empresas, ya que ha representado uno de los mayores impactos en diferentes sectores económicos y empresariales. La aplicación de este tipo de tecnologías es variada y va desde la toma de decisiones, pasando por la segmentación de clientes, hasta el aumento drástico de la productividad. 

Big data puede cargar información adicional que ya no se encuentra dentro de los dominios de la empresa: Comentarios o likes en redes sociales, resultados de campañas de marketing, datos estadísticos de terceros, etc. Todos estos datos nos ofrecen información que nos ayuda a saber si nuestros productos o servicios están funcionando bien o por el contrario están teniendo problemas.

Algunos desafíos a los que se enfrenta la calidad de datos de Big Data son:

1. Muchas fuentes y tipos de datos

Con tantas fuentes, tipos de datos y estructuras complejas, la dificultad de integración de datos aumenta.

Las fuentes de datos de big data son muy amplias:

Datos de internet y móviles.

Datos de Internet de las Cosas.

Datos sectoriales recopilados por empresas especializadas.

Datos experimentales.

 

Y los tipos de datos también lo son:

Tipos de datos no estructurados: documentos, vídeos, audios, etc.

Tipos de datos semi-estructurados: software, hojas de cálculo, informes.

Tipos de datos estructurados

Solo el 20% de información es estructurada y eso puede provocar muchos errores si no acometemos un proyecto de calidad de datos.

2. Tremendo volumen de datos

Como ya hemos visto, el volumen de datos es enorme, y eso complica la ejecución de un proceso de calidad de datos dentro de un tiempo razonable.

Es difícil recolectar, limpiar, integrar y obtener datos de alta calidad de forma rápida. Se necesita mucho tiempo para transformar los tipos no estructurados en tipos estructurados y procesar esos datos.

3. Mucha volatilidad

Los datos cambian rápidamente y eso hace que tengan una validez muy corta. Para solucionarlo necesitamos un poder de procesamiento muy alto. Si no lo hacemos bien, el procesamiento y análisis basado en estos datos puede producir conclusiones erróneas, que pueden llevar a cometer errores en la toma de decisiones.

4. No existen estándares de calidad de datos unificados

En 1987 la Organización Internacional de Normalización (ISO) publicó las normas ISO 9000 para garantizar la calidad de productos y servicios. Sin embargo, el estudio de los estándares de calidad de los datos no comenzó hasta los años noventa, y no fue hasta 2011 cuando ISO publicó las normas de calidad de datos ISO 8000.

Estas normas necesitan madurar y perfeccionarse. Ademásla investigación sobre la calidad de datos de big data ha comenzado hace poco y no hay resultados.

La calidad de datos de big data es clave, no solo para poder obtener ventajas competitivas sino también impedir que incurramos en graves errores estratégicos y operacionales basándonos en datos erróneos con consecuencias que pueden llegar a ser muy graves.

Alberto Cornejo. (2019). Qué es Big Data. 07-01-2021, de PCO Sitio web: https://pco.com.mx/que-es-big-data/

    

 

Comentarios