ClickCease
Qué entendemos por “Big Data”
 /  Noticias y Novedades / Opinión y Recomendaciones / Qué entendemos por “Big Data”
Qué entendemos por “Big Data”

Qué entendemos por “Big Data”

Terminada la IV Edición del Máster en Big Data propio de la UMA y a la espera de la siguiente edición, aprovechamos para dar a conocer (de una forma más popular si nos lo permiten) que es exactamente el Big Data y cómo puede ayudarnos en nuestro día a día…

El Big data (palabra anglosajona que se traduce literalmente como macrodatos o conjunto masivo de datos) es a un fenómeno que surgió en los años ochenta. Hoy día nos vamos a encontrar este término anglosajón en cualquier libro, ensayo o periódico, aunque la RAE aún no lo ha aceptado como tal.  El uso actual del término Big Data, se refiere a esgrimir el comportamiento del usuario, implementando valor a los datos almacenados y por ende se pueden formular predicciones de los patrones observados.

La tecnología va mejorando día a día y con ella los computadores que han aumentado de manera significativa, el procesamiento, el almacenamiento la capacidad y la velocidad. Esta situación ha traído consigo otros y nuevos inconvenientes. Se han tenido que crear nuevas herramientas para solventarlos.

Para poder trabajar con los macrodatos se necesitan aplicaciones informáticas no tradicionales para poder procesar esos datos y poder manejarlos de manera correcta. La RAE nos define dato como “1. Información sobre algo concreto que permite el conocimiento exacto o sirve para deducir las consecuencias derivadas de un hecho. 2. Información dispuesta de manera adecuada para su tratamiento por una computadora.” Por tanto, los parámetros que se usan para hallar patrones repetitivos dentro de esos datos son más avanzados y necesitan un software más avezado.

¿Cuáles son las principales características?

Podemos de un concepto denominado las 5 Vs:

  • Volumen:  el volumen de datos creados y guardados.
  • Variedad: la diversidad y la naturaleza de los datos para ayudar a terceros a cuantificar y usar esos datos de manera de manera eficaz. Se usan imágenes, textos, vídeos y audios.
  • Velocidad: la velocidad a la que se generan y se procesan estos datos.
  • Veracidad: el hecho de que no sean de calidad puede variar en el resultado del análisis.
  • Valor: deben ser útiles y tener valor.

¿Quién se ocupa de estudiarlos?

Están enmarcados dentro de las tecnologías de la información y de la comunicación. Trabajan sobre los propios sistemas que a su vez gestionan grandes conjuntos de datos. El principal problema de gestionar ese gran conjunto de datos es en compilar, en almacenar, comparticiones, visualizaciones y en las representaciones.    

¿Cuál es el fin de esta gestión de datos?

Principalmente se utiliza para la creación de estadísticas, de modelos predictivos en diferentes ámbitos ya sea relacionado con los negocios, acerca de la publicidad, relacionado con la salud y/o enfermedad, hechos delictivos como el crimen organizado, espionaje, hábitos de consumo, etc …

Podríamos resumirlo como la densidad de información para medir cosas, para detectar tendencias, revelar relaciones, dependencias y/o comportamientos.

Related Posts

Módulo 10. Procesamiento de datos escalable en el contexto Big Data: Machine Learning y Streaming
Módulos
Módulo 10. Procesamiento de datos escalable en el contexto Big Data: Machine Learning y Streaming

¡Potencia tu conocimiento en Big Data e Inteligencia Artificial con el Módulo 10 del Máster en Big Data e Inteligencia Artificial de la UMA! En este módulo, exploraremos el emocionante mundo del procesamiento de datos escalable en el contexto de aplicaciones Big Data, centrándonos en dos áreas clave: el Machine Learning y el Streaming. Aprenderás a utilizar tecnologías como SparkML, Spark Structured Streaming y Apache Flink para desarrollar aplicaciones escalables y aprovechar al máximo el potencial de los datos.

Deja un comentario

Your email address will not be published. Required fields are marked.*

× ¿Cómo puedo ayudarte?