Un blog de ingenierios para ingenierios en Audiovisuales, Telecomunicaciones, Electrónica, TIC, Informática, Multimedia y Telemática.

23 Marzo 2023 | Publicado por angela.tuduri

La era del Big Data: hablamos con Joan Navarro

El 39% de las empresas sufren escasez de habilidades en el análisis de datos. ¿A dónde nos dirigimos?

El Big Data se está convirtiendo en un tema candente, y su impacto en la industria y en la sociedad son ya innegables. Cada día, aumenta el número de datos disponibles. Datos que se traducen en información valiosa y con la que podemos impactar en cualquier decisión de mejora.  

Dr. Joan Navarro, profesional experto en análisis y procesamiento masivo de datos y coordinador del Máster Universitario de Datos Masivos (Big Data) de La Salle-URL nos adelanta las tendencias y cuestiones más demandadas del sector.  

¡No te lo pierdas!

El Big Data en el mundo empresarial  

Nuestros dispositivos, la huella digital y el rastro que dejamos al navegar por Internet nos dan información que, debidamente almacenada, analizada y tratada, nos ayuda a mejorar la toma de decisiones empresariales.  

Poder estudiar y conseguir información relevante sobre el negocio, es –probablemente– uno de los mayores avances tecnológicos desarrollados hasta la fecha.  

Este gran volumen de datos no se puede obviar, se tiene que explotar.”

- Joan Navarro, coordinador del Máster Universitario en Ingeniería de Datos Masivos (Big Data)

Para tener unos conocimientos avanzados e individualizados de nuestros clientes, mejorar la eficiencia operativa de nuestra empresa y/o conseguir nuevas oportunidades basadas en el análisis sistemático de los datos se requieren unas infraestructuras específicas y unas tecnologías concretas para trabajar con grandes volúmenes de datos (Big Data). Los últimos estudios del mercado laboral indican el aumento en la necesidad de incluir perfiles capacitados para el diseño y explotación de sistemas altamente escalables que permitan el análisis y la extracción de grandes volúmenes de datos.

Pero ¿Cómo procesamos esta gran cantidad de datos para poder conseguirlo? 

El ciclo de vida de los datos – un proceso continuo de limpieza y análisis  

El ciclo de vida de los datos es el conjunto de etapas por las que pasa el ingeniero de datos desde que obtiene la información hasta que la procesa y la explota.  

Almacenándolas, procesándolas, Analizándolas y tratándolas adecuadamente, podemos impactar en la mejora de la toma de decisiones empresariales”

- Joan Navarro, coordinador del Máster Universitario en Ingeniería de Datos Masivos (Big Data)

En el proceso, cada etapa se analiza en calidad, seguridad, privacidad y accesos entre otros, para asegurar la naturaleza y fiabilidad de la información y mejorar la toma de decisiones empresariales.  

  • Adquisición de datos: Los datos pueden ser generados por cualquier dispositivo digital: teléfonos inteligentes, redes sociales, transacciones comerciales, encuestas... Y/o también pueden ser adquiridos por fuentes externas, como bases de datos públicas o privadas, proveedores de datos o servicios de terceros. Esta fase requiere el uso de tecnologías que permitan enlazar las fuentes de generación de datos con la infraestructura de almacenamiento y procesado. 

  • Almacenamiento de datos: Una vez capturados, los datos se almacenan en diferentes tipos de infraestructura (por ejemplo, bases de datos NoSQL, data lakes hospedados en nubes públicas y/o privadas) para facilitar y optimizar su posterior procesado. Este almacenamiento debe ser seguro, escalable y accesible para los usuarios que los traten. 

  • Procesamiento de datos: En esta fase, se convierten los datos en información útil mediante el uso de técnicas altamente escalables para el procesado paralelo y distribuido de datos. Como resultado de esta fase, los datos—ahora información—ya están listos para ser mostrados de forma inteligible mediante cuadros de mando o informes de alto nivel. Este procesamiento puede realizarse en tiempo real, en lotes o mediante la exploración continua. Esto requiere crear un ecosistema tecnológico que sea capaz de procesar grandes volúmenes de datos.  

  • Análisis de datos: En esta fase se analiza de forma sistemática la información valiosa de los datos usando técnicas estadísticas, minería de datos, aprendizaje automático y análisis predictivo. Los resultados de este análisis permitirán tomar decisiones basadas en hechos, y por lo tanto mejorar e identificar las oportunidades o la resolución de problemas.  

  • Distribución de datos: Finalmente, una vez que los análisis están disponibles, estos pueden usarse para su análisis empresarial, y ser aprovechados en la toma de decisiones. La gestión de los permisos de acceso y la privacidad de los datos son fundamentales en esta etapa. 

El ciclo de vida de los datos es un proceso continuo que debemos gestionar cuidadosamente en cada una de sus etapas para poder obtener el máximo partido de los datos que se tengan disponibles. 

Perspectivas en la era del Big Data - Joan Navarro 

La importancia de poder conocer y analizar los datos que nos proporciona la huella digital que generamos como individuos en sociedad crece cada vez más. Las empresas luchan por conseguir la información y adaptarse así a las nuevas necesidades de mercado.  

En este post hablamos con Joan Navarro, experto en Big Data y coordinador del Máster Universitario en Ingeniería de Datos Masivos (Big Data) de La Salle-URL, donde nos adelanta los desafíos y herramientas que facilitan el análisis de datos.  

¿Cuáles son los mayores desafíos en el manejo y la gestión de grandes conjuntos de datos, y cómo se abordan? 

El primer desafío de una empresa es conocer las herramientas que realmente necesita para solventar sus retos. Debemos conocer las tecnologías que están disponibles en el mercado y cuáles son sus fortalezas y debilidades. Muchas veces las empresas se enfrentan a una inmensa cantidad de alternativas que puede resultar apabullante. Por esto, es necesario que las organizaciones evalúen sus necesidades para invertir en la herramienta que mejor se ajuste a sus necesidades.  

También tenemos que ser conscientes de la cantidad de datos que podemos llegar a obtener, así podremos diseñar las mejores estrategias para garantizar su seguridad y privacidad, así como su almacenamiento y procesamiento.  

Diseñar las infraestructuras adecuadas para trabajar con Big Data y mantenerlas en el tiempo—aplicando constantes actualizaciones y modernizándolas acorde al incesante progreso tecnológico—también es uno de los grandes desafíos actualmente. Muchas de las herramientas tecnológicas disponibles en la actualidad aún no están maduras, y a menudo, aparecen incompatibilidades a la hora de integrarlas con otros sistemas. Por lo tanto, es fundamental contar con personal especializado y en constante formación. 

¿Cómo se están utilizando las herramientas de Big Data para analizar y predecir tendencias en diferentes industrias? 

Las tecnologías y herramientas que utilicemos en cada una de las fases del ciclo de datos serán diferentes, dependiendo del objetivo y funcionalidad. Por ejemplo:  

  • Infraestructuras – Actualmente existen muchos proveedores de servicios (Google Cloud, Microsoft Azure, Amazon Web Services, …) en la nube (cloud computing) que ofrecen un amplio abanico de servicios para almacenar y procesar grandes volúmenes de datos.  
  • Procesamiento de datos – Para procesar los datos sacando el máximo partido a la infraestructura que los almacena, existen varias alternativas como Hadoop, Apache Spark, Disco, Hydra…
  • Business Intelligence – De nuevo, debemos elegir la herramienta que mejor se ajuste a las necesidades empresariales, y en este caso hay una fuerte dependencia con las tecnologías que ya estén desplegadas en la empresa. Existen distintas herramientas como Power BI, Oracle Business Intelligence, Tableau, Qlik...  
  • Analítica – En esta etapa existen herramientas muy consolidadas como R, SAS, o Matlab. Para el análisis de grandes volúmenes de datos existen librerías específicas (por ejemplo, tensorflow, pytorch) que permiten explotar las prestaciones computacionales del sistema (GPUs) . 

¿Cuáles son las tendencias emergentes en el análisis de Big Data, y que perfiles solicitan las empresas? 

La principal tendencia emergente es capturar tantos datos como sea posible. Aunque no se puedan explotar de momento; lo principal será contar con una tecnología e infraestructura que nos permita almacenarlas.

Las empresas necesitan perfiles adecuados que sean capaces de dar respuesta a esta necesidad. El avance tecnológico es indiscutible y tenemos que estar preparados. Actualmente encontramos dos tipos de perfiles principales en este ámbito:  

Perfiles verticales – especialistas centrados en cada una de las 4 fases del ciclo de vida de los datos.  

  • Perfil de arquitecto de datos, especialista diseño y gestión de la infraestructura de datos con el objetivo asegurar que los datos estén disponibles, sean seguros, estén bien organizados, sean fáciles de acceder y utilizar, y se integren de manera efectiva con otras aplicaciones y sistemas empresariales. 

  • Perfil de analista de datos, especialista en el procesado eficiente y escalable de datos para su organización, limpieza y análisis. 

  • Perfil de consultor en business intelligence, especialista en el diseño, implementación y gestión de soluciones tecnológicas que permitan presentar información empresarial para tomar decisiones estratégicas. 

  • Perfil de data scientist: especialista en el modelado de grandes conjuntos de datos complejos utilizando técnicas avanzadas de análisis y aprendizaje automático.  

Perfil horizontal  

  • Ingeniero de datos: este tipo de perfil es un especialista en el diseño, construcción, mantenimiento y optimización de sistemas de gestión y procesamiento de datos. Por lo tanto, tiene los conocimientos necesarios para resolver problemas y aportar valor en las 4 fases del ciclo de vida de los datos.  

Formación continua en Big Data y análisis de datos – La Salle-URL 

El sector tecnológico en el ámbito de los datos está en completo auge. La demanda de perfiles cualificados no deja de crecer y las empresas requieren expertos capaces de analizar y sacar conclusiones de los datos. Según un estudio publicado por McKinsey, se espera que el campo del Big data genere más de 2 millones de puestos de trabajo –en EEUU– en los próximos años.  

Para trabajar en el sector del Big Data, se requiere una formación específica en áreas como la estadística, la programación, la ingeniería informática, la inteligencia artificial, entre otras y las oportunidades de empleo se encuentran en diferentes áreas como banca, marketing, salud...  

Si estás pensando en impulsar tu carrera profesional en un sector en pleno crecimiento, La Salle-URL cuenta con el Máster Universitario en Ingeniería de Datos Masivos (Big Data), diseñado para estudiantes que buscan iniciar su carrera en el campo como para profesionales que quieren actualizar sus habilidades tecnológicas.  

Con el máster, cubrirás las tecnologías utilizadas a lo largo del ciclo de vida de los datos –infraestructura, software, extracción y explotación de datos, minería...– abriendo un nuevo abanico de posibilidades laborales en el sector.  

¡Descubre La Salle-URL! 

MÁSTER UNIVERSITARIO EN INGENIERÍA DE DATOS MASIVOS (BIG DATA)

¡Conoce La Salle-URL!

Share