El Big Data y su importancia para nuevos modelos de negocio

Big Data y los modelos de negocio

Nuestro mundo gira cada vez más en torno a los datos. Empresas y gobiernos utilizan el análisis de datos como estrategia para la toma de decisiones tanto a corto como a largo plazo. Por otro lado, la investigación se mueve guiada por el análisis de datos como soporte científico. En este contexto, ganan relevancia términos como Big Data, ciencia de datos, minería de datos o inteligencia computacional, entre otros, asociados al análisis de datos que está contribuyendo sustantivamente a mejorar de productividad y, en general, en el proceso de toma de decisiones.

Ciencia de Datos y Big Data

La ciencia de datos es un conjunto de técnicas que permiten procesar automáticamente estos datos, así como visualizarlos, pero, sobre todo, posibilitan la extracción de conocimiento implícito y no aparente en esos datos. Los científicos de datos son personas con capacidades matemáticas, estadísticas, de programación e incluso artísticas que, en colaboración con expertos de cada área, aportan valor al entorno en el que surgen esos datos.

Hablamos de Big Data o grandes volúmenes de datos cuando las características de estos datos (volumen y variedad, principalmente) hacen que no puedan ser tratados con técnicas clásicas. Una definición básica puede ser aquel conjunto de datos que no puede procesarse en un sólo ordenador.

No todos los métodos de ciencia de datos son aplicables a los grandes volúmenes de datos. En los últimos años, se han seleccionado los métodos más eficientes para tratar diferentes problemas de ciencia de datos en Big Data. De la misma forma, todas las herramientas para Big Data no tienen por qué estar relacionadas con la ciencia de datos, ya que, en algunos casos, la tarea de Big Data puede consistir en análisis estadísticos descriptivos o consultas de bases de datos sólo que aplicados a estos grandes volúmenes de datos con tecnologías específicas.

¿Es simplemente un término de moda?

Sí y no. Formalmente, para que un problema sea un problema de Big Data, este problema no puede resolverse en un solo ordenador (volumen), los datos no estarán estructurados (variedad) y el tiempo de respuesta del sistema de análisis debe ser corto (velocidad). Estas tres Vs nos dan la definición exacta de Big Data, si bien se han ido añadiendo otras características. Algunos retos asociados a estas Vs son múltiples: dónde y cómo almacenar los datos, cómo procesarlos entre conjuntos de cientos o miles de ordenadores para extraer el conocimiento, cómo resumirlos para su visualización, cómo anonimizarlos para preservar la privacidad de las personas, etc. Por otro lado, el término Big Data se ha extendido de tal forma que a cualquier análisis básico de datos sin importar ninguna de las tres Vs se le denomina erróneamente Big Data.

Además de estas aclaraciones de términos, no debemos olvidar que sin unos datos de calidad el conocimiento que extraigamos de estos no será de calidad. Algunas organizaciones cometen el error de poner demasiado énfasis en los métodos, en lugar de en la captación de datos de calidad. Tampoco debemos caer en la obsesión por los datos y perder de vista la importancia de la experiencia y el conocimiento cualitativo. De hecho, a menudo una combinación de ambos tipos de conocimiento será la mejor solución a un problema.

En todo caso, la demanda de profesionales en el área de ciencia de datos crece sin que haya personas capacitadas para ejercer estos trabajos tanto con un perfil investigador como profesional.

 

ComparteShare on Facebook0Share on Google+0Tweet about this on TwitterShare on LinkedIn4
Javier Sánchez Monedero

Javier Sánchez Monedero

Ingeniero Informático y Máster en Tecnologías Multimedia por la Universidad de Granada. Doctor en Tecnologías de la Información y la Comunicación ha realizado su tesis doctoral en técnicas de aprendizaje automático y cuenta con numerosas publicaciones en el área de ciencia de datos y sistemas distribuidos donde ha aportado tanto nuevos algoritmos y como aplicaciones de estas técnicas a problemas reales. Ha trabajado en la Universidad de Granada, Real-Time Innovations (Sunyvale, California) y la Universidad de Córdoba. Ha participado en proyectos nacionales e internacionales tanto de I+D como en proyectos de transferencia de la investigación. En la actualidad es profesor adjunto en el Departamento de Métodos Cuantitativos de la Universidad Loyola Andalucía.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *