Jose Antonio Marcos - Lun, 19/09/2016 - 10:09
¿Sabías que cada día se generan 2,5 cuatrillones de bytes de datos? ¿Y que, según IBM, el 90% de los datos almacenados a lo largo de la historia se generó en los últimos dos años? Solamente en Internet cada minuto se realizan más de cuatro millones de nuevos likes en Facebook, se envían más de trescientos cincuenta mil tuits, se producen más de cien mil llamadas por Skype o se bajan más de cien mil apps para Android y Apple.
Y esto se extiende a todos los ámbitos imaginables: empresas, universidades, centros de investigación, agencias de publicidad, entidades deportivas, gobiernos y un largo etcétera. Hay muchos ejemplos de este hecho. El Gran Colisionador de Hadrones de la Organización Europea para la Investigación Nuclear (CERN) es capaz de generar unos 40 terabytes de datos, cada segundo, en cada experimento que realiza. La secuenciación del genoma humano de un solo individuo arroja 200 gigabytes de datos. Este enorme volumen de datos brinda interesantes oportunidades de análisis, manipulación y extracción de información en dichos ámbitos. Pero ¿cómo extraer de esas enormes cantidades de datos la información que nos interese?
Los métodos tradicionales de tratado de datos quedan obsoletos debido a este gran incremento del volumen de datos disponibles. Es aquí donde nace el Big Data, un conjunto de tecnologías, infraestructuras y servicios que tratan de solucionar el problema de gestión y análisis de los datos masivos. El uso de toda la información disponible permite predecir comportamientos, rendimientos, apostar por determinadas necesidades y ofrecer productos y servicios adecuados de manera mucho más efectiva.
Algunos ejemplos sugerentes podemos encontrarlos en el mundo del deporte, donde cada vez más deportistas y equipos de élite utilizan esta técnica para mejorar su rendimiento deportivo. En el caso del deporte rey, el fútbol, un pionero fue el Arsenal FC, que creyó en la posibilidad de utilizar modelos predictivos de análisis de datos para la toma de decisiones en un programa deportivo de valoración de jugadores en el mercado y de detección de talento. Con una inversión de dos millones de libras, compró una empresa que se dedicaba a realizar este tipo de análisis de datos y su éxito es evidente. Rápidamente se extendió a otros aspectos de la preparación. Así, el despliegue de cámaras de grabación en distintos ángulos en los partidos y los chalecos deportivos que ya de forma habitual vemos a los jugadores en sus entrenamientos recogen una gran cantidad de información que puede estar visible en tiempo real para sus entrenadores durante la sesión o que permite un análisis posterior, tras un partido. Las ventajas y éxitos asociados al análisis de esta información han hecho que muchos grandes clubs y selecciones nacionales de fútbol implanten su propio departamento de análisis de datos o Big Data. En palabras de Guardiola, siendo entrenador del Bayern de Múnich, «el departamento de análisis de partidos es el departamento más importante para mí».
En deportes individuales, como el ciclismo, tener una información adecuada sobre los datos fisiológicos de un corredor en competición puede llevar al éxito. Así, son famosos ya los ataques y contraataques del reciente ganador del Tour de Francia, Chris Froome, cuya toma de decisiones está basada en el análisis de su potencia durante el ascenso a las cotas más altas y duras de la carrera.
Otro interesante ejemplo de utilización exitosa lo encontramos en la distribuidora de contenidos multimedia Netflix, que en 2006, cuando no era más que un servicio por correspondencia de contenidos audiovisuales, ofreció un premio de un millón de dólares al algoritmo más útil para hacer predicciones sobre el gusto de los usuarios. Actualmente tiene más de setenta millones de abonados en el mundo, y su crecimiento se sigue disparando. La compañía no solo analiza qué contenidos se visualizan, sino que cada pequeño acto que los abonados realizan, como detener la reproducción o avanzar y retroceder en ella, queda registrado en sus bases de datos para su posterior análisis. A partir de sus resultados crearon la serie House of Cards, cuya primera temporada fue grabada y emitida por completo en esta plataforma sin hacer un uso previo del episodio piloto, que habitualmente sirve para evaluar si una serie tendrá éxito comercial o no, y determina la viabilidad de grabar más episodios. Las predicciones habían determinado que esa serie sería sin duda un éxito y así ha sido.
La generación y manipulación de estas cantidades masivas de datos está teniendo ya un fuerte impacto en el mercado laboral. En casi todas las instituciones y empresas se precisan expertos en analizar los datos que puedan obtener, dentro y fuera de ellas. Es por ello que el especialista en Big Data es uno de los perfiles más demandados según los portales de búsqueda de empleo, y las previsiones de revistas de mercado y economía apuntan a que será uno de los trabajos estrella en los próximos años.
Los expertos en Big Data deben reunir diversos conocimientos y experiencia en materias como programación, estadística, matemáticas o desarrollo de software. Además, deben conocer aplicaciones concretas enfocadas al tratamiento masivo de datos y ser capaces de adaptarse a cada situación mediante el desarrollo de sus propios métodos de análisis y poder implementarlos con efectividad. Una de las titulaciones más orientadas a este perfil laboral es el Grado en Ingeniería Informática. Este grado te proporcionará los conocimientos y las capacidades técnicas y de aprendizaje necesarios para poder desarrollarte como profesional del Big Data y tener así la oportunidad de introducirte en el complejo y excitante mundo del análisis masivo de datos.
¡Estudia con nosotros el Grado en Ingeniería Informática y súbete al tren del Big Data! ► Infórmate sobre nuestro Grado online
Añadir nuevo comentario