Las principales responsabilidades del puesto serán:
– Desarrollo de un entorno Big Data: evolucionar la plataforma de Big Data actualmente implantada (ej. Cloudera, Impala)
– Evolución de la plataforma de datos:
evolucionar la plataforma de datos actual (basada en entornos MongoDB,
bases de datos relacionales, Cloudera, ETLs, Pentaho, etc)
– Implantación de soluciones fast data:
desarrollar metodologías de ingesta, tratamiento y almacenamiento de
datos en tiempo real, asegurando un rendimiento óptimo de la plataforma
– Integración de soluciones de advanced analytics:
integrar la gestión de datos de business intelligence con los modelos
predictivos desarrollados en Advanced Analytics (ej. R, Python)
Se requiere:
– Formación: estudios de ingeniería en
informática, telecomunicaciones o similar valorándose formación
post-grado específica en áreas de gestión de datos y Big Data
– Experiencia laboral:
al menos 1 año en empresas con grandes volúmenes de datos, con
actividad directa sobre áreas de Business Intelligence y Big Data
– Conocimientos técnicos: experiencia en metodologías avanzadas de tratamiento de datos
– Conocimiento muy avanzado de herramientas de mercado:
□ Bases de datos relacionales: Principalmente MySQL 5.7.x, valorándose Oracle.
□ Bases de datos no estructuradas: específicamente MongoDB 3.x
□ Entornos de Big Data: específicamente Apache Hadoop e Impala
□ Lenguajes de programación: específicamente Java y SQL
□ Herramientas de tratamiento de datos: ETL (Kettle), Pentaho, etc
– Habilidad inter-personales:
□ Trabajo en equipo, coordinando sus actuaciones con el resto de áreas de la compañía
□ Autonomía en el desarrollo de su función
– Idiomas:
□ Castellano: muy fluido hablado y escrito
□ Inglés: muy fluido hablado y escrito