Big Data Architects and Developers in Madrid

Datio

Salary
Undisclosed salary
Workplace
Onsite
Hours
Full-Time
Internship
No
Skills
Share offer

Job Description

Requisitos necesarios:

  • Java / Scala
  • Git

Requisitos deseables:

  • Procesamiento paralelo distribuido basado en el paradigma MapReduce con Spark o Apache Hadoop
  • Experiencia con cualquiera de las principales distribuciones de Big Data: Cloudera, Hortonworks, MapR, etc…
  • Procesamiento distribuido de datos en real-time con Storm o Spark Streaming.
  • Experiencia o conocimiento de las herramientas disponibles en el ecosistema Hadoop: Hive, Pig, Flume, Zookeeper, Sqoop, etc…
  • Conocimiento de las bases de datos NoSQL: Cassandra, MongoDB, HBase, Redis, Aerospike, etc.
  • Gestión de recursos del clúster: Mesos, yarn…
  • Experiencia con los motores de recomendación y algoritmos de aprendizaje automático: Apache Mahout, MLlib, etc…
  • Motores CEP como Esper CEP o Siddhi.
  • Experiencia con virtualización y despliegue en la nube de AWS, JCloud, Docker.
  • Experiencia con los motores de búsqueda basados en Lucene como Elasticsearch.

Miscelanea:

  • Interés por aprender y compartir conocimientos con otros miembros del equipo.
  • Gran capacidad para el aprendizaje y la autogestión.

 

About Datio

  • Big Data

Official website, founding date, employees, how did it all begin... Do you know the whole story?

Tell Us!

Other data engineer jobs that might interest you...