Filled
This offer is not available anymore

Big Data Architects and Developers in Madrid

Datio

Workplace
Onsite
Hours
Full-Time
Internship
No
Skills
Share offer

Job Description

Requisitos necesarios:

  • Java / Scala
  • Git

Requisitos deseables:

  • Procesamiento paralelo distribuido basado en el paradigma MapReduce con Spark o Apache Hadoop
  • Experiencia con cualquiera de las principales distribuciones de Big Data: Cloudera, Hortonworks, MapR, etc…
  • Procesamiento distribuido de datos en real-time con Storm o Spark Streaming.
  • Experiencia o conocimiento de las herramientas disponibles en el ecosistema Hadoop: Hive, Pig, Flume, Zookeeper, Sqoop, etc…
  • Conocimiento de las bases de datos NoSQL: Cassandra, MongoDB, HBase, Redis, Aerospike, etc.
  • Gestión de recursos del clúster: Mesos, yarn…
  • Experiencia con los motores de recomendación y algoritmos de aprendizaje automático: Apache Mahout, MLlib, etc…
  • Motores CEP como Esper CEP o Siddhi.
  • Experiencia con virtualización y despliegue en la nube de AWS, JCloud, Docker.
  • Experiencia con los motores de búsqueda basados en Lucene como Elasticsearch.

Miscelanea:

  • Interés por aprender y compartir conocimientos con otros miembros del equipo.
  • Gran capacidad para el aprendizaje y la autogestión.

 

About Datio

  • Big Data

  • Pozuelo de Alarcón, Madrid, Spain

  • 50-200

  • 2016

Datio company page is empty
Add a description and pictures to attract more candidates and boost your employer branding.

Other data engineer jobs that might interest you...