Anunciado 30 de julio
Esta oferta no acepta candidaturas
Tipo de jornada
Completa
Tipo de contrato
Indefinido
Salario
30.000€ - 50.000€ bruto/año
Estudios mínimos
Sin especificar
Nivel
Sin determinar
Número de vacantes
1
Descripción del empleo

Actualmente seleccionamos un/a Big Data Engineer para incorporarse de forma indefinida en uno de los equipos de I+D que Between tiene implantados en uno de nuestros principales clientes.



¿Qué haré? Estas serán tus funciones principales:


  • Integrar las herramientas y framework de Big Data necesarios

  • Buscar herramientas y frameworks adecuados para las futuras necesidades.

  • Implementación de procesos ELT desde un Data Warehouse Oracle y logs en XML y JSON a Datalake en HDFS, Hive y HBase

  • Supervisar el rendimiento y asesorar sobre los cambios de infraestructura necesarios.

  • DevOps

Además, trabajando para BETWEEN obtendrás los siguientes beneficios añadidos:


  • Posibilidad de formar parte de una empresa en pleno crecimiento a nivel nacional e internacional. Un buen lugar donde trabajar: cuidamos de nuestro equipo y la sociedad a través de iniciativas, programas de conciliación y de responsabilidad social corporativa

  • Te integrarás en un equipo de alto rendimiento y con un alto grado de especialización.

  • Dispondrás de oportunidades de formación y desarrollo profesional

  • Pondremos a tu disposición un amplio abanico de retos y proyectos acordes con tus objetivos personales y profesionales.

  • Posibilidad de elegir cómo obtener parte de tu salario gracias a las ventajas fiscales de nuestra Retribución Flexible, y descuentos para acceder a centros de fitness, entre otros

  • En BETWEEN, la igualdad de oportunidades es uno de nuestros valores. Nuestro compromiso es contratar al mejor talentos independientemente de su raza, religión, sexo, edad y personas con otras capacidades y promover su desarrollo profesional y personal.



Requisitos mínimos
  • Experiencia gestionando bases de datos NoSQL, como HBase, mongoDb, Elastic

  • Experiencia con Spark, Dask en cluster.

  • Conocimiento elevado de Confluent.

  • Formación en Ingeniería Informática.

  • Experiencia con la integración de datos de múltiples fuentes de datos. Oracle, mysql, postgresetc

  • Experiencia Sstemas de mensajería Kafka.

  • Experiencia con Hortonworks/Cloudera / MapR

  • Experiencia en la construcción de sistemas de procesamiento de flujo, utilizando soluciones como Spark-Streaming, KakfaConnect, kSQl, nifi, Storm o flume.



Compartir esta oferta