Anunciado 27 de junio 
 (Publicada de nuevo)
Esta oferta no acepta candidaturas
Tipo de jornada
Completa
Tipo de contrato
Indefinido
Salario
Salario sin especificar
Categoría
Estudios mínimos
Sin especificar
Nivel
Empleado/a
Número de vacantes
1
Tags Relacionados
Descripción del empleo
FacePhi es la empresa española líder en tecnología para la verificación de identidad de usuarios, especializada en onboarding digital y soluciones biométricas de autenticación.

Con una proyección global, la compañía tiene presencia en más de 25 países y 300 millones de usuarios. Sus soluciones se implementan en múltiples industrias, con especial presencia en la financiera, una de las más exigentes en seguridad.

El impulso de la biometría para mejorar la experiencia de clientes y el respeto al derecho a la privacidad de los datos de los particulares son la seña distintiva de la firma.

Contamos con un equipo multidisciplinar que apuesta por un proyecto novedoso, desarrollado in-house y de alcance internacional. Nuestro equipo se caracteriza por ser innovador, transformador, perseverante, constante y con gran capacidad de adaptación a los cambios.

Responsabilidades del puesto:

* Diseño e implementación de la arquitectura Big Data sobre AWS.
* Definición, implementación y mantenimiento de ecosistema data (batch & stream) en AWS: S3, Redshift, Glue, Athena, EMR, Databrew.
* Definición, implementación y mantenimiento de ecosistema semi real time con Kafka, Spark Streaming.
* Deseable experiencia en la integración e implementación de Dashboards en Looker, AWS Quicksights.
* Captura, almacenamiento y análisis de muestras para entrenamiento de modelos predictivos. ¿Que ofrecemos?

* Formar parte de un proyecto profesional sólido y con futuro de una compañía en expansión.
* Formación a cargo de la empresa.
* Flexibilidad horaria.
* Integración en un equipo joven.
* Buen ambiente de trabajo
* Seguro médico privado.
* Retribución salarial competitiva

Requisitos mínimos

* Requerimos un Ingeniero de datos en cloud (AWS Datalake & Lakehouse, valorable también en GCP).
* Valorable experiencia en soluciones Datalake, Lakehouse, Big data como Snowflakes, Databricks,...
* Expeciencia en el diseño e implementación de: data pipelines, data modeling, data cleansing, data integration.
* Lenguajes de programación utilizados en Data: Python, SQL, Bash, deseable conocimiento de Scala.
* Capacidad de comunicación, traducción, y documentación de su trabajo a los diferentes niveles.
* Experiencia con Metodología Agile, Scrum y/o herramientas de seguimiento de trabajo.

Compartir esta oferta