Tipo de contrato
Indefinido
Salario
Salario sin especificar
Estudios mínimos
Sin especificar
Descripción del empleo
Desde Grupo NS precisamos incorporar un Data Engineer con experiencia en AWS con nivel avanzado de inglés para un proyecto 100% remoto
Requisitos
Mínimo 3 años de experiencia implementando la transformación y carga de datos desde una amplia variedad de fuentes tradicionales y no tradicionales como estructuradas, no estructuradas y semiestructuradas utilizando SQL, NoSQL y canalizaciones de datos para cargas de trabajo en tiempo real, de streaming, por lotes y bajo demanda.
Al menos 2 años implementando soluciones utilizando servicios de AWS como Lambda, AWS
Step Functions y Glue, AWS S3, Redshift, Kinesis, DynamoDB, Apache Spark,
Experiencia trabajando con lagos de datos de almacenamiento de datos o conceptos de Lakehouse en AWS
Experiencia implementando procesamiento por lotes utilizando AWS Glue/Lake formation, & Data Pipeline
Experiencia o exposición a AWS Dynamo DB será un plus
Desarrollo de código orientado a objetos utilizando Python, además de PySpark, SQL
Experiencia en tecnologías de Streaming tanto OnPrem/Cloud como consumiendo y
producción desde Kafka, Kinesis sería un plus
Experiencia construyendo pipelines y orquestación de flujos de trabajo en un entorno
empresarial utilizando Apache Airflow/Control M
Experiencia implementando Redshift en AWS o cualquiera de Databricks
Grupo NS, es una empresa donde se valora tanto el perfil profesional tecnológico de los trabajadores, como el interés y la aptitud que demuestren a la hora de desarrollar nuevos proyectos.
Por ello, requerimos personas constantes, con ganas de evolucionar y aprender.
Requisitos mínimos
Mínimo 3 años de experiencia implementando la transformación y carga de datos desde una amplia variedad de fuentes tradicionales y no tradicionales como estructuradas, no estructuradas y semiestructuradas utilizando SQL, NoSQL y canalizaciones de datos para cargas de trabajo en tiempo real, de streaming, por lotes y bajo demanda.
Al menos 2 años implementando soluciones utilizando servicios de AWS como Lambda, AWS
Step Functions y Glue, AWS S3, Redshift, Kinesis, DynamoDB, Apache Spark,
Experiencia trabajando con lagos de datos de almacenamiento de datos o conceptos de Lakehouse en AWS
Experiencia implementando procesamiento por lotes utilizando AWS Glue/Lake formation, & Data Pipeline
Experiencia o exposición a AWS Dynamo DB será un plus
Desarroll
Conocimientos necesarios
python
Inscribirme a esta oferta