Job Description
**Responsibilities**:
- Diseñar, desarrollar y mantener procesos ETL robustos y eficientes.
- Trabajar con grandes volúmenes de datos utilizando servicios de AWS o GCP, según la especialización.
- Colaborar con equipos multifuncionales para integrar soluciones de datos.
- Optimizar y gestionar el rendimiento de las bases de datos en AWS o GCP.
- Implementar y mantener pipelines de datos seguros y escalables.
- Solucionar problemas y realizar análisis de fallos para garantizar la integridad de los datos.
**Preferred Qualifications**:
- Experiência previa en ETL y manejo de grandes volúmenes de datos.
- Conocimientos en herramientas y servicios de AWS (como S3, Redshift, Lambda) o GCP (como BigQuery, Dataflow, Cloud Storage), según la especialización.
- Conocimientos básicos de arquitectura de datos y administración de bases de datos.
- Competencia en lenguajes de programación como Python, SQL, y/o Java.
- Familiaridad con herramientas de orquestación ...
- Diseñar, desarrollar y mantener procesos ETL robustos y eficientes.
- Trabajar con grandes volúmenes de datos utilizando servicios de AWS o GCP, según la especialización.
- Colaborar con equipos multifuncionales para integrar soluciones de datos.
- Optimizar y gestionar el rendimiento de las bases de datos en AWS o GCP.
- Implementar y mantener pipelines de datos seguros y escalables.
- Solucionar problemas y realizar análisis de fallos para garantizar la integridad de los datos.
**Preferred Qualifications**:
- Experiência previa en ETL y manejo de grandes volúmenes de datos.
- Conocimientos en herramientas y servicios de AWS (como S3, Redshift, Lambda) o GCP (como BigQuery, Dataflow, Cloud Storage), según la especialización.
- Conocimientos básicos de arquitectura de datos y administración de bases de datos.
- Competencia en lenguajes de programación como Python, SQL, y/o Java.
- Familiaridad con herramientas de orquestación ...
Ready to Apply?
Take the next step in your AI career. Submit your application to eTribe today.
Submit Application