Remoto, Argentina
Posted: 19-Nov-2025
Ref#: 219
Diseñar y desarrollar pipelines de ingesta utilizando servicios del ecosistema GCP: Cloud Storage, BigQuery, Pub/Sub, Dataflow y Composer.
Implementar procesos batch, cargas diarias y flujos de procesamiento en tiempo real.
Construir y mantener una arquitectura Lakehouse con sus diferentes capas (raw, curated, semantic).
Administrar la capa semántica y habilitar modelos de explotación mediante Looker.
Desarrollar APIs y data products para consumo interno.
Integrar diversas fuentes de datos: bases SQL, Oracle, ADEVA, SCADA y otros sistemas OT.
Definir best practices, estándares técnicos y frameworks reutilizables de ingesta.
Gestionar gobernanza, linaje y catálogo de datos utilizando DataFlex (Data Catalog / DataPlex).
Experiencia minima de 3 años en rol de Data Engineer
Experiencia comprobable trabajando con Google Cloud Platform.
Dominio avanzado de BigQuery, Pub/Sub, Dataflow y Cloud Storage.
Sólida base en arquitectura de datos, patrones de ingesta y modelos de procesamiento.
Excelente nivel de SQL y experiencia con Oracle.
Conocimiento de arquitecturas batch y streaming.
Experiencia en ambientes industriales u OT.