MISIÓN DEL CARGO
Responsable de diseñar, construir y mantener las infraestructuras de datos que soporten el crecimiento y la estrategia digital de la compañía. Su función principal es garantizar la disponibilidad, confiabilidad y calidad de los datos, habilitando el análisis avanzado, la inteligencia artificial y la toma de decisiones estratégicas.
RESPONSABILIDADES DEL CARG
- Diseñar, construir y optimizar pipelines de datos para ingesta, transformación y carga (ETL / ELT).
- Administrar y mantener data lakes y data warehouses en entornos cloud o híbrido.
- Integrar fuentes de datos estructurados y no estructurados (APIs, bases de datos, logs, etc.).
- Asegurar la calidad, consistencia y gobernanza de los datos en toda la organización.
- Colaborar con Data Scientists, Data Analysts y equipos de negocio para habilitar casos de uso de analítica avanzada.
- Implementar procesos de monitoreo, versionamiento y orquestación de pipelines.
- Optimizar el rendimiento de consultas y almacenamiento de datos.
- Gestionar políticas de seguridad, accesos y compliance de datos (ej. GDPR, ISO, HIPAA según aplique).
- Documentar arquitectura, procesos y estándares de datos.
REQUISITOS MÍNIMOS
Formación :
🎓Profesional en Ingeniería de Sistemas, Ciencias de la Computación, Ingeniería de Datos o afines.
Experiencia :
💼 3+ años de experiencia como Data Engineer o en roles relacionados con datos.
💼 Experiencia demostrada en construcción de pipelines de datos y entornos cloud.
Certificaciones deseables :
✅AWS Certified Data Analytics o AWS Data Engineer Associate
✅Google Professional Data Engineer
✅Microsoft Certified : Azure Data Engineer Associate
Conocimientos especificos :
Lenguajes de programación : Python, SQL (avanzado), Java o Scala (deseable).Frameworks y librerías : PySpark, Pandas, NumPy.Bases de datos : Relacionales (PostgreSQL, MySQL, SQL Server) y NoSQL (MongoDB, Cassandra).Herramientas ETL / ELT : Airflow, dbt, Talend, Informatica o similares.Cloud & Big Data :AWS (Glue, Redshift, S3, EMR),Azure (Data Factory, Synapse, Data Lake),GCP (BigQuery, Dataflow, Pub / Sub).Data Warehousing : Snowflake, BigQuery, Redshift, Synapse.Orquestación : Apache Airflow, Prefect o Luigi.Mensajería y streaming : Kafka, Spark Streaming, Pub / Sub.Gobernanza y calidad de datos : Data Catalog, Collibra, Great Expectations.Herramientas de versionamiento y CI / CD : Git, Jenkins, GitHub Actions.Habilidades :
🔍Pensamiento analítico y resolución de problemas complejos.
🔍Capacidad de diseño arquitectónico y visión sistémica.
🔍Comunicación clara con equipos técnicos y de negocio.
🔍Organización, manejo de prioridades y trabajo autónomo.
🔍Colaboración en entornos ágiles y multidisciplinarios.