馃摚馃憠 Si eres una persona apasionada en lo que emprendes, lo haces desde la innovaci贸n, la honestidad y con valent铆a para enfrentar los nuevos desaf铆os, eres 茅l o la futuro/a WOMer que buscamos! 馃槑馃馃挏
#PORQUENADIETEDAMAS #LAREDQUEMASCRECE #HAYPEGA
Objetivo del cargo:
Transformar dise帽os arquitect贸nicos en infraestructuras de datos resilientes, automatizadas y escalables. Es responsable de liderar el ciclo de vida de los procesos ETL/ELT y pipelines de datos, garantizando la m谩xima eficiencia, calidad y disponibilidad de la informaci贸n para soluciones de IA y Anal铆tica. Su gesti贸n debe asegurar la continuidad operativa bajo est谩ndares de DataOps, optimizando permanentemente el rendimiento t茅cnico y la eficiencia de costos (FinOps) en entornos Cloud.
Principales funciones:
1. Construcci贸n de Pipelines: Desarrollar flujos de datos batch y streaming utilizando herramientas como Airflow, Spark o Dataflow. Asegurar el movimiento eficiente de datos hacia el Data Lake/Warehouse cumpliendo con los SLAs.
2. Implementaci贸n F铆sica de Modelos: Codificar las transformaciones de datos siguiendo los planos (blueprints)
entregados por arquitectura. Garantizar que el modelo f铆sico en producci贸n sea fiel al dise帽o l贸gico y optimice costos de procesamiento.
3. Monitoreo y Soporte: Configurar alertas y resolver incidentes t茅cnicos en los procesos productivos de datos. Garantizar la estabilidad operativa, disponibilidad y freshness de los datos para el negocio.
4. Optimizaci贸n de C贸digo: Refactorizar procesos ineficientes para reducir el consumo de recursos Cloud (FinOps).
Maximizar el rendimiento del stack tecnol贸gico y controlar los costos operativos en la nube p煤blica.
Requerimientos:
- Nivel Educacional: T铆tulo profesional de Ingenier铆a Civil Inform谩tica, Ciencias de la Computaci贸n o carrera af铆n
- Rubro laboral requerido: Experiencia comprobable en sectores de alta criticidad Telecom, Banca, Tech
- A帽os de experiencia laboral en total: 4 a帽os
- A帽os de experiencia laboral en el cargo: 2 a帽os
- Cargos desempe帽ados previamente: Data Engineer Junior; Backend Developer, Database Administrator
- Nivel de ingles requerido: medio
Conocimientos requeridos:
- Ingenier铆a de Pipelines y Procesamiento de Datos.
- Lenguajes de Programaci贸n: Dominio experto de Python (enfocado en procesamientovde datos y librer铆as como Pandas, PySpark o Dask) y SQL avanzado (optimizaci贸n de queries, ventanas anal铆ticas y procedimientos).
- Orquestaci贸n de Flujos: Manejo avanzado de Apache Airflow (creaci贸n de DAGs din谩micos, operadores personalizados y gesti贸n de dependencias complejas).
- Google Cloud Platform: Conocimiento profundo en BigQuery (particionamiento, clustering y optimizaci贸n de slots), Cloud Dataflow y Pub/Sub para flujos en tiempo real.
- Amazon Web Services: Experiencia en servicios como AWS Glue, S3, Redshift y Lambda para arquitecturas serverless de datos.
- Integraci贸n H铆brida: Capacidad para gestionar movimientos de datos entre entornos on-premises y nubes p煤blicas asegurando la integridad.
- Control de Versiones: Uso experto de Git (GitLab/GitHub) bajo metodolog铆as de trabajo colaborativo (GitFlow).
- CI/CD para Datos: Implementaci贸n de tuber铆as de despliegue automatizado para c贸digo de datos, asegurando que cada cambio pase por pruebas unitarias antes de llegar a producci贸n
Buscamos personas que destaquen por su talento y motivaci贸n. Te ofrecemos un espacio donde podr谩s desarrollarte profesionalmente con igualdad de oportunidades, en un ambiente que valora la diversidad e inclusi贸n y que se rige por la Ley 21.015.
Escr铆benos a atracciondeltalento@wom.cl en caso de requerir ayuda, apoyo t茅cnico o cualquier ajuste para participar adecuadamente en nuestros procesos de selecci贸n.
隆Te deseamos una excelente experiencia!
Requerimientos
cuellos de botella en Airflow o l铆mites de cuota en BigQuery).
Estimaci贸n de Esfuerzo: Proveer una visi贸n realista de cu谩nto tiempo tomar谩 la construcci贸n y automatizaci贸n del pipeline.
Resultado esperado: Asegurar que los planos (blueprints) sean "construibles" y no generen fallos operativos inmediatos.
2. Comit茅 de Gobierno de Datos (Data Governance)
Prop贸sito: Ser el Ejecutor de Controles de Calidad y Seguridad.
Rol: Implementar f铆sicamente las reglas de enmascaramiento, encriptaci贸n y validaci贸n de datos definidas por el comit茅.
Aporte Clave:
Automatizaci贸n de Reglas: Traducir pol铆ticas de privacidad (como el manejo de datos PII) en funciones de c贸digo reutilizables en todos los
pipelines.
Linaje T茅cnico: Asegurar que las herramientas de cat谩logo capturen autom谩ticamente los metadatos y el flujo de los datos.
Resultado esperado: Garantizar que el flujo de datos sea "Gobernado por Defecto" mediante automatizaci贸n.
3. Comit茅 de Datos: Prop贸sito: Actuar como Especialista en Disponibilidad de Fuentes.
Rol: Informar sobre el estado de salud de las ingestas actuales y la viabilidad de conectar nuevas fuentes de datos.
Aporte Clave:
Status de Pipelines: Reportar si existen incidentes t茅cnicos que afecten la calidad de los datos que el negocio est谩 analizando.
Escalabilidad: Evaluar si la infraestructura actual soporta el incremento de volumen de datos que un nuevo proyecto de negocio podr铆a
demandar.
Resultado esperado: Proveer certeza t茅cnica sobre la "materia prima" (el dato) para la toma de decisiones del comit茅.
. Contactos Relevantes (Internos y Externos)
Data Architects (Senior/Pleno)
Es su principal referente de dise帽o. El ingeniero interact煤a con ellos para entender el blueprint y alertar si un dise帽o es demasiado
complejo o ineficiente para ser construido con las herramientas actuales.
Data Governance & Security
Recibe las pol铆ticas de enmascaramiento y privacidad. Su rol es asegurar que estas reglas se ejecuten program谩ticamente en los
pipelines.
Data Scientists & ML Engineers
El ingeniero dise帽a los flujos que alimentan los modelos de IA, asegurando que los datos para entrenamiento y predicci贸n sean
consistentes.
BI & Analytics
Provee las tablas finales y estructuras optimizadas para que los analistas puedan generar reportes de alto rendimiento sin tiempos de
espera prolongados.
DataOps / SRE
Colabora para asegurar que los entornos de producci贸n sean estables y que los ciclos de despliegue (CI/CD) sean r谩pidos y seguros.
Usuarios de negocio
Garantizar la continuidad operativa y la confiabilidad del dato mediante la gesti贸n de requerimientos y resoluci贸n de incidentes (SLAs).
Liderar el an谩lisis de causa ra铆z para implementar mejoras estructurales que eliminen la recurrencia de fallos.
VIII. INFORMACI脫N (PRINCIPALES CONOCIMIENTOS, EXPERIENCIAS Y HABILIDADES)
Nivel Educacional (especificar carrera y
estudios espec铆ficos requeridos)
T铆tulo profesional de Ingenier铆a Civil Inform谩tica, Ciencias de la Computaci贸n o carrera
af铆n.
Rubro de experiencia laboral requerido Experiencia comprobable en sectores de alta criticidad Telecom, Banca, Tech
A帽os de experiencia laboral en total 4 a帽os
A帽os de experiencia laboral en el cargo 2 a帽os
Cargos desempe帽ados previamente Data Engineer Junior; Backend Developer, Database Administrator
Nivel de Ingl茅s requerido Medio
Conocimientos t茅cnicos requeridos
Ingenier铆a de Pipelines y Procesamiento de Datos
Lenguajes de Programaci贸n: Dominio experto de Python (enfocado en procesamiento
de datos y librer铆as como Pandas, PySpark o Dask) y SQL avanzado (optimizaci贸n de
queries, ventanas anal铆ticas y procedimientos).
Orquestaci贸n de Flujos: Manejo avanzado de Apache Airflow (creaci贸n de DAGs
din谩micos, operadores personalizados y gesti贸n de dependencias complejas).
B. Cloud Stack
Google Cloud Platform: Conocimiento profundo en BigQuery (particionamiento,
clustering y optimizaci贸n de slots), Cloud Dataflow y Pub/Sub para flujos en tiempo
real.
Amazon Web Services: Experiencia en servicios como AWS Glue, S3, Redshift y Lambda
para arquitecturas serverless de datos.
Integraci贸n H铆brida: Capacidad para gestionar movimientos de datos entre entornos
on-premises y nubes p煤blicas asegurando la integridad.
C. DataOps y Ciclo de Vida del Software
Control de Versiones: Uso experto de Git (GitLab/GitHub) bajo metodolog铆as de trabajo
colaborativo (GitFlow).
CI/CD para Datos: Implementaci贸n de tuber铆as de despliegue automatizado para
c贸digo de datos, asegurando que cada cambio pase por pruebas unitarias antes de
llegar a producci贸n.
Infraestructura como C贸digo (IaC): Conocimiento en Terraform o CloudFormation para
desplegar y versionar los recursos de infraestructura de datos.
D. Observabilidad y Calidad de Datos
Data Quality Testing: Implementaci贸n t茅cnica de frameworks de validaci贸n como Great
Expectations o dbt tests directamente en los pipelines.
Monitoreo T茅cnico: Uso de herramientas tipo Grafana, Prometheus o