Perfil Profesional
Ingeniero de datos senior, independiente. Me hago cargo de los desastres que nadie más quiere — ERPs sin documentar, facturas de Snowflake descontroladas, marañas de orquestación construidas por gente que se fue hace años. Trabajo rápido, en la nube donde el cliente ya esté (AWS, Azure, GCP), y entrego plataformas que los equipos pueden mantener sin mí. Stack con el que vivo: ClickHouse, Airflow, dbt, Redpanda, Microsoft Fabric. Abierto al rol senior/lead correcto con un equipo que busca un builder, no un presiona-botones.
Habilidades
Microsoft & Azure
Microsoft Fabric
Power BI
DAX / RLS
Power Query M
Power Apps
Power Automate
Azure Data Factory
Azure Functions
Azure SQL
SQL Server
Datos & Streaming
ClickHouse
Snowflake
Redpanda (Kafka)
Airflow
dbt
Delta Lake
PostgreSQL
Redis
AWS
S3
Lambda
Glue
Athena
EC2
GCP
Cloud Run
Cloud Storage
BigQuery
Pub/Sub
Ingeniería de Software
Go
Python (Flask, Pandas, AsyncIO)
SQL
Docker
Terraform
Git / CI/CD
Linux / Bash
Pytest
Educación
Instituto Universitario de Gerencia y Tecnología — Técnico Superior Universitario en Informática en Informática
Caracas, Venezuela • 01/2024 – Graduación Esperada 2026
DuocUC — Ingeniería en Informática en Analista Programador
Santiago, Chile • 03/2020 – 12/2022
Certificaciones
Airflow 3.0 DAG Authoring
Astronomer
Microsoft AZ-900
Microsoft
Idiomas
Español — Nativo
Inglés — Fluido
Experiencia Laboral
- Diseño y construcción de la arquitectura completa de streaming en ClickHouse + Redpanda para un producto SaaS que automatiza el monitoreo de data quality en sitios de e-commerce retail — cubriendo el flujo end-to-end desde eventos de pixel del navegador, pasando por productores y consumidores en Redpanda, hasta un lakehouse medallion sobre ClickHouse (bronze / silver / gold)
- Modelado de las capas silver y gold con tablas ReplacingMergeTree y vistas materializadas para dedup-on-write y agregación incremental, manteniendo los dashboards de data quality del cliente respaldados por marts frescos sin el costo de reprocesar los eventos de pixel crudos en cada consulta
Lideré las decisiones de arquitectura del rebuild completo — Snowflake → ClickHouse, Workato → Airflow — y mentoricé al equipo Workato existente del cliente durante la transición a Airflow.
- Reducción de $60K/mes en el stack de datos del cliente: reemplazo de orquestación Workato por Airflow y eliminación de ETL full-refresh por CDC — causa raíz del descontrol del gasto en Snowflake
- Reconstrucción de la capa analítica como lakehouse medallion sobre S3 + ClickHouse: Parquet particionado (Hive), ingesta con ClickPipes, tablas ReplacingMergeTree + vistas materializadas, transformaciones y migraciones de esquema con dbt, y proyecciones de ClickHouse para aceleración de consultas
- Consolidación de 1.200 recipes de Workato + 124 stored procedures de Snowflake en 10 DAGs de Airflow (~50 tareas cada uno), sustituyendo una orquestación insostenible por un pipeline unificado y observable
- Migración de ~1.350 objetos de datos de Snowflake a ClickHouse a lo largo del stack medallion completo — ~1.000 bronze (ERP), ~200 silver (warehouse), ~150 gold (marts) — en ~5 días usando herramientas Python + Gemini y Claude que construí para traducción de dialecto, generación de DDL y depuración de errores
Lideré de extremo a extremo la migración Excel → Fabric para más de 1.200 tiendas — arquitectura del lakehouse, modelo semántico de Power BI con Row-Level Security, y construí desde cero la app operacional en Flask que la soporta.
- Reemplazo del proceso manual semanal de consolidación — staff fusionando datos del ERP propio del cliente, mensajes de grupos de WhatsApp y un ERP legado en un archivo maestro de Excel de 200 MB — por un lakehouse en Microsoft Fabric (tablas Delta, Data Pipelines) cubriendo 3 unidades de negocio y más de 1.200 tiendas
- Construcción del modelo semántico de Power BI con Row-Level Security para promotores, supervisores y gerentes; entrega del reporte de bonos de RR.HH. consolidando ventas en las 1.200 tiendas, reemplazando el ciclo manual WhatsApp → ERP → Excel
- Desarrollo de una aplicación web interna en Flask + PostgreSQL + SQLAlchemy (TailwindCSS, autenticación por rol, flujos de aprobación, trazabilidad) que formaliza el aprovisionamiento de tiendas y asignación de personal por parte de supervisores; sus datos operacionales alimentan el lakehouse de Fabric como fuente gobernada, cerrando el ciclo entre los sistemas operacionales y la capa analítica
Construí el motor de portafolio que sirve este CV desde cero — aplicación full-stack en Flask + SQLAlchemy + Jinja2 con generación de PDF vía WeasyPrint, traducciones EN/ES, caché de CV respaldado por Redis y panel de administración. Investigación hands-on de Snowflake en sandbox auto-provisionado que preparó la migración Snowflake → ClickHouse en el contrato retail más adelante ese mismo año.
- Contratado para auditar facturas manualmente; entregué un listener en Python monitoreando la carpeta interna de mensajes del ERP cada 5 minutos, reescribiendo payloads en formato plano al vuelo para parchar un bug de bandera fiscal en ProfitPlus ERP (factura vs. nota de crédito) que rompía el cálculo de precios de SKUs — eliminando el trabajo manual para el que fui contratado y corrigiendo de paso varias métricas y reportes internos del ERP como efecto colateral
- Ingeniería inversa del schema SQL Server no documentado de ProfitPlus ERP para construir un modelo semántico centralizado de Power BI para la capa de reportería; toda la ingesta en Power Query M unificando tablas del ERP con fuentes Excel externas con refresh diario
- Entregué tres dashboards de Power BI en producción sobre el modelo semántico — ventas (principal), inventarios near-real-time y logística — reemplazando un ciclo de reportería en Excel que antes tomaba días en producirse, ahora con entregas el mismo día para 5 departamentos
- Posteriormente contratado como consultor externo para entregar un sistema de evaluación de desempeño para promotores en campo cubriendo ~50 promotores: formulario en Power Apps para envío diario de inventarios, pipeline en Power Automate que lleva los datos al modelo semántico de Power BI existente, y un nuevo dashboard midiendo ventas, SKUs y facturación por promotor
Implementé un pipeline en Python + Azure Functions catalogando 300+ activos cloud entre Azure SQL y SQL Server on-prem para un Microsoft Silver Partner, cerrando el ciclo de ownership que llevó al decomisionado del ~15% de stack ocioso. Adicional: automaticé backups reverse-engineered para 50+ bases de datos de una aplicación ASP.NET sin documentación.
Estructuré el primer ciclo de reporting diario del programa de logística de última milla de Walmart Chile en pandemia (vía outsourcer) — pipelines en Power BI + modelo estrella en SQL Server monitoreando stock casi en tiempo real de 150+ SKUs críticos, reemplazando las extracciones manuales en Excel que nadie mantenía.