Engenharia de Dados Pl/Sr - 131410
Engenharia de Dados Pl/Sr - 131410
Alphaville - Barueri, BR, 06.454-000
O que buscamos:
Profissional de nível Pleno/Sênior que atue com (Dados). Modelo de atuação híbrido, 1 a 2x por semana – Morumbi/SP.
Responsabilidades:
- Atuar como referência técnica em engenharia de dados Azure, orientando o time em padrões de implementação, troubleshooting e boas práticas;
- Projetar, desenvolver e sustentar pipelines de dados em Azure Data Factory e Databricks, garantindo execução resiliente, reprocessamento e rastreabilidade;
- Implementar e evoluir arquitetura Lakehouse com Delta Lake e camadas Bronze, Silver, Gold;
- Desenvolver transformações em PySpark e SQL, com foco em performance, paralelismo, particionamento e redução de custo;
- Implementar padrões de qualidade de dados: validações, reconciliação, deduplicação, tratamento de inconsistências e trilha de auditoria;
- Projetar e implementar integrações com fontes corporativas (bancos relacionais e APIs) e suportar ingestão incremental e CDC quando aplicável;
- Definir e supervisionar padrões de governança, segurança e compliance em dados, incluindo controle de acesso e conformidade com LGPD;
- Apoiar o time em revisões técnicas, otimização de performance, gestão de incidentes complexos e análise de causa raiz;
- Conduzir reuniões técnicas, apresentações e workshops com o cliente em inglês;
- Garantir aderência às melhores práticas de engenharia de dados, observabilidade e operação em produção (logs, métricas, alertas e SLAs).
Requisitos:
- Inglês avançado ou fluente para atuação em ambiente internacional;
- Experiência sólida como Engenheiro(a) de Dados em Azure;
- Experiência comprovada com Databricks em produção (Jobs/Workflows, clusters, policies, repos e secrets);
- Domínio de Apache Spark (PySpark) e Python para processamento distribuído;
- SQL avançado para transformação, otimização e modelagem analítica;
- Experiência com Delta Lake (MERGE, schema evolution/enforcement, OPTIMIZE/ZORDER, VACUUM e boas práticas de escrita/leitura);
- Domínio de Azure Data Lake Storage Gen2 (ADLS) e organização de dados por domínio e camadas;
- Experiência com Azure Data Factory (pipelines, triggers, parametrização, integrações e monitoração);
- Vivência com Git e CI/CD aplicados a pipelines de dados e promoção entre ambientes;
- Conhecimento sólido em segurança (RBAC, Key Vault, identities) e práticas de auditoria/compliance.
Desejável:
- Experiência com Unity Catalog (governança, permissões e lineage);
- Conhecimento em Delta Live Tables e Auto Loader;
- Experiência com IaC (Terraform, Bicep/ARM);
- Vivência com observabilidade de pipelines (Azure Monitor, Log Analytics, alertas e runbooks);
- Experiência com Purview (catálogo e governança);
- Certificações Azure (AZ-900, DP-900, DP-203) e/ou certificações Databricks (Data Engineer Associate/Professional);
- Experiência em setor regulado (financeiro, seguros) com requisitos fortes de auditoria e compliance.
Descrição comportamental:
Procuramos uma pessoa que:
- Goste de trabalhar em equipe e seja colaborativa em suas atribuições;
- Tenha coragem para se desafiar e ir além, abraçando novas oportunidades de crescimento;
- Transforme ideias em soluções criativas e busque qualidade em toda sua rotina;
- Tenha habilidades de resolução de problemas;
- Possua habilidade e se sinta confortável para trabalhar de forma independente e gerenciar o próprio tempo;
- Tenha interesse em lidar com situações adversas e inovadoras no âmbito tecnológico.
Big enough to deliver – small enough to care.
#VempraGFT
#VamosVoarJuntos
#ProudToBeGFT