Analista de Dados AWS Sênior - 127216
Analista de Dados AWS Sênior - 127216
Alphaville - Barueri, BR, 06.454-000
O que buscamos:
Profissional de nível Sênior que atue com (BI/AWS).
Projetar, implementar e otimizar pipelines de ingestão e processamento de dados (Data Ingestion e Data Stream) utilizando Python, PySpark, SQL, Scala e Shell Script;
Desenvolver soluções para processamento paralelo e massivo de grandes volumes de dados;
Projetar e implementar arquiteturas de dados baseadas em DataMesh, seguindo os princípios de ETL vs ELT e modelagens tradicionais, dimensionais ou híbridas;
Organizar os dados em camadas estruturadas, como Dados Brutos (SOR), Dados Harmonizados (SOT) e Dados Especializados (SPEC), para diferentes tipos de análises e consumidores;
Trabalhar com ecossistemas de Hadoop e processamento distribuído, garantindo o tratamento eficiente de dados estruturados e não estruturados;
Implementar soluções que atendam a requisitos de alta disponibilidade, escalabilidade e desempenho;
Garantir conformidade com normas de privacidade e segurança no armazenamento, processamento e compartilhamento de dados;
Implementar controles e políticas para proteger dados sensíveis e assegurar o uso ético da informação;
Criar e manter pipelines de CI/CD utilizando ferramentas como CodePipeline e GitHub Actions para automação de deploy e integração de código;
Monitorar e otimizar pipelines de dados em ambientes dinâmicos e distribuídos;
Trabalhar com os principais serviços da AWS, como Storage Gateway, Direct Connect, DMS, Lambda, Glue, RDS e API Gateway, para criar e gerenciar soluções baseadas em cloud;
Garantir a integração perfeita de dados em diferentes ambientes utilizando serviços de armazenamento e processamento;
Construir soluções para Data Analytics, incluindo visualização e storytelling de dados, traduzindo insights técnicos em informações acessíveis e estratégicas;
Colaborar com equipes de negócio para entregar dashboards e relatórios que apoiem a tomada de decisão;
Participar de equipes multidisciplinares em um ambiente ágil, aplicando boas práticas de engenharia de software e metodologias ágeis (Scrum/Kanban).
Requisitos e qualificações;
- Linguagens de Programação: Python, SQL, Scala, PySpark, Shell Script;
- Fundamentos: DataMesh, Database SQL e NoSQL, Hadoop Ecossistema, Engenharia de Software, Privacidade e Segurança;
- Engenharia de Dados: Data Ingestion, Data Stream, Processamento Paralelo, Processamento Massivo
- Arquitetura de Dados: ETL vs ELT, Modelagem Tradicional, Dimensional e Híbrida, Estruturado/Não Estruturado, Camada de Dados Brutos (SOR), Camada de Dados Harmonizados (SOT), Camada de Dados Especializados (SPEC), Data Analytics, Data Viz, Data Storytelling;
- Experiência com processamento distribuído e de grandes volumes de dados;
- Vivência em Pipelines CI/CD (CodePipeline / GitHub Actions);
- Conhecimento nos serviços primários da AWS: Storage Gateway, Direct Connect, DMS, Lambda, Glue, RDS, API Gateway
Descrição comportamental:
Procuramos uma pessoa que:
- Goste de trabalhar em equipe e seja colaborativa em suas atribuições;
- Tenha coragem para se desafiar e ir além, abraçando novas oportunidades de crescimento;
- Transforme ideias em soluções criativas e busque qualidade em toda sua rotina;
- Tenha habilidades de resolução de problemas;
- Possua habilidade e se sinta confortável para trabalhar de forma independente e gerenciar o próprio tempo;
- Tenha interesse em lidar com situações adversas e inovadoras no âmbito tecnológico.
Big enough to deliver – small enough to care.
#VempraGFT
#VamosVoarJuntos
#ProudToBeGFT