CI&T logo

[Job - 29221] Senior Data Developer (Azure), Brazil

CI&T Brazil


No Relocation

Posted: May 14, 2026

Additional Content

Job Description
  • Somos especialistas em transformação tecnológica, unindo expertise humana à IA para criar soluções tech escaláveis. Com mais de 8,000 CI&Ters ao redor do mundo, já formamos parcerias com mais de 1,000 clientes durante nossos 30 anos de história. Inteligência Artificial é nossa realidade. Importante: se você reside na Região Metropolitana de Campinas, sua presença nos escritórios da cidade será obrigatória, conforme a política de frequencia vigente. Buscamos um(a) Engenheiro(a) de Dados para integrar nosso time em um projeto de estruturação da plataforma de dados de um cliente do setor de serviços financeiros e gestão de ativos. Você será responsável por dar vida às definições arquiteturais, transformando diretrizes técnicas em pipelines robustos, modelos de dados consistentes e soluções escaláveis que permitirão ao cliente organizar e extrair valor de seus dados — hoje dispersos em planilhas e repositórios não estruturados. Neste papel, você atuará de forma operacional e colaborativa, implementando pipelines de ELT/ETL, construindo as camadas do Data Lake/Lakehouse e garantindo a qualidade e rastreabilidade dos dados, sempre sob orientação do(a) Arquiteto(a) de Dados. O ambiente é de small data com foco em integração e estruturação, o que valoriza profundidade técnica, bom senso de engenharia e capacidade de entregar com autonomia dentro do escopo definido. Responsabilidades: Desenvolvimento de Pipelines: Implementar pipelines de ELT/ETL para ingestão, transformação e disponibilização de dados a partir de fontes diversas, incluindo planilhas, SharePoint e bases relacionais, seguindo os padrões definidos pela arquitetura; Construção da Plataforma de Dados: Construir e organizar as camadas do Data Lake/Lakehouse (Bronze, Silver e Gold / Medallion Architecture) com formatos otimizados como Delta Lake e Parquet; Transformação e Modelagem: Desenvolver transformações de dados utilizando PySpark e SQL avançado, implementando modelos definidos pela arquitetura nas camadas analíticas da plataforma; Estratégias de Ingestão: Implementar estratégias de carga (full load ou incremental) adequadas ao volume e criticidade de cada domínio de dados — com foco em eficiência para contextos de small data; Qualidade de Dados: Implementar testes e verificações automatizadas de qualidade de dados nos pipelines, garantindo consistência, integridade e rastreabilidade ao longo das camadas; Catalogação e Governança: Apoiar a catalogação e documentação de ativos de dados com foco em linhagem e classificação, seguindo diretrizes de governança definidas pelo(a) Arquiteto(a), estabelecendo um catálogo de dados unificado como elemento central de gestão da plataforma; Observabilidade: Garantir a observabilidade dos pipelines por meio de logs, alertas e monitoramento proativo; Documentação: Documentar modelos, transformações e regras de negócio aplicadas nos pipelines, garantindo rastreabilidade e manutenibilidade da solução. Requisitos para o desafio: Experiência comprovada com Engenharia de Dados em ambientes de nuvem; Sólida experiência com PySpark para desenvolvimento de pipelines e transformações de dados em plataformas distribuídas; Experiência com SQL avançado para consultas, transformações e modelagem analítica; Conhecimento de Microsoft Azure (Azure Data Factory, ADLS Gen2 e/ou Microsoft Fabric); Experiência com formatos de dados como Delta Lake, Parquet ou ORC; Experiência com arquiteturas de Data Lake, Lakehouse e Medallion Architecture; Experiência com catalogação e linhagem de dados, incluindo Unity Catalog (Databricks); Diferenciais: Experiência com Databricks e/ou Snowflake como plataforma de processamento de dados; Familiaridade com Microsoft Fabric (Lakehouses, Notebooks, Pipelines ou Dataflows); Experiência com Microsoft Purview para catalogação e linhagem de dados; Conhecimento de dbt para transformações e testes de qualidade de dados; Experiência com orquestração de pipelines via Apache Airflow ou Prefect; Certificação DP-700 ou equivalente; Boas práticas de desenvolvimento: versionamento com Git, testes automatizados, documentação e CI/CD; Familiaridade com Gen AI e agentes autônomos aplicados a dados. #LI-DR3 MidSenior
  • Nossos benefícios: - Plano de saúde e odontológico; - Vale alimentação e refeição; - Auxílio-creche; - Licença parental estendida; - Parceria com academias e profissionais de saúde e bem-estar via Wellhub (Gympass) TotalPass; - Participação nos Lucros e Resultados (PLR); - Seguro de Vida; - Plataforma de aprendizagem contínua (CI&T University); - Clube de descontos; - Plataforma online gratuita dedicada à promoção da saúde física, mental e bem-estar; - Curso gestante e parentalidade responsável; - Parceria com plataformas de cursos online; - Plataforma para aprendizagem de idiomas; - E muitos outros Mais detalhes sobre os nossos benefícios aqui: https://ciandt.com/br/pt-br/carreiras Na CI&T, a inclusão começa no primeiro contato. Se você é pessoa com deficiência, é importante apresentar o seu laudo durante o processo seletivo. Consulte quais dados são necessários conter no laudo clicando aqui. Assim, podemos garantir o suporte e as adaptações que você merece. Se ainda não tem o laudo caracterizador, não se preocupe: podemos te apoiar para obtê-lo. Temos um time dedicado de Saúde e Bem-estar, especialistas em inclusão e grupos de afinidade que estarão com você em todas as etapas. Conte com a gente para fazer essa jornada lado a lado.
  • apply for this job