JOB DESCRIPTION

Projetos desafiadores, que buscam cada vez mais soluções tecnológicas e humanas na experiência e no contato com as pessoas.

Nossa cultura de mente aberta torna o ambiente horizontal para que as decisões sejam tomadas com base em fatos e dados, colocando os interesses dos clientes sempre em primeiro lugar.

Uma empresa de pessoas que trabalham com autonomia e criatividade. Com espírito empreendedor, cada um de nós protagoniza a sua própria história.

Apesar de todos terem autonomia para assumir as rédeas da própria vida, a nossa rotina é intensa por sonharmos grande e amarmos o que fazemos!

Colaboração

Confiança: transparência e coerência;

Atitude doadora: pedir ajuda e oferecê-la;

Incentivar projetos e iniciativas compartilhadas: desencorajar a criação de silos.

Compromisso

Criar oportunidades de crescimento para o nosso pessoal;

Pensar grande: estabeleça metas ambiciosas e sustentáveis;

Ser responsável e fazer as coisas acontecerem;

Amar o que você faz;

Ser autêntico.

Curiosidade

Desafie o estado atual e ofereça novas perspectivas;

Invista tempo em seu próprio autodesenvolvimento;

Recompense a mentalidade de aprendizagem contínua;

Abrace a diversidade e a singularidade.

O que esperamos de ti:

  • Desenvolver e refatorar pipelines de dados utilizando Databricks, PySpark e AWS;
  • Construir camada semântica sobre arquitetura Lakehouse, com foco em performance e organização dos dados;
  • Atuar como referência técnica, garantindo boas práticas de engenharia, governança e rastreabilidade;
  • Interagir diretamente com o cliente para entender o legado e propor soluções modernas e eficazes;
  • Postura proativa e colaborativa com diferentes áreas;
  • Perfil estruturado, com foco em entrega, rastreabilidade e excelência técnica;
  • Disponibilidade para atuação híbrida - 3x na semana na região de Morumbi (São Paulo).

Requisitos:

  • Experiência sólida com Databricks e PySpark;
  • Conhecimento em arquitetura Lakehouse e serviços AWS;
  • Domínio de ferramentas como Unity Catalog, Delta Lake (Time Travel, Particionamento), Workflows, Job Clusters, Databricks Assets Bundle;
  • Experiência com Azure DevOps Pipelines, CI/CD e testes unitários.

Diferenciais:

  • Vivência com MLflow, Feature Store ou integração com soluções de IA;
  • Experiência em projetos de modernização de pipelines legados;
  • Conhecimento no setor de Seguros;
  • Atuação prévia com governança de dados.


*Todas as nossas vagas estão disponíveis para Pessoas com Deficiência.


Na NTT DATA, trabalhamos para promover uma cultura inclusiva, acreditamos na força da diversidade para gerar inovação e atingir resultados incríveis, por isso, não fazemos distinção para pessoas com deficiência, gênero, orientação sexual, raça/etnia, idade, origem, constituição familiar e estética. Trabalhamos todas as nossas vagas com base nessa premissa. Faça parte do nosso time!

Is a Remote Job?
No

About NTT DATA

NTT DATA is a $30+ billion trusted global innovator of business and technology services. We serve 75% of the Fortune Global 100 and are committed to helping clients innovate, optimize...

Apply Now