Estamos em busca de um Engenheiro de Dados com forte capacidade de estruturar, organizar e disponibilizar dados para análises estratégicas. O profissional será responsável por desenvolver e manter pipelines de dados robustos, altamente disponíveis e escaláveis, garantindo qualidade e governança em um ambiente voltado
ao setor de seguros de automóveis.
Responsabilidades
- Desenvolver, otimizar e manter pipelines de ingestão, transformação e processamento de dados (batch e streaming).
- Criar e gerenciar data lakes e data warehouses para suportar análises de negócio, tarifação, sinistralidade e performance de apólices.
- Integrar dados provenientes de múltiplas fontes (ERP, sistemas de vistoria, telemetria, CRM, parceiros e APIs externas).
- Estabelecer e garantir boas práticas de governança, qualidade, rastreabilidade e segurança dos dados.
- Colaborar com times de desenvolvimento de painéis de tomada de decisão;
- Implementar soluções de monitoramento, observabilidade e automação para assegurar performance e confiabilidade.
Requisitos Técnicos
- SQL (avançado)
- ETL/ELT e ferramentas de orquestração (Airflow, Data Factory, Prefect, etc.)
- Modelagem de dados (Kimball, Data Vault, modelos analíticos)
- Python ou Scala para processamento de dados
- Conhecimentos em Serviços (Azure, AWS, Oracle ou GCP)
- Ferramentas de streaming (Kafka, Event Hub, etc.)
- Git
- CI/CD
- Boas práticas de segurança e LGPD
- Data Lakehouse, Delta Lake, Iceberg ou similares
Diferenciais
- Containers e orquestração: Docker, Kubernetes, AKS/EKS/GKE
- Big Data & Lakehouse: Apache Spark, Delta Lake, Iceberg, Hudi, Azure Data Factory
- Orquestração: Apache Airflow, Prefect, Dagster
- Mensageria e streaming: Apache Kafka, Redpanda
- Governança e catálogo de dados: Amundsen, DataHub, OpenMetadata
- Azure Synapse / Fabric
- Power BI para suporte ao time de análises
Aplicar-se a Vaga