
V8.Tech
Informações da vaga:
Atenção as exigências da vaga!
Descrição da vaga:
Arquiteto de Dados – V8.Tech – Home Office
Descrição da vaga
Estamos em busca de uma pessoa dedicada e com vontade de fazer a diferença para atuar na área de Dados. Se você ama tecnologia, gosta de desafios e acredita no poder da colaboração para alcançar grandes resultados, essa oportunidade é para você!
Responsabilidades e atribuições
O Arquiteto de Dados responsável pela concepção, desenho e implementação da arquitetura de dados que suportará operações transacionais, analíticas e de ciência de dados provavelmente compartilhando o Lakehouse em alguns domínios.
Atuará em conjunto com o Arquiteto de Soluções e garantirá que a estratégia de dados esteja alinhada à modernização do ecossistema da organização, suportando workloads de alto volume e diversidade de consumo.
A solução poderá ser baseada em Databricks, Azure Data Factory ou Oracle Data Intelligence Platform, considerando componentização, modularidade e interoperabilidade com as aplicações existentes. Decisão sobre o Lake ainda em aberto.
O profissional será responsável por assegurar boas práticas de governança, otimização de queries, arquitetura de dados distribuída, performance e qualidade dos dados, além de suportar iniciativas de Machine Learning, BI e aplicações transacionais que consumam dados diretamente do lakehouse via arquitetura hexagonal.
Definir e implementar a arquitetura do Lakehouse, garantindo interoperabilidade entre dados transacionais, analíticos e de ciência de dados.
Trabalhar com o Arquiteto de Soluções para alinhar a estratégia de dados ao ecossistema da organização.
Criar padrões para ingestão, processamento, exposição e consumo de dados, assegurando eficiência e governança.
Projetar modelos de dados otimizados para alta performance, tanto para transações online quanto para queries analíticas massivas.
Liderar e apoiar times de engenharia de dados, garantindo boas práticas de ETL/ELT, DataOps e arquitetura escalável.
Implementar estratégias de data governance, incluindo catalogação, lineage, versionamento e políticas de acesso.
Desenvolver padrões de integração entre aplicações transacionais e o lakehouse, suportando APIs, GraphQL e engines de consulta.
Garantir performance e escalabilidade, ajustando queries, tuning de pipelines e otimização de armazenamento.
Apoiar iniciativas de Machine Learning e BI, disponibilizando dados otimizados para consumo.
Requisitos e qualificações
Experiência em arquitetura de dados e engenharia de plataformas analíticas.
Histórico de projetos envolvendo Lakehouses/Datalake e DataOps em ambientes cloud e híbridos.
Profundo conhecimento de modelagem de dados para transacional, analítico e ciência de dados.
Experiência com pipelines escaláveis de ingestão e transformação de dados.
Domínio em otimização de queries e estratégias de cache para alto volume de dados.
Experiência em segurança e governança de dados (compliance, lineage, RBAC).
Familiaridade com padrões modernos de arquitetura como Data Mesh, Data Vault e Data Tiering.
Experiência em múltiplas cloud providers (Azure e/ou OCI).
Conhecimento em AWS e/ou GCP.
Domínio em pelo menos em um framework de processamento distribuído (Spark, Flink, Beam).
Experiência com arquitetura hexagonal para exposição de dados via diferentes interfaces (APIs, BI, Data Science).
Requisitos desejáveis
Certificações em Azure Data Engineer ou OCI Data Platform ou Databricks Certified Architect.
Experiência em design de arquitetura de dados escalável.
Experiência prática com Liquibase para versionamento de dados.
Conhecimento em automação e monitoramento de pipelines de dados.
Experiência em Inteligência Artificial aplicada à gestão e automação de dados.
Experiência com arquitetura de dados híbrida com retroalimentação para o as bases de dados legado.
Arquitetura de Lakehouse com Databricks, Azure Data Factory ou Oracle Data Intelligence Platform
Modelagem de dados para cenários híbridos (OLTP + OLAP + Data Science)
Governança e DataOps (catalogação, versionamento, lineage, metadados)
Processamento distribuído: Apache Spark, Delta Lake, Parquet, Iceberg
Cloud: Azure, OCI (Oracle Cloud)
Pipelines de dados: Azure Data Factory, Apache Airflow, Dataflow
Armazenamento e otimização: Data Marts, Data Vault, Data Mesh, Pools, Data Tiering
Segurança e Compliance: Data Governance, Privacy, RBAC, Zero Trust, Anonymization
Integrações e APIs: Exposição de dados via APIs, GraphQL, Lakehouse Query Engines (Arquitetura Hexagonal)
Performance e tuning: Query optimization, caching, indexação, materialized views
Diferenciais:
Experiência com arquiteturas de referência híbridas (multicloud, on-premises + cloud)
Conhecimento de automatização e observabilidade de pipelines de dados
Experiência em cientistas de dados e workloads de Machine Learning
Conhecimento em Inteligência Artificial aplicada à gestão de dados e automação de processos
Vaga divulgada no RJEMPREGOS.NET
Obs: em vagas que solicitam o envio de curriculo por e-mail, sempre envie o curriculo no corpo do e-mail e em anexo.
Clique no botão abaixo "Candidatar-se à Vaga" para acessar o link, e-mail, local de comparecimento ou whatsapp da empresa contratante.
Dica: tenha atenção ao anunciado da vaga, as vezes por algum detalhe você pode ser eliminado da seleção, não esqueça de manter seu curriculo atualizado, boa sorte!
Candidate-se no botão abaixo.
Para se candidatar a esta vaga visite atracaodetalentos.totvs.app.