Boletim de Abril/2026
A DEX não para de produzir!
A equipe técnica da DEX está em constante movimento — aprendendo, experimentando e compartilhando conhecimento com o mercado. Cada profissional tem sua própria voz, seu próprio canal, seu próprio ritmo de publicação. E isso é parte da cultura da empresa.
Mas às vezes esse conteúdo fica disperso: um vídeo no canal do Vithor Silva, outro no canal do Lucas Degen, uma live no canal da DEX. É muita informação valiosa espalhada por aí.
Por isso, este post reúne em um só lugar o que a equipe produziu recentemente — para que clientes e parceiros possam acessar tudo de forma centralizada e ter uma visão clara da profundidade técnica que a DEX carrega.
Databricks — User Group Espírito Santo
O Databricks Espírito Santo User Group está crescendo rápido, e a equipe DEX tem sido protagonista nos encontros. Nos últimos eventos, dois temas se destacaram: governança de métricas e automação de implantação.
Unity Metric Views — Vithor Silva
As Metric Views são uma das adições mais relevantes ao Unity Catalog nos últimos meses. Com elas, é possível definir métricas de negócio diretamente na camada de governança do Databricks — reutilizáveis, versionadas e com linhagem rastreável.
No workshop abaixo, Vithor Silva, CTO da DEX, demonstrou na prática como criar e consumir Metric Views, e por que essa abordagem muda o jogo para times que sofrem com métricas inconsistentes entre ferramentas.
Como funcionam na prática?
As Metric Views separam a definição da medida dos agrupamentos de dimensões. Você define a métrica uma vez — por exemplo, soma da receita dividida por contagem distinta de clientes — e o mecanismo de consulta gera o cálculo correto para qualquer dimensão em runtime. Isso contrasta com views tradicionais, que fixam agregações e dimensões no momento da criação.
Além disso, as Metric Views oferecem:
- Materialização (Experimental): pré-computação e atualização incremental de agregações, com reescrita automática de queries para usar as visões materializadas.
- Metadados para agentes de IA: sinônimos, nomes de exibição e regras de formatação que aumentam a precisão de agentes de linguagem e garantem consistência entre ferramentas.
- Suporte a esquemas estrela e floco de neve: relações de múltiplos níveis e junções configuráveis por YAML ou pela interface do Catalog Explorer.
- Consumo universal: editores SQL, notebooks, dashboards, Genie Spaces e alertas podem consultar as mesmas definições.
Por que isso importa para o seu ambiente? Se você tem múltiplos relatórios calculando "receita líquida" de formas diferentes, as Metric Views são a resposta — uma única definição, governada, que todos os consumidores de dados passam a usar.
Consulte a documentação oficial e saiba mais clicando aqui.
Asset Bundles — Deywillan Mattos
Deywillan Matos, Engenheiro de Dados da DEX, conduziu uma sessão prática sobre Databricks Asset Bundles (DABs) — a solução nativa do Databricks para transformar projetos em código versionável e implantável via CI/CD.
Com DABs, você define jobs, pipelines, permissões e configurações de ambiente em arquivos YAML e os gerencia como qualquer outro artefato de software. Chega de implantar notebooks manualmente ou manter scripts de deploy frágeis.
O que um Bundle engloba?
Um bundle é a definição completa de um projeto Databricks. Ele inclui:
- Infraestrutura e configurações de workspace necessárias
- Arquivos de código-fonte (notebooks, Python)
- Definições de recursos: Lakeflow Jobs, pipelines, dashboards, Model Serving endpoints, MLflow Experiments e Modelos registrados
- Testes unitários e de integração
Tudo isso é descrito em arquivos YAML versionados e implantado como uma única unidade via Databricks CLI (databricks bundle init). O resultado é um fluxo de CI/CD completo, auditável e reproduzível — sem scripts de deploy customizados nem implantações manuais.
Quando usar?
A Microsoft recomenda DABs especialmente para: projetos em equipe com múltiplos contribuidores; pipelines de ML que precisam seguir boas práticas de produção desde o início; padronização organizacional com templates customizados; e ambientes regulados onde rastreabilidade de código e infraestrutura é exigência de compliance.
Por que isso importa para o seu ambiente? Times que ainda implantam workloads Databricks de forma manual ou via scripts customizados estão acumulando dívida operacional. DABs é o padrão — e o Deywillan mostra como começar.
Consulte a documentação oficial e saiba mais clicando aqui.
Microsoft Fabric — Canal Data Expeditions
Lucas Degen, Engenheiro de Dados da DEX, mantém o canal Data Expeditions com conteúdo focado em Microsoft Fabric. Em três vídeos recentes, ele cobriu desde a decisão de adotar o Fabric até os detalhes de seus principais mecanismos de ingestão.
Por que usar o Microsoft Fabric no seu ambiente de dados?
Antes de qualquer detalhe técnico, existe uma pergunta que todo gestor e arquiteto precisa responder: o Fabric faz sentido para o meu cenário?
Lucas aborda exatamente isso — o posicionamento do Fabric como plataforma unificada, seus pontos fortes em relação a ambientes fragmentados e os critérios que devem guiar a decisão de adoção.
Microsoft Fabric Copy Job — Carga Full, Incremental e CDC
O Copy Job é um dos recursos mais práticos do Fabric para quem precisa replicar dados entre fontes. Lucas explica em detalhes como configurar as três estratégias de carga — Full, Incremental e CDC (Change Data Capture) — e em qual cenário cada uma se aplica.
O que o Copy Job suporta na prática?
Diferente de uma Copy Activity dentro de um Pipeline, o Copy Job é uma experiência dedicada — sem necessidade de pipeline ao redor. Ele oferece:
| Modo | Quando usar |
|---|---|
| Full Copy | Cada execução replica todos os dados da origem |
| Incremental (Watermark) | Detecta dados novos por uma coluna de controle (datetime, integer, ROWVERSION) |
| Incremental (CDC) | Replica inserções, atualizações e deleções quando CDC está habilitado na origem |
Além do modo de carga, você controla como os dados são escritos no destino: Append (acumula histórico), Overwrite (substitui), Merge (atualiza por chave) ou SCD Type 2 (mantém histórico com datas de vigência).
Outros destaques: criação automática de tabelas no destino, colunas de auditoria para rastreabilidade por linha, agendamento múltiplo (diário, semanal, pontual) e suporte a mais de 50 conectores de origem e 40 de destino — incluindo fontes on-premises via gateway.
Por que isso importa para o seu ambiente? Escolher a estratégia de carga errada gera retrabalho, custos desnecessários e dados desatualizados. Este vídeo elimina a dúvida de uma vez.
Consulte a documentação oficial e saiba mais clicando aqui.
Domine Pipelines no Microsoft Fabric
Pipelines são poderosos — mas nem sempre são a ferramenta certa. Lucas responde a pergunta que muita gente evita fazer: quando usar Pipelines e, tão importante quanto, quando não usar?
O guia de decisão do Fabric em poucas linhas
A documentação oficial da Microsoft resume bem quando usar cada ferramenta:
| Ferramenta | Cenário ideal |
|---|---|
| Mirroring | Replicação near real-time com configuração mínima |
| Copy Job | Ingestão incremental/CDC multi-tabela, sem código |
| Copy Activity (Pipeline) | Orquestração complexa com dependências e transformações leves |
| Dataflow Gen 2 | Transformações sem código com 170+ conectores (Power Query) |
| Notebooks | Transformações complexas, ML, código-first com Spark |
| Apache Airflow Jobs | Orquestração code-first com DAGs Python |
| Eventstreams | Ingestão e processamento de dados em tempo real |
A pergunta central é: você quer mover dados ou transformá-los? Dentro de cada categoria, o nível de código exigido e o tipo de carga (batch, incremental, streaming) determinam a ferramenta certa.
Consulte a documentação oficial e saiba como decidir, clicando aqui.
DEX Talks — O Fim de uma era no Power BI
Em uma das lives do canal da DEX, a equipe discutiu um tema que movimentou o mercado: as mudanças no Power BI Premium e o que elas significam para empresas que dependem dessa licença.
O que muda? O que fica? Como o Microsoft Fabric reposiciona o Power BI dentro do seu ecossistema? Essas perguntas foram respondidas com profundidade na live abaixo.
O que está mudando com o Dataflow Gen1?
O Power BI Dataflows Gen1 passou mais de 8 anos como a principal solução de preparação de dados low-code da Microsoft. A Microsoft declarou oficialmente que o Gen1 "atingiu o fim da inovação ativa" e está entrando em estado legado — as limitações remanescentes exigiriam mudanças arquiteturais profundas que já foram incorporadas no Gen2.
As principais limitações que motivam a transição:
- Suporte restrito a destinos de armazenamento
- Desempenho inferior em grandes volumes de dados
- Ausência de capacidades de IA integradas
- Diagnósticos menos detalhados
- Modelo de custeamento menos flexível (amarrado à capacidade Premium)
O que o Dataflow Gen2 entrega?
| Aspecto | Gen1 | Gen2 |
|---|---|---|
| Destinos | Limitado | SharePoint, OneDrive, ADLS, SQL, Lakehouse, Snowflake e mais |
| Performance | Processamento padrão | Processamento paralelo com tempos de atualização significativamente menores |
| IA | Nenhuma | Copilot converte linguagem natural em lógica Power Query |
| Custeamento | Vinculado à capacidade Premium | Desacoplado — pague apenas pelos recursos utilizados |
Sobre os prazos
A Microsoft garantiu um aviso mínimo de 12 meses antes de qualquer encerramento para clientes Premium. Para licenças Pro/PPU, o cronograma ainda está sendo finalizado, mas o Gen1 segue suportado no momento. Clientes em ambientes GCC terão acesso ao Gen2 antes de qualquer transição obrigatória.
Para migração, a Microsoft disponibiliza a opção "Save as Dataflow Gen2" para conversões individuais e APIs para automação em larga escala de portfólios maiores.
Confira a nota oficial da Microsoft sobre o encerramento do Dataflow Gen1, clicando aqui.
Se você ainda usa Power BI Premium, este conteúdo é leitura obrigatória — melhor se antecipar às mudanças do que ser surpreendido por elas.
Seu ambiente de dados pode ir mais longe
Os temas cobertos aqui — governança de métricas, CI/CD para Databricks, migração para Fabric, estratégias de ingestão — não são apenas conteúdo educativo. São desafios reais que a DEX enfrenta com seus clientes todos os dias.
Se algum desses tópicos ressoou com algo vivido no ambiente de dados da sua empresa, a DEX está pronta para ajudar.
Seja uma dúvida pontual, uma avaliação do ambiente atual ou a estruturação de um projeto de modernização de dados, a equipe está disponível:
- Site: datasource.expert
- LinkedIn: DEX | Datasource Expert
- Instagram: @datasource.expert
Entre em contato e descubra como a DEX pode ajudar a evoluir o seu ambiente de dados.
Prefere uma conversa direta? Agende uma reunião com o time de especialistas da DEX e tire suas dúvidas sobre os temas apresentados ou avalie oportunidades de melhoria no seu ambiente.
A DEX agradece a Deywillan Matos e Lucas Degen pela produção contínua de conteúdo técnico de alta qualidade. É essa energia que move a empresa.