22/10/2025 –, Impacta - Sala 203
Este tutorial introdutório ao Apache Airflow é voltado para pessoas desenvolvedoras que já trabalhem com dados e desejam dar o próximo passo com ferramentas modernas de pipelines de dados.
Este tutorial introdutório ao Apache Airflow é voltado para pessoas desenvolvedoras que já possuem experiência com Python e manipulação de dados e desejam entender como estruturar e automatizar fluxos de trabalho de dados. O objetivo é apresentar os conceitos fundamentais de pipelines de dados, discutir a importância da orquestração desses processos e explorar o funcionamento do Airflow como ferramenta central nesse contexto. Os participantes irão aprender como o Airflow organiza tarefas em DAGs (grafos acíclicos direcionados), como escrever suas próprias DAGs em Python, como escrever testes automatizados para o airflow, como monitorar execuções via interface web e algumas boas práticas para manter pipelines escaláveis, legíveis e robustos.
Python e SQL
Conhecimento básico de docker / docker-compose pode ajudar, mas não é estritamente necessário.
Entretanto ter docker E docker-compose disponível na própria máquina é necessário!
Conhecer o básico sobre pipelines de dados.
Saber criar um ambiente de desenvolvimento com Apache Airflow.
Ter conhecimento suficiente para poder pesquisar por conta e aprender a criar um ambiente de produção com Apache Airflow.
Trabalhar numa posição de pessoa engenheira de dados Júnior ou Plena num time/empresa que utilize Apache Airflow.
Ciência e Análise de Dados, Arquitetura de software, DevOps e Automação de Infraestrutura, Outros
Hacker, aficionado por jogos de tabuleiro, karateca, músico e cozinheiro amador.
Também sou desenvolvedor de software nas horas vagas, em Python sempre que possível.