Python Brasil 2025

ML em Produção: FastAPI+Triton para Escala e Monitoramento
26/10/2025 , Avançada

Descomplique o deploy de ML: FastAPI para serviços, Triton para inferência escalável e Prometheus para monitoramento em tempo real. Técnicas práticas para sistemas robustos em Python.


Domine o deploy de ML em escala industrial! Aprenda a construir: APIs robustas (FastAPI + Pydantic), serving de alta performance (Triton com dynamic batching/multi-GPU) e monitoramento proativo (Prometheus + detecção de drift). Inclui demo ao vivo de otimização com TensorRT e padrões para resiliência em sistemas críticos. Para engenheiros de ML/MLOps que buscam eficiência operacional.


Quais conhecimentos prévios são necessários para que seja possível acompanhar bem a sua atividade?
  • Python intermediário: Compreensão de funções assíncronas (async/await), context managers e conceitos de OOP.
  • Conceitos básicos de ML: Entendimento de inferência (predição) e workflow de modelos (treino/deploy).
  • Noções de APIs REST: Experiência com endpoints HTTP (GET/POST) e serialização JSON.
  • Familiaridade com Docker: Conceitos de containers e imagens (não é necessário domínio avançado).
O que as pessoas que participarem podem esperar aprender na sua atividade?

Poderão aprender a deployar modelos de ML em produção com stack profissional: FastAPI (APIs ágeis), Triton (inferência de alta performance) e monitoramento contínuo (Prometheus/Grafana). Dominando técnicas para escalabilidade, resiliência e redução de custos, incluindo otimização com TensorRT e detecção de drift

Escolha uma ou mais áreas em que essa proposta se encaixa

Ciência e Análise de Dados, Machine Learning e Inteligência Artificial

Graduanda em Ciência da Computação, com enfâse em Python e trabalha com visão computacional e construção de pipelines de dados para aplicações em inteligência artificial.

Esse palestrante também aparece em: