https://docs.google.com/presentation/d/e/2PACX-1vSjABHVN26EEyVbGDsoBjCbzzrAXIWjWieBFlL9ww18Fi2pM1OkLHyB7ZFyzffBRA/pubembed?start=false&loop=false&delayms=3000
A incorporação de técnicas de Inteligência Artificial Explicável (XAI) em pipelines e sistemas legados de Machine Learning (ML) fortalece a transparência, a confiança dos usuários e a conformidade regulatória. Este guia apresenta os principais passos, ferramentas e padrões para integrar XAI em projetos já em produção, ilustrado por três diagramas.
1. Avaliação e Planejamento da Integração
- Identificação dos casos de uso críticos onde explicabilidade traz valor (compliance, auditoria, debugging).
- Análise da arquitetura existente: componentes de treinamento, inferência e monitoramento.
- Definição das métricas de sucesso (fidelidade, robustez, compreensibilidade).
- Seleção de frameworks XAI compatíveis (SHAP, LIME, Alibi, Captum) e plataformas de MLOps (Kubeflow, MLflow, Seldon).
- Elaboração de cronograma e recursos necessários para adaptação incremental.
2. Arquitetura de Pipeline com XAI
- Inserir etapas de explicação logo após o treinamento e/ou inferência no pipeline.
- Utilizar MLflow para logar modelos e explicadores via
mlflow.shap.log_explainer1.
- Empacotar explicadores (SHAP/LIME) junto aos artefatos do modelo para reuso em inferência batch e on-demand.
- Orquestração com Kubeflow Pipelines ou ZenML para coordenar módulos de XAI em escala.
- Monitorar drift e qualidade das explicações com dashboards em Grafana e Prometheus.
Pipeline MLOps com XAI

3. Implantação em Produção
- Containerização dos serviços de explicação (BentoML, Seldon Core) garantindo isolamento e escalabilidade.
- Exposição de endpoints REST para previsões e explicações unificadas.