https://docs.google.com/presentation/d/e/2PACX-1vTTXFDoTRlOCG4NGKizffJknL-abONasQtxRE0d74lrfiidGbnWwNiI1zPG_bG9Nw/pubembed?start=false&loop=false&delayms=3000
A explicabilidade em inteligência artificial pode ser categorizada em dois tipos fundamentais: local e global1. Esta distinção é crucial para compreender como diferentes abordagens de XAI atendem a necessidades específicas de interpretação de modelos de machine learning2. A escolha entre explicabilidade local ou global depende do contexto, objetivo e público-alvo da análise3.
A explicabilidade global fornece uma visão abrangente de como um modelo de IA se comporta em geral, considerando todo o conjunto de dados4. Esta abordagem busca responder à pergunta fundamental: "Como o modelo funciona de maneira geral?"2.
A explicabilidade global oferece insights sobre a importância relativa de cada característica em todas as predições do modelo5. Ela revela quais variáveis são mais influentes no comportamento geral do sistema de IA6. As técnicas globais aproximam o comportamento de modelos complexos usando modelos interpretáveis treinados para imitar o modelo original7.
Modelos Substitutos Globais: Estes modelos interpretáveis são treinados para reproduzir as predições do modelo original em todo o espaço de dados8. Árvores de decisão, regressão linear e modelos baseados em regras são frequentemente utilizados como substitutos globais7.
Importância de Características por Permutação: Esta técnica mede o impacto de embaralhar valores de uma característica no desempenho geral do modelo9. Características importantes causam maior degradação na performance quando seus valores são permutados aleatoriamente10.
Gráficos de Dependência Parcial (PDP): Visualizam como mudanças em uma ou duas características afetam as predições médias do modelo, mantendo outras características constantes11.

Infográfico comparando explicabilidade local vs global em IA
A explicabilidade local concentra-se em compreender por que um modelo tomou uma decisão específica para uma instância individual12. Esta abordagem responde à pergunta: "Por que o modelo fez esta predição específica para este caso?"3.
A explicabilidade local fornece atribuições de características para exemplos específicos, mostrando como cada variável contribuiu para uma predição particular13. Ela aproxima o comportamento do modelo apenas na "vizinhança" da instância analisada2. As contribuições locais podem diferir significativamente da importância global das características14.
LIME (Local Interpretable Model-agnostic Explanations): Cria modelos interpretáveis locais que aproximam o comportamento do modelo original em torno de uma instância específica15. LIME utiliza perturbações nos dados para treinar um modelo linear local16.
SHAP (SHapley Additive exPlanations): Baseado na teoria dos jogos, SHAP atribui valores de contribuição a cada característica para uma predição específica17. Os valores SHAP garantem propriedades matemáticas desejáveis como eficiência e aditividade18.
Integrated Gradients: Técnica específica para redes neurais que calcula gradientes ao longo de um caminho entre uma baseline e a entrada atual13.