https://docs.google.com/presentation/d/e/2PACX-1vRPAsQtEau5TXfEK4rutM6jGEvdmbrEl8wUBbq0u2NbtLAkkClYA0S-HSsjMtVSdg/pubembed?start=false&loop=false&delayms=3000

SHAP (SHapley Additive exPlanations) é uma técnica avançada de explicabilidade que utiliza conceitos da teoria dos jogos cooperativos para determinar a contribuição individual de cada característica em predições de modelos de machine learning 12. Diferentemente do LIME, que vimos anteriormente, SHAP oferece fundamentação matemática rigorosa baseada nos valores de Shapley, garantindo propriedades como eficiência, simetria e aditividade 34.

SHAP values concept diagram showing game theory approach

SHAP values concept diagram showing game theory approach

Fundamentos Teóricos

Teoria dos Jogos Cooperativos

SHAP trata cada característica do modelo como um "jogador" em um jogo cooperativo, onde o "pagamento" é a predição final do modelo 24. Os valores de Shapley distribuem esse pagamento de forma justa entre todos os jogadores, considerando todas as possíveis combinações (coalizões) de características 3.

Fórmula Matemática

A fórmula fundamental dos valores de Shapley é expressa como 3:

$$ φᵢ = Σ |S|!(p-|S|-1)!/p! [f(S ∪ {i}) - f(S)] $$

Onde:

Propriedades Matemáticas

SHAP garante quatro propriedades fundamentais que o tornam superior a outras técnicas 4:

  1. Eficiência: A soma de todos os valores SHAP igual à diferença entre a predição e o valor base
  2. Simetria: Características com contribuições idênticas recebem valores SHAP iguais
  3. Dummy: Características irrelevantes recebem valor SHAP zero