https://docs.google.com/presentation/d/e/2PACX-1vRPAsQtEau5TXfEK4rutM6jGEvdmbrEl8wUBbq0u2NbtLAkkClYA0S-HSsjMtVSdg/pubembed?start=false&loop=false&delayms=3000
SHAP (SHapley Additive exPlanations) é uma técnica avançada de explicabilidade que utiliza conceitos da teoria dos jogos cooperativos para determinar a contribuição individual de cada característica em predições de modelos de machine learning 12. Diferentemente do LIME, que vimos anteriormente, SHAP oferece fundamentação matemática rigorosa baseada nos valores de Shapley, garantindo propriedades como eficiência, simetria e aditividade 34.

SHAP values concept diagram showing game theory approach
SHAP trata cada característica do modelo como um "jogador" em um jogo cooperativo, onde o "pagamento" é a predição final do modelo 24. Os valores de Shapley distribuem esse pagamento de forma justa entre todos os jogadores, considerando todas as possíveis combinações (coalizões) de características 3.
A fórmula fundamental dos valores de Shapley é expressa como 3:
$$ φᵢ = Σ |S|!(p-|S|-1)!/p! [f(S ∪ {i}) - f(S)] $$
Onde:
SHAP garante quatro propriedades fundamentais que o tornam superior a outras técnicas 4: