https://docs.google.com/presentation/d/e/2PACX-1vRBSzemZTHye7qzqiPc4_CppM-xpt96Lnqnsp3UHYhGQF-k_zxwUV7fNBvsM7Jc0Q/pubembed?start=false&loop=false&delayms=3000
LIME é uma das técnicas mais importantes e amplamente utilizadas em Explainable AI, desenvolvida especificamente para explicar predições individuais de modelos complexos de machine learning 1. Diferentemente de métodos que tentam explicar o modelo como um todo, LIME foca em criar explicações locais e interpretáveis para instâncias específicas, respondendo à pergunta fundamental: "Por que o modelo fez esta predição específica?" 2.
LIME, que significa Local Interpretable Model-agnostic Explanations, é uma técnica que aproxima qualquer modelo de machine learning complexo com um modelo local interpretável para explicar predições individuais 3. A abordagem é fundamentalmente baseada na criação de modelos substitutos (surrogate models) que são simples e interpretáveis, como regressão linear ou árvores de decisão 4.
O conceito central do LIME baseia-se na premissa de que, embora modelos complexos como redes neurais ou ensemble methods sejam difíceis de interpretar globalmente, seu comportamento pode ser aproximado localmente usando modelos simples 5. Esta aproximação local é suficiente para compreender por que uma predição específica foi feita 6.

Fluxograma do algoritmo LIME mostrando processo de perturbação e modelo local
O LIME resolve o seguinte problema de otimização 7:
ξ(x) = arg min L(f, g, πₓ) + Ω(g)
g ∈ G
Onde:
x é a instância que queremos explicarf é o modelo complexo (black box) 3g é o modelo interpretável localG é a família de modelos interpretáveis possíveisL(f, g, πₓ) mede a fidelidade local entre os modelos 8πₓ é a medida de proximidade que define a vizinhançaΩ(g) é o termo de regularização da complexidade 7