Contexto: Sistemas de Apoio à Decisão Clínica (CDSS) incorporam XAI para aumentar confiança e acurácia em ambientes de alto risco.
| Case | Descrição | Impacto |
|---|---|---|
| IBM Watson for Oncology1 | Assistente de oncologia que gera planos de tratamento personalizados. Utiliza SHAP e LIME para explicar como características do paciente (genética, histórico) influenciam recomendações. Alinhamento de 93% com oncologistas especialistas em estudo na Índia. | +93% de concordância com especialistas; maior adesão a recomendações de IA e confiança clínica. |
| MediAssist CDSS1 | Ferramenta de atenção primária que sugere diagnósticos e tratamentos. Apresenta explicações baseadas em sintomas e variáveis de histórico. Em testes clínicos, aumento de confiança dos médicos e melhoria na acurácia diagnóstica. | ↑ Confiança dos clínicos; ↑ Precisão diagnóstica em ambientes de atenção primária. |
| PathAI1 | Plataforma de patologia digital que destaca regiões críticas em lâminas de biópsia via mapas de calor (Grad-CAM). Explica quais feições histológicas levaram ao diagnóstico de câncer. | Redução de erros diagnósticos; suporte à decisão de patologistas; adoção crescente em laboratórios clínicos. |
Contexto: Instituições financeiras usam XAI para cumprir regulações (Basel III, Fair Lending Act, GDPR) e reduzir vieses em decisões de empréstimo.
| Case | Descrição | Impacto |
|---|---|---|
| NeuroDecision® (Equifax)23 | Rede neural com restrições monotônicas patenteada, que gera reason codes (justificativas) alinhados a requisitos regulatórios. Combina performance de NN com explicabilidade de modelos lineares. | – 25% de redução em erros de predição de inadimplência; +30% de satisfação de clientes (estudo externo). |
| Framework SHAP + LIME (JISEM)4 | Avaliação comparativa em dados reais de scoring: random forest, gradient boosting e NN. Técnicas pós-hoc identificam fatores-chave de aprovação de crédito, promovendo transparência e equidade. | Identificação precisa de drivers de risco; maior aderência a conformidade regulatória e redução de vieses. |
| Projeto Sandbox Banco Sabadell – Equifax5 | Aplicação prática em ambiente regulatório na Espanha. Treinou e comparou NeuroDecision, XGBoost monotônico e regressão logística. Documentou ganhos de performance e níveis de explicabilidade comparáveis à RL. | Validação em cenários reais; evidência de que ML monotônico pode superar RL mantendo interpretabilidade. |
Contexto: Sistemas de direção autônoma dependem de DL e XAI para validar decisões em tempo real e atender exigências de autoridades de trânsito.
| Case | Descrição | Impacto |
|---|---|---|
| Freada Repentina (Milvus)6 | Interpretação de evento de frenagem súbita: utiliza mapas de atenção e LRP (Layer-wise Relevance Propagation) para indicar quais regiões da imagem (câmera/LiDAR) acionaram o freio emergencial. | Diagnosticou falsos positivos (sombra vs. pedestre); guiou ajustes em parâmetros de detecção; ↑ segurança. |
| SafeX Framework (Pesquisa ArXiv)7 | Modulariza XAI em AD: design interpretável, modelos substitutos, monitoramento e validação de DL. Aplica explicações em percepção, planejamento e controle, garantindo rastreabilidade de decisões. | Fornece guia para implementação escalável de XAI em veículos; base para certificações de segurança. |
| GRIT – Decision Trees (GitHub)8 | Árvore de decisão para reconhecimento de metas em cenários de condução, interpretável e verificável. Reconhece intenções de outros veículos, suportando tomada de decisão segura via MCTS (Monte Carlo Tree Search). | Facilita auditoria de planos de manobra; acelera identificação de falhas em simulações de direção. |
Principais Lições e Recomendações
Este módulo demonstrou como XAI entrega valor concreto em diferentes setores, transformando “caixas-pretas” em sistemas compreensíveis e confiáveis, com impacto direto em eficácia, ética e segurança.
!pip install dice-ml --quiet
import pandas as pd
from sklearn.model_selection import train_test_split
from sklearn.tree import DecisionTreeClassifier
import dice_ml
# URL do dataset German Credit
url = '<https://archive.ics.uci.edu/ml/machine-learning-databases/statlog/german/german.data>'
# Definição das colunas segundo documentação do dataset
columns = ['Status', 'Duration', 'CreditHistory', 'Purpose', 'CreditAmount', 'Savings', 'EmploymentDuration',
'InstallmentRate', 'PersonalStatus', 'OtherDebtors', 'ResidenceDuration', 'Property', 'Age',
'OtherInstallmentPlans', 'Housing', 'NumberExistingCredits', 'Job', 'PeopleLiable',
'Telephone', 'ForeignWorker', 'Target']
# Carregar os dados
data = pd.read_csv(url, sep=' ', header=None, names=columns)
# Mapear variáveis alvo: 1 = bom crédito(1), 2 = mau crédito(0)
data['Target'] = data['Target'].map({1: 1, 2: 0})
# Selecionar colunas contínuas para o exemplo (simplificação)
feature_cols = ['Duration', 'CreditAmount', 'Age']
X = data[feature_cols]
y = data['Target']
# Separar dados em treino e teste
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)
# Treinar modelo simples - Decision Tree
model = DecisionTreeClassifier(random_state=42)
model.fit(X_train, y_train)
# Configurar Dice-ML Data e Model objects
data_dice = dice_ml.Data(dataframe=pd.concat([X_train.reset_index(drop=True), y_train.reset_index(drop=True)], axis=1),
continuous_features=feature_cols,
outcome_name='Target')
model_dice = dice_ml.Model(model=model, backend='sklearn')
exp = dice_ml.Dice(data_dice, model_dice)
# Escolher 1 instância teste para gerar explicação contrafactual
query_instance = X_test.iloc[0:1]
# Gerar 2 exemplos contrafactuais que mudam a classificação para a classe oposta
dice_exp = exp.generate_counterfactuals(query_instance, total_CFs=2, desired_class="opposite")
# Visualizar os contrafactuais, mostrando apenas os atributos com mudança
dice_exp.visualize_as_dataframe(show_only_changes=True)
Você usou a biblioteca DiCE para gerar contraexemplos (contrafactuais) que respondem à pergunta: