DA TRANSPARÊNCIA À CONFIABILIDADE: UMA PERSPECTIVA DA ENGENHARIA DE SISTEMAS PARA A INTELIGÊNCIA ARTIFICIAL EXPLICÁVEL (XAI) NA PRÁTICA CLÍNICA
Palavras-chave:
Inteligência Artificial Explicável, IA na Saúde, Engenharia de Sistemas, IA ConfiávelResumo
A incorporação de modelos de Inteligência Artificial (IA) na saúde promete revolucionar o diagnóstico e o tratamento, mas sua natureza como "caixa-preta" representa uma barreira crítica para a adoção clínica e a responsabilidade médica. A Inteligência Artificial Explicável (XAI) surge como uma resposta a essa barreira, buscando prover transparência às decisões algorítmicas. No entanto, a literatura corrente, embora rica em descrever métodos de XAI, ainda carece de uma abordagem estruturada sob a ótica da engenharia de sistemas. Este artigo avança na discussão ao propor um framework para o ciclo de vida de sistemas de XAI, argumentando que a meta não deve ser apenas a "explicabilidade", mas a construção de "sistemas de IA confiáveis" (Trustworthy AI). Analisamos a taxonomia dos métodos de XAI (intrínsecos e pós-hoc) sob a perspectiva de suas implicações de engenharia e propomos um ciclo de vida em quatro fases: (1) Governança de Dados e Mitigação de Viés; (2) Verificação e Validação das Explicações; (3) Integração Clínica e Fatores Humanos; e (4) Monitoramento Pós-Implementação e Deriva da Explicação. Discutimos os desafios e as fronteiras da pesquisa, com ênfase na causalidade, escalabilidade e nos marcos regulatórios pertinentes ao contexto brasileiro, como a Lei Geral de Proteção de Dados (LGPD). Concluímos que a transição da XAI do campo acadêmico para a prática clínica sustentável depende de um paradigma rigoroso de engenharia, focado na robustez, validação e confiabilidade do sistema como um todo.
Downloads
Downloads
Publicado
Edição
Seção
Categorias
Licença
Copyright (c) 2025 Premium Handbook of Science and Technology

Este trabalho está licenciado sob uma licença Creative Commons Attribution 4.0 International License.
Este periódico está licenciado sob a Creative Commons Attribution 4.0 International (CC BY 4.0).