XAI: esclarecendo o problema da caixa preta com transparência e interpretabilidade
Resumo
A crescente presença de tecnologias de Inteligência Artificial (IA) tem levantado questões acerca da transparência e compreensibilidade dos processos decisórios tomados por essas máquinas. O termo "caixa preta" é frequentemente utilizado para descrever sistemas de IA que operam de forma opaca, sem fornecer explicações claras sobre suas decisões. O objetivo desta pesquisa é analisar os métodos utilizados para resolver o problema da caixa preta e discutir as questões éticas e de preconceito que podem estar presentes nesses sistemas. Para tanto, foi realizada uma revisão bibliográfica dos principais métodos de interpretação de modelos de IA, tais como análise de sensibilidade, decomposição de modelo e interpretabilidade por design. A metodologia utilizada incluiu a seleção de artigos com base em critérios pré-definidos, extração de dados e análise dos resultados. Além disso, discutimos a importância da abordagem de equidade e justiça para garantir que os sistemas de IA não reproduzam preconceitos existentes na sociedade. Concluímos que os métodos de interpretabilidade podem ajudar a resolver o problema da caixa preta, mas devem ser combinados com abordagens de equidade e justiça para garantir a confiabilidade e responsabilidade dos sistemas de IA.