30 ago 2021
15:00 Defesa de Mestrado Integralmente a distância
Tema
Análise de Métodos de Explicabilidade de Redes Neurais Profundas para a Classificação de Elsagate
Aluno
Giovanna Nascimento Antonieti
Orientador / Docente
Sandra Eliza Fontes de Avila
Breve resumo
Nos últimos anos, um número crescente de pesquisadores constatou que a interpretabilidade pode ter um valor significativo no processo de entendimento da causa de uma decisão tomada pelos modelos de aprendizado de máquina. Inferir os conceitos semânticos de altos nível a partir de dados visuais tem se mostrado uma tarefa difícil, como a tarefa classificação de conteúdo sensível, mais especificamente Elsagate, que são vídeos com personagens infantis em situações inapropriadas para crianças. A partir disso, as técnicas de explicabilidade podem se mostrar muito úteis para entender as decisões dos modelos para classificação de conteúdo sensível. Neste trabalho, investigamos a literatura a fim de adotar uma definição que diferencie os termos explicabilidade e interpretabilidade, propusemos uma taxonomia que unifica as principais taxonomias encontradas na literatura, realizamos uma revisão sistemática da literatura, além de classificar esses métodos na taxonomia proposta, e exploramos as seguintes técnicas de explicabilidade usando duas redes neurais profundas, a NASNet e a MobileNetv2: Gradiente Vanilla, Gradiente Integrado, SmoothGrad, LIME, GradCAM, GradCAM++ e ScoreCAM. Os resultados mostraram que nenhuma técnica possui o desempenho esperado para a explicabilidade de modelos treinados para a classificação de Elsagate. Além disso, identificamos uma grande dificuldade na avaliação desses métodos pela falta de métricas capazes de medir a explicabilidade das técnicas.
Banca examinadora
Titulares:
Sandra Eliza Fontes de Avila IC/UNICAMP
Marley Maria Bernardes Rebuzzi Vellasco ELE/PUC-RIO
Esther Luna Colombini IC/UNICAMP
Suplentes:
Tiago José de Carvalho INOVIA
Sérgio Colcher DI/PUC-RIO