30 ago 2021
15:00 Defesa de Mestrado Integralmente a distância
Tema
Análise de Métodos de Explicabilidade de Redes Neurais Profundas para a Classificação de Elsagate
Aluno
Giovanna Nascimento Antonieti
Orientador / Docente
Sandra Eliza Fontes de Avila
Breve resumo
Nos últimos anos, um número crescente de pesquisadores constatou que a
interpretabilidade pode ter um valor significativo no processo de
entendimento da causa de uma decisão tomada pelos modelos de aprendizado de
máquina. Inferir os conceitos semânticos de altos nível a partir de dados
visuais tem se mostrado uma tarefa difícil, como a tarefa classificação de
conteúdo sensível, mais especificamente Elsagate, que são vídeos com
personagens infantis em situações inapropriadas para crianças. A partir
disso, as técnicas de explicabilidade podem se mostrar muito úteis para
entender as decisões dos modelos para classificação de conteúdo sensível.
Neste trabalho, investigamos a literatura a fim de adotar uma definição que
diferencie os termos explicabilidade e interpretabilidade, propusemos uma
taxonomia que unifica as principais taxonomias encontradas na literatura,
realizamos uma revisão sistemática da literatura, além de classificar esses
métodos na taxonomia proposta, e exploramos as seguintes técnicas de
explicabilidade usando duas redes neurais profundas, a NASNet e a
MobileNetv2: Gradiente Vanilla, Gradiente Integrado, SmoothGrad, LIME,
GradCAM, GradCAM++ e ScoreCAM. Os resultados mostraram que nenhuma técnica possui o desempenho esperado para a explicabilidade de modelos treinados para a classificação de Elsagate. Além disso, identificamos uma grande
dificuldade na avaliação desses métodos pela falta de métricas capazes de
medir a explicabilidade das técnicas.
Banca examinadora
Titulares:
Sandra Eliza Fontes de Avila | IC/UNICAMP |
Marley Maria Bernardes Rebuzzi Vellasco | ELE/PUC-RIO |
Esther Luna Colombini | IC/UNICAMP |
Suplentes:
Tiago José de Carvalho | INOVIA |
Sérgio Colcher | DI/PUC-RIO |