28 jul 2025
15:00 Defesa de Mestrado sala 85 do IC2
Tema
Decodificadores Adaptivos para Redes FLIM aplicados à Detecção de Objetos Salientes
Aluno
Gilson Júnior Soares
Orientador / Docente
Alexandre Xavier Falcão
Breve resumo
A Detecção de Objetos Salientes (Salient Object Detection – SOD) é uma tarefa da visão computacional que tem como objetivo localizar e delinear os objetos que se destacam em uma imagem, atribuindo valores mais altos aos seus pixels em um mapa de saliência. A saída pode ser posteriormente binarizada para obter uma máscara de segmentação. Abordagens recentes utilizam redes neurais profundas para essa tarefa, o que traz a desvantagem de serem computacionalmente intensivas e consumirem mais recursos. Nesse contexto, modelos leves foram propostos para resolver esse problema, por possuírem tamanhos reduzidos. No entanto, muitos modelos leves utilizam backbones pré-treinados (normalmente treinados no ImageNet), que são posteriormente ajustados (fine-tuned) no conjunto de dados-alvo. Esse detalhe pode ser visto como um problema, pois o modelo ainda exige grandes quantidades de dados — para a etapa de pré-treinamento. Para lidar com ambos os problemas, esta dissertação investiga modelos leves criados por meio da metodologia Feature Learning From Image Markers (FLIM). Esses modelos são pequenos e treinados utilizando apenas algumas imagens representativas anotadas por um usuário. Demonstramos que apenas três a quatro imagens são suficientes para treinar o modelo e resolver o problema. Para aplicar o FLIM à tarefa de SOD, existe um problema em aberto: a parte do decodificador do modelo. Este trabalho valida cinco Decodificadores Adaptativos: três que utilizam pesos por mapa de características e dois que usam um neurônio por pixel. Os Decodificadores Adaptativos não exigem treinamento; em vez disso, estimam heurística e diretamente os pesos para a combinação dos mapas de características para cada imagem de entrada. Com isso, torna-se possível criar uma rede FLIM completa, do codificador ao decodificador, sem utilizar retropropagação (backpropagation). Comparamos nossos métodos com três modelos leves baseados em aprendizado profundo, duas redes FLIM que utilizam retropropagação e um decodificador que utiliza os marcadores rotulados das imagens de treinamento. Para excluir possíveis vieses, as avaliações são conduzidas utilizando imagens e anotações de dois usuários em dois conjuntos de dados: um composto por imagens de microscopia de ovos de parasitas e outro por imagens de ressonância magnética de tumores cerebrais. Os experimentos demonstram que os métodos propostos são competitivos, com a combinação de um codificador FLIM e Decodificadores Adaptativos superando os métodos baseline em ambos os conjuntos de dados avaliados. Quando comparados com os baselines do FLIM, os Decodificadores Adaptativos alcançam uma melhoria de até 0,83% no Fβ no conjunto de dados de ovos de parasitas, enquanto no conjunto de tumores cerebrais, a melhoria é de até 1,87%. Quando comparados com métodos de SOD baseados em aprendizado profundo, a melhoria é ainda maior, chegando a 41,88% para ovos de parasitas e 194,75% para tumores. Os resultados também indicam que diferentes métodos de decodificação adaptativa podem ser necessários para diferentes conjuntos de dados.
Banca examinadora
Titulares:
Alexandre Xavier Falcão IC/UNICAMP
Ronaldo Fumio Hashimoto IME/USP
Marcelo da Silva Reis IC/UNICAMP
Suplentes:
Marcos Medeiros Raimundo IC/UNICAMP
Roberto Hirata Junior IME/USP