A+A-Acessibilidade
EnglishPortuguese
Buscar
08 Mar
10:00 Defesa de Mestrado Integralmente a distância
Tema
Métodos Auto-supervisionados para Aprendizagem de Representações Visuais / Self-supervised Learning Methods for Representation Learning of Visual Features
Aluno
Thalles Santos Silva
Orientador / Docente
Gerberth Adín Ramírez Rivera
Breve resumo
Extrair informações semanticamente relevantes de um conjunto de dados de imagens não anotado é um dos mais complexos desafios das áreas de Visão Computacional e Processamento de Imagens. Nos últimos meses, métodos de aprendizado auto-supervisionados conseguiram reduzir drasticamente a grande lacuna outrora existente, entre representações aprendidas de forma supervisionada e aquelas aprendidas de forma não supervisionada. Com o crescimento ininterrupto na captura e armazenamento de dados não estruturados, somando-se o alto custo associado à criação de conjuntos de dados anotados, aprender características a partir de dados não rotulados, tem o potencial de desbloquear uma série de problemas relevantes, com redução significativa de custos. Neste trabalho, apresentamos algoritmos de aprendizado de máquina capazes de extrair características a partir de dados de imagens completamente não supervisionados. Apresentamos um panorama geral do recente paradigma de aprendizado auto-supervisionado. Destacamos a recente evolução dos métodos, desde a otimização de tarefas denominadas "pretext" até um robusto framework baseado na otimização de similaridade, que usam funções de custo contendo componentes contrastivos e não contrastivos. Propomos algoritmos de aprendizado de representações visuais que combinam os benefícios dos algoritmos clássicos de agrupamento com os métodos de auto-supervisão com base em técnicas de similaridades. Consistent Assignment for Representations Learning ou (CARL), demonstrou resultados comparáveis com métodos atuais de última geração em várias conjuntos de dados, incluindo ImageNet, CIFAR10, CIFAR100 e STL10. Apresentamos um estudo aprofundado para investigar os pontos fortes e fracos do nosso método inicial e apresentamos uma nova versão (CARL v2) que rivaliza com os métodos atuais de aprendizagem de representações não supervisionadas no ImageNet. Nossos métodos aprendem representações a partir de dados completamente livres de rótulos explícitos. Além disso, nossos experimentos demonstraram que as representações aprendidas por CARL reduzem a necessidade de grandes conjuntos de dados anotados no processo de aprendizado de novas tarefas. Em outras palavras, representações aprendidas pelo nosso método são compactas e transferíveis em várias tarefas de visão computacional, como classificação e detecção.
Banca examinadora
Titulares:
Gerberth Adín Ramírez Rivera IC/UNICAMP
Hélio Pedrini IC/UNICAMP
Eduardo Alves do Valle Júnior FEEC/UNICAMP
Suplentes:
Paula Dornhofer Paro Costa FEEC/UNICAMP
Esther Luna Colombini IC/UNICAMP