24abr2026
10:00 Defesa de Mestrado sala 85 do IC2
Tema
Aprendizado Federado Eficiente em Dispositivos de Borda: Métodos Cientes de Recursos sob Heterogeneidade do Sistema
Aluno
Bruno Santos Martins
Orientador / Docente
Leandro Aparecido Villas
Breve resumo
O Aprendizado Federado (Federated Learning - FL) permite que dispositivos colaborem no treinamento de um modelo compartilhado mantendo os dados localmente. No protocolo síncrono típico, o treinamento ocorre em rodadas: um subconjunto de clientes baixa o modelo global, realiza otimização local e envia atualizações a um servidor central para agregação. Embora amplamente utilizada, essa dinâmica é intensiva em comunicação e computação, elevando o consumo de largura de banda e energia e podendo excluir clientes com recursos limitados. Além disso, a heterogeneidade de hardware, bateria e conectividade produz stragglers que passam a determinar a duração das rodadas, gerando ociosidade em clientes mais rápidos e aumentando o tempo total de treinamento. A literatura tem explorado heterogeneidade de modelos, na qual clientes treinam submodelos ajustados às suas capacidades sob um mesmo modelo global. Entretanto, muitas abordagens mantêm o tamanho do submodelo constante ao longo do treinamento. Na prática, as capacidades dos clientes nem sempre são conhecidas a priori (e o conjunto de participantes pode ser parcialmente desconhecido ou variar), e o desempenho efetivo pode se alterar devido a flutuações de rede e cargas concorrentes em segundo plano; assim, alocações estáticas tendem a se tornar subótimas. Nesta dissertação, propomos dois métodos adaptativos de alocação de submodelos para reduzir o impacto de stragglers e o alto uso de recursos em FL sob heterogeneidade do sistema. O FedPulse combina os tempos de comunicação e computação para identificar stragglers como valores discrepantes e ajusta o tamanho do submodelo por cliente: menor para clientes lentos, reduzindo o tempo de parede, e maior para clientes rápidos, preservando a acurácia. Para equilibrar energia, acurácia e tempo de treinamento, propomos o FedLoad, que utiliza informações contextuais não sensíveis para selecionar tamanhos de submodelo com base em eficiência energética, capacidades de hardware e rede e progresso de aprendizado. Em experimentos com clientes heterogêneos simulados e tarefas padrão de classificação de imagens, o FedPulse reduz o tempo de treinamento em até 58% com perda de acurácia inferior a 1% em relação à FL com modelo homogêneo. Já o FedLoad reduz, respectivamente, a duração média das rodadas, o consumo de energia e o custo de comunicação em até 21,6%, 33,6% e 29,5% quando comparado a baselines da literatura.
Banca examinadora
Titulares:
Leandro Aparecido Villas IC/UNICAMP
Maycon Leone Peixoto DCC/UFBA
Luis Henrique Maciel Kosmalski Costa POLI/UFRJ
Juliana Freitag Borin IC/UNICAMP
Suplentes:
Luiz Fernando Bittencourt IC/UNICAMP
Bruno Yuji Lino Kimura ICT/UNIFESP