On Combining Active Learning and Deep Learning from Label Proportions in Low-Budget Regimes
Nome: LUCAS MIGUEL TASSIS
Data de publicação: 12/06/2024
Banca:
Nome | Papel |
---|---|
DIEGO ROBERTO COLOMBO DIAS | Examinador Interno |
GIOVANNI VENTORIM COMARELA | Presidente |
LEANDRO SANTIAGO DE ARAÚJO | Examinador Externo |
Resumo: Aprendizado com proporção de rótulos (LLP) é um problema de aprendizado de máquina semi-supervisionado em que os dados são divididos em subconjuntos chamados bags. Para cada bag, apenas a proporção de rótulos é conhecida. LLP é um problema que possui diversas aplicações interessantes onde a informação individual está disponível como estatísticas de grupo, por exemplo, análise eleitoral. No entanto, LLP é um problema desafiador de se resolver na maioria de suas variantes, e a grande parte dos modelos de aprendizado de máquina tem dificuldade em alcançar um bom desempenho de classificação. Na tentativa de aumentar o desempenho dos modelos de aprendizado de máquina no problema de LLP, uma das ideias principais foi revelar o rótulo de alguns exemplos no conjunto de dados. A ideia é que mesmo algumas poucas âncoras poderiam ajudar a aumentar o desempenho dos modelos no problema LLP. A partir dessa ideia, foi proposta a combinação de aprendizado ativo - um subcampo de aprendizado de máquina que está interessado em obter o melhor desempenho rotulando o menor número possível de exemplos - e LLP. Neste trabalho, investigamos o uso do aprendizado ativo no problema de Aprendizado de proporções de rótulos. Particularmente, este trabalho centra-se em regimes de baixo orçamento, isto é, problemas em que o número de rótulos que podem ser revelados é pequeno. Avaliamos os modelos em uma variedade de experimentos e variantes, explorando as complexidades e as vantagens de combinar esses dois problemas. Além disso, estendemos modelos existentes utilizando técnicas de amostragem por incerteza e propomos um novo score combinando amostragem por incerteza e aprendizado com proporção de rótulos.