Artigo de ex-aluno e de professor do Câmpus Anápolis integra publicação de conferência internacional
Artigo publicado trata de aperfeiçoamento de serviços de sites de buscas
Egresso do curso de bacharelado em Ciência da Computação, do Câmpus Anápolis do Instituto Federal de Goiás, Pedro Henrique Silva Rodrigues, e o professor do mesmo curso, Daniel Xavier Sousa, publicaram artigo em prestigiada conferência internacional – a 45ª Conferência Internacional ACM SIGIR sobre Pesquisa e Desenvolvimento em Recuperação de Informação, que acontece em Madri, Espanha, de 11 a 15 de julho. O artigo pode ser encontrado no endereço https://dl.acm.org/doi/10.1145/3477495.3532056.
ACM SIGIR é a Conferência Anual da Association for Computing Machinery Special Interest Group in Information Retrieval. Pedro Rodrigues foi aluno da primeira turma do curso de bacharelado em Ciência da Computação no Câmpus Anápolis, tendo se formado em 2019. Logo em seguida, foi aprovado em alguns dos melhores programas de mestrado do país – na UFRGS, Unicamp e UFMG. Escolheu a UFMG, onde continuou como orientando de seu professor no IFG, Daniel Xavier de Sousa.
O artigo que ambos produziram é resultado de um trabalho de pesquisa que teve início na tese de doutorado do professor Daniel. Na sequência, o mesmo problema foi também abordado pelo ex-aluno Pedro Rodrigues em seu Trabalho de Conclusão de Curso, que foi continuado em seu mestrado na UFMG, onde foi coorientado pelo professor Daniel.
Tema da pesquisa
Segundo o artigo, embora as máquinas de busca como Google e Yahoo facilitem muito nosso dia a dia, permitindo executar diversas consultas na WEB, ainda existem resultados ruins quando são consideradas diversas consultas. Ou seja, algumas vezes é preciso tentar diferentes termos de consulta ou buscar por diversas páginas para encontrar o resultado pretendido. Em muitos casos isso ocorre pois os modelos de Aprendizado de Máquina foram construídos para a maioria das consultas, e às vezes ignoram consultas que fogem ao padrão. A proposta do artigo é justamente construir um novo algoritmo capaz de ser mais sensível a possíveis falhas, e dessa forma continuar acertando na maioria das vezes e ao mesmo tempo ser mais preciso para consultas que fogem ao padrão. Dentro da área de Recuperação de Informação, esse problema é tratado como Sensibilidade ao Risco ou Risk-Sensitiveness. Os resultados dessa estratégia foram tão bons que além de melhorar as métricas de sensibilidade de risco, melhoraram também a precisão do modelo para os tipos de consultas mais frequentes. Na parte experimental do artigo, a nova proposta mostra melhores resultados quando comparada com as diversas estratégias concorrentes e alcança o desejado estado da arte na área em algoritmos de aprendizado de ranqueamento na WEB, ou Learning To Rank.
Acesse o texto do artigo
Coordenação de Comunicação Social/Câmpus Anápolis
Redes Sociais