Estratégias de Atualização de Políticas para a Coordenação de Agentes Baseados em Enxames
DOI:
https://doi.org/10.22456/2175-2745.11695Abstract
Neste artigo é analisada a influência dos parâmetros de aprendizagem de algoritmos de enxames e propostas estratégias de atualização de políticas geradas por recompensas (feromônios) para ambientes dinâmicos. Nós verificamos que quando os parâmetros de algoritmos baseados em recompensas são ajustados inadequadamente pode ocorrer atrasos no aprendizado e convergência para uma solução não-satisfatória. Além disso, esse problema é agravado em ambientes dinâmicos, pois o ajuste dos parâmetros de tais algoritmos não é suficiente para garantir convergência. Para solucionar tal problema, nós desenvolvemos estratégias que modificam valores de feromônio, melhorando a coordenação entre os agentes e permitindo convergência mesmo quando o ambiente é alterado dinamicamente. Para isso, um framework capaz de demonstrar de maneira iterativa a influência dos parâmetros e das estratégias foi desenvolvido. Resultados experimentais mostram que é possível acelerar a convergência para uma política global consistente, superando os resultados de abordagens clássicas de algoritmos baseados em enxames.Downloads
Download data is not yet available.
Downloads
Published
2011-03-28
How to Cite
Ribeiro, R., & Enembreck, F. (2011). Estratégias de Atualização de Políticas para a Coordenação de Agentes Baseados em Enxames. Revista De Informática Teórica E Aplicada, 17(3), 364–388. https://doi.org/10.22456/2175-2745.11695
Issue
Section
Regular Papers