APROXIMADORES NEURO-FUZZY PARA SISTEMAS DE APRENDIZAGEM PROFUNDA POR REFORÇO
Aprendizado por reforço, Sistemas fuzzy, Sistemas neuro-fuzzy, Aprendizado por reforço profundo
Algoritmos de aprendizado por reforço fornecem uma maneira sistemática de codificar comportamentos profundamente enraizados na psicologia e neurociência sobre o comportamento animal, de como um agente pode melhorar a escolha de suas ações em determinado ambiente. Contudo, algoritmos tradicionais esbarram na complexidade do mundo real, os agentes devem ser capazes de reconhecer ambientes complexos a partir de entradas sensórias de alta dimensão e usá-las para generalizar a experiência passada para novas situações. Embora os agentes de aprendizado por reforço tenham alcançado alguns sucessos em uma variedade de domínios, sua aplicabilidade foi limitada anteriormente a domínios com espaços de estado de baixa dimensão. Com os recentes avanços no treinamento de redes neurais profundas, em especial as Redes Q-Profundas, os algoritmos atuais são capazes de aprender políticas eficientes mesmo em domínios em que os dados sensoriais são de alta dimensão. Entretanto, a função de uma rede neural é semelhante a uma caixa preta, quando a rede falha em algumas tarefas de controle é muito difícil conseguir o ajuste da rede de maneira manual. Por outro lado, sistemas nebulosos possuem a característica de interoperabilidade e ainda de processamento eficaz de dados imprecisos e ruidosos. Sendo assim, este trabalho tem por objetivo explorar o uso de sistemas neuro-fuzzy em conjunto com as recentes técnicas de treinamento de Redes Q-Profundas para a obtenção de agentes que tenham um comportamento cada vez mais próximo de um nível humano.