Método para medir, modelar e prever a profundidade e erros de posicionamento de câmeras RGB-D em Função de distância, velocidade e vibração
Câmeras RGB-D; Marcadores Inteligentes; Mapeamento Visual; Localização Visual; Erro de Profundidade; Erro de Posicionamento; Aprendizado Profundo
Esta tese propõe uma metodologia versátil para medir, modelar e estimar erros como o RMSE na profundidade e o RPE no posicionamento da câmera utilizando dados capturados de uma câmera RGB-D montada no topo de uma plataforma robótica móvel de baixo custo. O método proposto é dividido em três etapas, sendo que a primeira consiste na criação de dados que expressam a verdade (ground truth), tanto para pontos 3D (mapeamento) quanto para poses de câmera (localização). A próxima etapa é a aquisição de um conjunto de dados para cálculo dos erros RMSE e RPE utilizando a plataforma móvel com câmera RGB-D. Por fim, a terceira etapa consiste em modelar e estimar os erros nas medidas de profundidade e posicionamento da câmera em função da distância, velocidade e vibração. Para este estágio de modelagem e estimação, uma abordagem simples baseada em redes neurais do tipo MLP é usada. Isso resulta em duas redes, N rmse Z para a predição do erro de profundidade e N RPE para a previsão do erro de posicionamento da câmera. Experimentos mostram que as redes N rmse Z e N RPE têm uma precisão de ± 1% e ± 2,5%, respectivamente. A metodologia proposta pode ser usada diretamente nas técnicas que requerem uma estimativa da dinâmica do erro, como por exemplo a robótica probabilística para localização e mapeamento, usando câmeras RGB-D montadas em UAVs, UGVs e também USVs (incluindo veleiros robóticos). Tarefas que usam sensores RGBD, tais como monitoramento ambiental, manutenção de obras de engenharia e segurança pública, podem contar com esta abordagem para obter informações sobre o erro associado às medições da câmera (profundidade e posicionamento).