Saltar para o conteúdo

Novo algoritmo permite perceção tridimensional sem pontos cegos na visão estereoscópica para robôs e carros autónomos.

Carro desportivo futurista branco numa exposição moderna com projeção holográfica ao lado.

Учёные планируют создать самообучающуюся нейросеть, способную адаптироваться к разным средам

Num robot ou num carro autónomo, “ver” bem não é só detetar objetos - é perceber a profundidade com fiabilidade e sem zonas mortas. Foi precisamente esse o foco de uma nova tecnologia de estereovisão, a Un-ViTAStereo, criada por investigadores do MФТИ (Instituto de Física e Tecnologia de Moscovo) em conjunto com centros de investigação internacionais. Segundo a assessoria de imprensa do MФТИ, o algoritmo calcula a distância aos objetos sem recorrer a LiDARs caros nem a anotação manual, o que o torna mais acessível e versátil.

Em vez de depender de medições dispendiosas, a Un-ViTAStereo é treinada com o modelo Depth Anything V2, que estima a profundidade relativa a partir de uma única imagem, interpretando sombras, perspetiva e sobreposições. Assim, o algoritmo consegue selecionar apenas as previsões que estão alinhadas com as “dicas” do seu “mentor”, aumentando a precisão.

O sistema funciona em três etapas: valida cada píxel face às dicas, procura vizinhos verdes para pontos vermelhos e constrói contornos através de uma função de suavização da disparidade. Como resultado, a percentagem de erros grosseiros no teste de veículos autónomos KITTI 2015 desceu para 5%, o que representa menos 23% de erros perigosos na estimativa de distâncias aos objetos.

O MФТИ sublinha que a versão atual da Un-ViTAStereo é apenas o ponto de partida. Os cientistas pretendem criar uma rede neural autoaprendente, capaz de se adaptar a diferentes ambientes, e usar medições precisas de LiDAR para elevar ainda mais a exatidão. A nova tecnologia abre perspetivas amplas para reforçar a segurança e a funcionalidade de sistemas autónomos. O estudo foi publicado na IEEE Transactions on Circuits and Systems for Video Technology.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário