[ad_1] La localisation et la cartographie simultanées (SLAM) consistent à estimer simultanément la pose du capteur ainsi que la géométrie de la scène environnante. Cependant, la plupart des systèmes SLAM existants sont conçus pour le monde statique, ce qui est irréaliste. Un article récent sur arXiv.org propose un système SLAM dynamique robuste au niveau de l'objet. La reconstruction aboutit à des scènes dynamiques : image RVB d'entrée (rangée du haut), fusion sémantique (rangée du milieu) et reconstruction géométrique (rangée du bas). Crédit image : arXiv : 2208.04274 [cs.RO]Afin d'estimer la pose de la caméra dans un environnement hautement dynamique, les chercheurs intègrent les lectures d'un L'unité de mesure inertielle (IMU) et un capteur RVB-D de manière étroitement couplée en estimant conjointement la pose, la vitesse et les biais de l'IMU de la caméra. L'approche permet d'obtenir une estimation fiable de la pose de la caméra même dans un scénario hautement dynamique tout en gardant la direction de la gravité observable. De plus, une étape de relocalisation d'objet est introduite en récupérant le modèle précédemment reconstruit à l'aide d'une correspondance de caractéristiques basée sur des images clés. Il réduit les réplications de cartes d'objets lorsque les robots explorent un environnement à plus grande échelle. Dans cet article, nous présentons un système SLAM dynamique multi-instance au niveau de l'objet visuel-inertiel étroitement couplé. Même dans des scènes extrêmement dynamiques, il peut optimiser de manière robuste la pose de la caméra, la vitesse, les biais de l'IMU et créer une carte dense de reconstruction 3D au niveau de l'objet de l'environnement. Notre système peut suivre et reconstruire de manière robuste les géométries d'objets arbitraires, leur sémantique et leur mouvement en fusionnant progressivement les probabilités associées de couleur, de profondeur, de sémantique et d'objet de premier plan dans chaque modèle d'objet grâce à son capteur robuste et à son suivi d'objet. De plus, lorsqu'un objet est perdu ou déplacé en dehors du champ de vision de la caméra, notre système peut retrouver sa pose de manière fiable lors d'une nouvelle observation. Nous démontrons la robustesse et la précision de notre méthode en la testant quantitativement et qualitativement dans des séquences de données réelles. Article de recherche: Ren, Y., Xu, B., Choi, CL et Leutenegger, S., "Visual-Inertial Multi-Instance Dynamic SLAM with Object-level Relocalisation", 2022. Lien : https://arxiv.org/abs/2208.04274 Tu peux offrez votre lien vers une page en rapport avec le sujet de cet article. !function(f,b,e,v,n,t,s){if(f.fbq)return;n=f.fbq=function(){n.callMethod? n.callMethod.apply(n,arguments):n.queue.push(arguments)};if(!f._fbq)f._fbq=n; n.push=n;n.loaded=!0;n.version='2.0';n.queue=[];t=b.createElement(e);t.async=!0; t.src=v;s=b.getElementsByTagName(e)[0];s.parentNode.insertBefore(t,s)}(window, document,'script','https://connect.facebook.net/en_US/fbevents.js'); fbq('init', '1254095111342376'); fbq('track', 'PageView'); [ad_2] Source link