Robots que mapean grandes entornos
11/11/2025CATEGORíA: General MARCA: Massachusetts Institute of Technology
Un nuevo enfoque, desarrollado en el MIT, podría ayudar a un robot de búsqueda y rescate a navegar por un entorno impredecible al generar rápidamente un mapa preciso de su entorno.
Durante años, los investigadores han estado lidiando con un elemento esencial de la navegación robótica llamado localización y mapeo simultáneo (SLAM). En SLAM, un robot recrea un mapa de su entorno mientras se orienta dentro del espacio.

Foto de Steve Johnson en Unsplash
Los métodos de optimización tradicionales para esta tarea tienden a fallar en escenas desafiantes, o requieren que las cámaras a bordo del robot se calibren de antemano. Para evitar estas trampas, los investigadores entrenan modelos de aprendizaje automático para aprender esta tarea a partir de los datos.
Investigadores del MIT han diseñado un sistema que genera submapas más pequeños de la escena en lugar de todo el mapa. Su método “pega” estos submapas juntos en una reconstrucción 3D general. El modelo todavía solo está procesando unas pocas imágenes a la vez, pero el sistema puede recrear escenas más grandes mucho más rápido uniendo submapas más pequeños.
Tomando prestadas ideas de la visión por computadora clásica, los investigadores desarrollaron una técnica matemática más flexible que puede representar todas las deformaciones en estos submapas. Al aplicar transformaciones matemáticas a cada submapa, este método más flexible puede alinearlos de una manera que aborde la ambigüedad.
Sobre la base de imágenes de entrada, el sistema emite una reconstrucción 3D de la escena y estimaciones de las ubicaciones de la cámara, que el robot usaría para localizarse en el espacio.
Su sistema funcionó más rápido con menos error de reconstrucción que otros métodos, sin necesidad de cámaras especiales o herramientas adicionales para procesar datos. Los investigadores generaron reconstrucciones en 3D en tiempo real de escenas complejas como el interior de la Capilla del MIT utilizando solo videos cortos capturados en un teléfono móvil. El error promedio en estas reconstrucciones 3D fue inferior a 5 centímetros.
En el futuro, los investigadores quieren hacer su método más confiable para escenas especialmente complicadas y trabajar para implementarlo en robots reales en entornos desafiantes.
Fuente: https://news.mit.edu
Volver al listado



