Enseñando a un robot sus límites
01/01/2025CATEGORíA: General MARCA: Massachusetts Institute of Technology
El método "PRoC3S- ayuda a un LLM a crear un plan de acción viable probando cada paso en una simulación. Esta estrategia podría eventualmente ayudar a los robots en casa a completar peticiones de tareas más ambiguas.
Imagínese pedirle a un robot que limpie su cocina cuando no entiende la física de su entorno. Cómo puede la máquina generar un práctico plan de varios pasos para asegurar que la habitación esté impecable? Los modelos de lenguaje grande (LLM) pueden acercarse a ellos, pero si el modelo sólo se entrena en texto, es probable que se pierda detalles clave sobre las restricciones físicas del robot, como hasta qué punto puede llegar o si hay obstáculos cercanos que evitar. Quédate solo con LLMs, y es probable que termines limpiando las manchas de pasta de tus tablas de piso.
Para guiar a los robots en la ejecución de estas tareas abiertas, los investigadores del Laboratorio de Informática e Inteligencia Artificial (CSAIL) utilizaron modelos de visión para ver qué cerca de la máquina y modelaba sus limitaciones. La estrategia del equipo implica un bosqueje de LLM un plan que se comprueba en un simulador para asegurar que sea seguro y realista. Si esa secuencia de acciones es inviable, el modelo de lenguaje generará un nuevo plan, hasta que llegue a uno que el robot pueda ejecutar.
Este método de ensayo y error, que los investigadores llaman "Planning for Robots" a través de Code for Continuous Constraint Satisfaction (PRoC3S), prueba planes de larga duración para asegurarse de que satisfacen todas las limitaciones, y permite a un robot realizar tareas tan diversas como escribir letras individuales, dibujar una estrella y clasificar y colocar bloques en diferentes posiciones. En el futuro, PRoC3S podría ayudar a los robots a completar tareas más intrincitadas en entornos dinámicos como las casas, donde se les puede pedir que hagan una tarea general compuesta por muchos pasos (como "me hacer el desayuno").
LLMs y sistemas de robótica clásica como la tarea y los planificadores de movimiento no pueden ejecutar este tipo de tareas por su cuenta, pero juntos, su sinergia hace posible la resolución de problemas indefendibles, dice el estudiante de doctorado Nishanth Kumar SM, co-autor principal de un nuevo artículo sobre PRoC3S. Estamos creando una simulación sobre la marcha de lo que rodea al robot y probando muchos planes de acción posibles. Los modelos de visión nos ayudan a crear un mundo digital muy realista que permita al robot razonar sobre acciones factibles para cada paso de un plan de largo plazo.
El trabajo del equipo fue presentado el mes pasado en un documento que se muestra en la Conferencia sobre Aprendizaje Robot (CoRL) en Munich, Alemania.
El método de los investigadores utiliza un LLM pre-entrenado en texto de todo internet. Antes de pedirle a PRoC3S que hiciera una tarea, el equipo proporcionó su modelo de lenguaje con una tarea de muestra (como dibuje un cuadrado) que se relacionaba con el objetivo (dibujear una estrella). La tarea de la muestra incluye una descripción de la actividad, un plan dehorizolar largo y detalles relevantes sobre el entorno del robot.
Pero cómo les fue a estos planes en la práctica? En simulaciones, PRoC3S dibujaba con éxito estrellas y letras ocho de cada 10 veces cada una. También podría apilar bloques digitales en pirámides y líneas, y colocar artículos con precisión, como frutas en un plato. A través de cada una de estas demos digitales, el método CSAIL completó la tarea solicitada de manera más consistente que enfoques comparables como los de LLM3 y "Code" como Políticas.
A continuación, los ingenieros de la CSAIL trajeron su acercamiento al mundo real. Su método desarrolló y ejecutó planes en un brazo robótico, enseñándolo a poner bloques en líneas rectas. PRoC3S también permitió a la máquina colocar bloques azules y rojos en tazones a juego y mover todos los objetos cerca del centro de una mesa.
Kumar y el co-autor liderador Aidan Curtis SM, quien también es un estudiante de doctorado que trabaja en CSAIL, dicen que estos hallazgos indican cómo un LLM puede desarrollar planes más seguros en los que los humanos pueden confiar para trabajar en la práctica. Los investigadores imaginan un robot casero al que se le puede dar una petición más general (como "traerme unos chips") y averiguar de manera confiable los pasos específicos necesarios para ejecutarlo. PRoC3S podría ayudar a un robot a probar los planes en un entorno digital idéntico para encontrar un curso de acción de trabajo y, lo que es más importante, traerle un bocadero sabroso.
Para el trabajo futuro, los investigadores pretenden mejorar los resultados utilizando un simulador de física más avanzado y expandirse a tareas más elaboradas de más largohorizo a través de técnicas de búsqueda de datos más escalables. Además, planean aplicar PRoC3S a robots móviles como un cuadrúpedo para tareas que incluyen caminar y escanear entornos.
Ubir modelos de fundación como ChatGPT para controlar las acciones de los robots puede conducir a comportamientos inseguros o incorrectos debido a las alucinaciones, dice el investigador del Instituto AI Eric Rosen, quien no está involucrado en la investigación. El programa aborda esta cuestión aprovechando los modelos de base para una orientación de alta categoría, al tiempo que emplea técnicas de IA que expresan explícitamente la razón sobre el mundo para garantizar acciones verificablemente seguras y correctas. Esta combinación de enfoques basados en la planificación y basados en datos puede ser clave para desarrollar robots capaces de entender y realizar de manera confiable una gama de tareas más amplia de lo que actualmente es posible.
Los coautores de Kumar y Curtis también son afiliados de la CSAIL: el investigador de pregrado del MIT Jing Cao y los profesores del Departamento de Ingeniería Elécta y de la Computación del MIT Leslie Pack Kaelbling y Tomás Lozano-Pérez. Su trabajo contó con el apoyo, en parte, de la Fundación Nacional de Ciencia, la Oficina de Investigación Científica de la Fuerza Aérea, la Oficina de Investigación Naval, la Oficina de Investigación del Ejército, la MIT Quest for Intelligence y el Instituto de AI.
Más información en https://news.mit.edu
Volver al listado