
Un grupo de investigadores del Instituto Tecnológico de Massachusetts (MIT) desarrolló un sistema que permite a robots blandos aprender cómo se comporta su cuerpo usando únicamente cámaras comunes.
Sin sensores ni programación manual, estos dispositivos lograron construir un modelo interno de su geometría y funcionamiento observando su propio movimiento. La investigación fue realizada por el laboratorio CSAIL (Computer Science and Artificial Intelligence Laboratory) del MIT y publicada en junio en Nature.
El avance representa un cambio significativo en la forma en que los robots pueden adquirir capacidades de adaptación y control. Mediante el uso de inteligencia artificial y visión artificial, el sistema prescinde por completo de sensores físicos, GPS o simulaciones digitales.
Según los investigadores, este enfoque podría reducir los costos de fabricación y acelerar el desarrollo de robots capaces de operar en entornos dinámicos, como el hogar, el campo o la industria.
Aprendizaje autónomo mediante observación visual
El sistema desarrollado se basa en la capacidad de los robots de observarse a sí mismos mientras realizan movimientos aleatorios. A partir de estos registros visuales, logran construir un modelo interno que les permite entender cómo su cuerpo responde a las órdenes motoras.
Este proceso se fundamenta en una técnica denominada Campos Jacobianos Neuronales, que permite mapear señales visuales a un campo visomotor denso y continuo, lo que habilita el control en tiempo real.

Daniela Rus, directora de CSAIL, explicó que las manos robóticas suaves utilizadas en el experimento pudieron aprender a agarrar objetos únicamente mediante observación, sin sensores, modelos previos ni programación manual.
“Los Campos Jacobianos Neuronales permiten que los robots blandos de CSAIL controlen su movimiento en tiempo real basándose únicamente en lo que ven”, explicó Rus a Forbes.
Eliminación de sensores y modelos preprogramados
El nuevo enfoque prescinde de muchos de los elementos que tradicionalmente hacen costoso y complejo el desarrollo robótico. Los métodos convencionales exigen la incorporación de sensores físicos en cada articulación o la creación de modelos tridimensionales detallados.
El sistema del MIT reemplaza esa arquitectura con redes neuronales entrenadas mediante imágenes bidimensionales y técnicas de visión por computadora.
Vincent Sitzmann, profesor del Departamento de Ingeniería Eléctrica y Ciencias de la Computación del MIT e investigador principal de CSAIL, detalló a Forbes que la red neuronal utilizada aprende a reconstruir un modelo tridimensional del robot a partir de una imagen mediante una técnica llamada renderizado diferenciable.

Esto permite que los algoritmos de aprendizaje automático comprendan cómo se mueve cada punto del cuerpo del robot bajo una orden específica.
“En lugar de medir minuciosamente cada parámetro de las articulaciones o integrar sensores en cada motor, utilizamos algoritmos de seguimiento de movimiento (seguimiento de puntos y flujo óptico) para rastrear el movimiento del robot durante el entrenamiento”, señaló Sitzmann.
Además agregó que, este sistema dota al modelo 3D del robot de una comprensión interna de cómo respondería a distintas acciones.
Resultados con tres tipos de robots
Los investigadores aplicaron este sistema a tres tipos de robots sin sensores ni modelos previos. El primero fue un brazo robótico de juguete impreso en 3D, con articulaciones sueltas, que aprendió a dibujar letras en el aire con precisión centimétrica. Este robot descubrió qué región visual se correspondía con cada canal de actuación, simplemente observando sus propios movimientos.

El segundo experimento utilizó una mano neumática suave, que aprendió por sí misma qué canal de aire activaba cada dedo. El sistema dedujo tanto la geometría como la profundidad del dispositivo usando únicamente videos en color.
El tercer caso involucró una plataforma robótica blanda, similar a una muñeca, que fue modificada con peso adicional. Esta estructura logró mantener el equilibrio y seguir trayectorias complejas. Además, el sistema cuantificó su sensibilidad al movimiento, midiendo cómo pequeñas órdenes motoras generaban desplazamientos milimétricos.
Un cambio de paradigma en la robótica blanda
Sitzmann señaló que los robots blandos, a diferencia de los convencionales, se deforman de manera compleja y no están compuestos por articulaciones rígidas. Esa característica dificulta el modelado tradicional, pero permite que adopten propiedades similares a las de organismos vivos, como flexibilidad, adaptabilidad y sensibilidad.
Para el equipo del MIT, este tipo de enfoque puede aplicarse en sectores que no requieran una precisión submilimétrica, como la automatización doméstica, la robótica agrícola o la fabricación de bajo costo.
“En el futuro, con la incorporación de la detección táctil, este paradigma podría incluso extenderse a aplicaciones que requieren alta precisión”, comentó Sitzmann a Forbes.
Últimas Noticias
Glosario de tecnología: qué significa Central mareomotriz
Conocer el significado de nuevas palabras ayudará a incrementar el conocimiento y vocabulario por igual

YouTube en Chile: los 10 videos que son tendencia este sábado
Tal es la popularidad de la plataforma de YouTube que se trata del segundo sitio más buscado sólo detrás del propio Google

Cómo es Gemini Deep Think, el modelo de IA más avanzado de Google
En vez de depender de un solo agente inteligente, este sistema genera varios agentes que abordan una misma pregunta en paralelo

Nace “el bebé más viejo del mundo” a partir de un embrión de 30 años: cómo es el proceso tecnológico
El caso de este neonato, llamado Thaddeus Daniel Pierce plantea preguntas sobre los límites y las posibilidades de la congelación embrionaria

Lo que necesitas saber si quieres tener internet en un avión: precios, consejos y más
Dentro de un avión en vuelo, la infraestructura necesaria para garantizar internet confiable y veloz es compleja y costosa
