Investigadores del MIT, Amazon Robotics y la Universidad de British Columbia han desarrollado una innovadora técnica que permite a los robots aprender características de los objetos —como peso, suavidad o contenido— simplemente agitándolos. Lo más sorprendente: todo esto sin cámaras ni sensores externos.
¿Cómo funciona?
Esta tecnología se basa en propriocepción, la capacidad de un robot para sentir el movimiento y posición de sus propios componentes, algo similar a cómo los humanos sentimos el peso de una caja sin verla, solo al levantarla.
Al sostener y sacudir suavemente un objeto, el robot recopila información desde los encoders de sus articulaciones, es decir, sensores internos que miden posición y velocidad. Con esos datos y mediante modelos simulados, el sistema infiere propiedades como masa o flexibilidad del objeto.
¿Por qué es relevante?
Esta técnica ofrece una alternativa de bajo costo y alta precisión frente a métodos tradicionales que dependen de visión por computadora. Además, funciona en condiciones donde las cámaras fallan, como en entornos oscuros, zonas peligrosas o escenarios de rescate.
Gracias a las simulaciones diferenciables, el robot puede predecir cómo afectan los cambios en la masa o rigidez del objeto a sus propios movimientos. Esto hace posible que aprenda y se adapte a nuevas situaciones con rapidez, algo clave para robots que operan en entornos dinámicos o impredecibles.
¿Qué sigue?
Los investigadores planean combinar esta técnica con visión artificial para crear sistemas robóticos aún más inteligentes y versátiles. También buscan adaptarla a robots más complejos, como los blandos (soft robots), y a objetos con comportamientos más complicados, como líquidos o materiales granulares.
Esta tecnología demuestra cómo los robots están comenzando a desarrollar un “sentido del tacto” interno, acercándonos cada vez más a sistemas autónomos capaces de explorar, aprender y adaptarse como lo haría un ser humano.
Crédito de la imagen: MIT News, iStock