Date:

Share:

Robots ¿Cómo sienten, cómo piensan y cómo interactúan con el mundo real?

¡No te mandas solo! Así nos decían las mamás del siglo pasado para darnos a entender que no deberíamos de hacer lo que se nos diera la gana, porque aún éramos pequeños para tomar decisiones importantes. Sin embargo, en el caso de algunos robots deseamos todo lo contrario: que se manden solos.

Entre otros, destacan los que tienen forma de animales o bien los humanoides, cuya figura nos recuerda a una persona. También se tienen robots móviles, que son carritos que se mueven de manera independiente, como Perseverance y Curiosity, enviados por la NASA a Marte, o aquí en la Tierra los modernos robots de servicio para limpiar de manera autónoma una habitación. Tampoco hay que dejar de lado los robots de película como WALL-E, C-3PO o el inolvidable R2D2. Pero para mandarse solos necesitan tres componentes fundamentales: percepción, razonamiento y movimiento.

Comencemos con la percepción. Para nosotros los humanos la percepción tiene que ver con nuestros sentidos, que nos enseñaron que eran sólo cinco (vista, oído, olfato, gusto y tacto), pero que se ha encontrado que tenemos más, entre 10 y 33, dependiendo del estudio. Nosotros utilizamos mucho la vista porque nos da bastante información (una imagen dice más que mil palabras). Los robots utilizan cámaras de video para captar lo que sucede a su alrededor. Pueden ser a color, monocromáticas, infrarrojas o incluso térmicas, por lo que un robot puede a veces ver cosas que nosotros no veríamos. El oído nos ayuda a captar información que no está frente a nuestros ojos. Para emular este sentido, los robots utilizan micrófonos. Puede ser uno solo o varios, en cuyo caso el robot podría distinguir la dirección de la que proviene el sonido. El olfato humano da información valiosa que otros sentidos no dan, por ejemplo, si hay una fuga de gas, si hay comida cerca, o si alguien estuvo antes en una habitación (aquí huele a gato encerrado). Sin embargo, en la robótica ha sido un sentido muy poco estudiado y muy poco aprovechado porque es difícil de su construcción. El sentido del gusto nos ayuda a no ingerir sustancias tóxicas o en descomposición, así como favorecer el comer cosas deliciosas o buenas para nuestro organismo. Dado que los robots no necesitan comer, este sentido se ha estudiado aún menos que el del olfato. El tacto nos ayuda a percibir, por ejemplo, si un objeto es suave, duro, rugoso o filoso, con lo que podemos saber si nos va a servir para cortar, si nos puede hacer daño o si nos podemos recostar sobre él. Para los robots se han desarrollado sensores de tacto con los que se pueden detectar ligeras variaciones de presión, temperatura o vibraciones, pero no son tan sensibles como su contraparte humana. Los robots móviles pueden incluir unidades de medición inercial (IMU, por sus siglas en inglés). Estas unidades contienen acelerómetros, magnetómetros y giroscopios, con los que el robot puede medir su aceleración y su rotación con respecto al suelo. Los humanos también tenemos un sentido parecido llamado propiocepción, con el que podemos sentir cómo estamos orientados con respecto al suelo y cómo nos estamos moviendo sin la necesidad de utilizar nuestra vista. Los robots también pueden equiparse con sonares, que emiten sonidos de frecuencias inaudibles y miden el tiempo que tardan en rebotar, muy similar a como lo hacen los murciélagos. También podrían mandarse rayos láser y medir el tiempo que tardan en regresar a un receptor en el robot, lo que se conocer como LiDAR. Los humanos no poseemos un sentido similar.

Toda esta información no sirve de nada si el robot no sabe qué hacer con ella. De igual forma como el cerebro humano, los robots tienen que procesar los datos de los sensores para que sean de alguna utilidad. Una de las primeras cosas que se hace comúnmente es eliminar el ruido, que es información que inevitablemente captan los sensores, pero que no es de interés. Otra de las tareas que realiza el ‘cerebro’ de un robot es la de obtener información que no miden los sensores, lo que puede hacerse combinando las mediciones de varios de ellos o sacando partido del conocimiento de la física del mismo robot y del entorno.

Quizás la función más importante del cerebro de nuestro robot es la de razonar cuáles serán sus siguientes acciones con base en la información obtenida por los sensores. Este razonamiento se divide en dos niveles: alto y bajo. El razonamiento a alto nivel es el que toma decisiones generales, como qué objeto va a tomar el robot, el lugar al que va a ir, o a qué persona va a buscar. Para lograr este tipo de razonamiento los robots utilizan varios tipos de herramientas, por ejemplo, los árboles de decisión, que son algoritmos que se pueden entrenar con unos pocos ejemplos para tomar decisiones con pocas opciones como ir a la izquierda, a la derecha o seguir de frente. También se utilizan a menudo procesos de decisión de Markov (MDP, por sus siglas en inglés), que incorporan la incertidumbre del resultado de las decisiones utilizando la probabilidad de éxito de las tareas asociadas a estas decisiones.

Las redes neuronales artificiales son otro de los mecanismos de razonamiento utilizados con frecuencia. Este tipo de redes está inspirado en las conexiones neuronales del cerebro humano, en las que las neuronas no cumplen una función específica, sino que se pueden interconectar con otras para realizar alguna tarea e incluso reconfigurar estas conexiones si llegan a perderse algunas neuronas. En los últimos años, también se han utilizado los grandes modelos de lenguaje (por ejemplo, ChatGPT, DeepSeek o Gemini) para realizar esta parte de razonamiento. Se trata de redes neuronales gigantescas entrenadas con miles de millones de textos e imágenes obtenidos de internet. Aunque el entrenamiento de estas redes puede llevar varias semanas o hasta meses y lo realizan grandes compañías, su uso suele tardar unos pocos segundos y requiere sólo una conexión a internet o descargar uno de los modelos ligeros.

Una vez que se ha razonado y preparado un plan para cada una de las partes del robot, el controlador a bajo nivel es el encargado de que se cumpla el plan. Para lograr lo anterior, el control automático es el que hace que los robots se comporten bien, garantizando que cada motor que mueve al robot llegue a la posición deseada de forma precisa, rápida y eficiente. El control también logra que el robot no se caiga, aun cuando alguna fuerza externa lo quiera derribar. Esto se logra mediante la retroalimentación, que es la acción de medir datos utilizando los sensores para corregir el movimiento casi instantáneamente. Por ejemplo, cuando manejamos una bicicleta, nuestra vista nos indica hacia dónde balancearnos para mantener la vertical. De hecho, la retroalimentación no sólo se utiliza en el control a bajo nivel, sino también a alto nivel. Siguiendo con la bicicleta, aun cuando tengamos ya una ruta planeada, ésta puede cambiar debido, por ejemplo, a un cierre de vialidad.

Por lo tanto, las tres partes que componen una tarea robótica (percepción, razonamiento y movimiento) no ocurren una después de otra, sino que se retroalimentan todo el tiempo para ajustarse a la realidad.

Los robots actuales están todavía lejos de tener las capacidades de un ser humano, sobre todo en cuanto a razonamiento y eficiencia, pero es un área que ha avanzado mucho en los últimos años y se espera que el avance en los próximos años sea aún más acelerado.

* [email protected] y [email protected]

Artículo anterior
Artículo siguiente

Más Articulos