Investigadores enseñan a robots a interpretar su entorno
Los expertos esperan que los robots puedan aprender a analizar e interpretar lo que vayan observando y así tengan una mayor autonomía.
Un grupo de investigadores de la Universidad de Alicante (UA) pretende enseñar a robots móviles a entender lo que perciben a su alrededor y a interpretar lo que vayan observando mediante dispositivos de visión para poder moverse libremente y de forma autónoma.
Así lo ha explicado a Efe el profesor de Ciencias de la Computación e Inteligencia Artificial de la UA y miembro del grupo de investigación Robótica y Visión Tridimensional (ROVIT), Diego Viejo, quien ha indicado que lo que tratan es que "el robot sepa por dónde anda y entienda su entorno para orientarse en una habitación, salvar un obstáculo o reconocer dónde se encuentra".
Este grupo de investigación, dependiente de la UA, persigue, según Viejo, "proporcionar métodos a la inteligencia artificial del robot para que reconstruya el mundo que le rodea a partir de observaciones a medida que se desplaza por él", es decir, que "el ordenador del robot imite de forma rudimentaria lo que hace el cerebro humano".
Ha expuesto que la intención es aproximarse a las capacidades del ojo de los seres vivos, el cual es un sistema de captación de información que "aún está lejos de las posibilidades de las máquinas".
El investigador ha señalado que, en primera instancia, los robots utilizaban la visión monocular, la cual es "muy fácil de aplicar y se obtiene información sobre el color", pero "sólo permite representar un mundo plano, de dos dimensiones".
Posteriormente se desarrolló la visión binocular, con dos cámaras, que, en su versión biológica de los dos ojos humanos, proporciona al hombre ver en profundidad y representar el mundo en tres dimensiones.
Viejo ha señalado que, a veces, emplean en sus robots experimentales "una tercera cámara que contrasta y detecta errores de las otras dos".
Así, el robot "debe aprender a saber dónde está y si ya ha estado o no antes ahí", ha detallado.
Respecto a cómo enseñarles a reconocer los espacios en los que han estado y en los que no, si entran en un mismo lugar o es otro distinto aunque sea parecido, el investigador ha aclarado que es una "situación similar a la que se encuentra una persona que, tras perder el conocimiento, se despierta en la habitación de un hospital y tiene que empezar a reconocer objetos para saber dónde está".
El ROVIT enseña al autómata técnicas de identificación y este "debe memorizar los lugares por los que pasa y formarse un mapa tridimensional del sitio donde está", ha dicho Viejo, quien ha matizado que es "un problema que aún no esta resuelto".
Para identificar las formas tridimensionales de un objeto, los ordenadores recurren al método de la 'nube de puntos', un término que consiste en el registro de los puntos que definen el contorno de un objeto, localizados a lo largo, lo ancho y en profundidad por visión en tres dimensiones.
En este sentido, Viejo ha reseñado que cuantos más puntos señale el ordenador de un robot, "más precisa será su reconstrucción de la forma, sobre todo si es compleja, y más fiable será su identificación".
Todo lo que hacen, observan y reconocen estas máquinas "se reduce a funciones matemáticas y el cálculo de probabilidades para tratar de modelizar y entender qué es lo que se ha transformado a su alrededor", ha resumido el científico.
Aparte de la visión en tres dimensiones, los investigadores han ensayado con otros dispositivos sensoriales como el sónar acústico, que detecta el eco de los objetos. El inconveniente es que ha arrojado resultados "poco satisfactorios, es lento, impreciso y ruidoso", ha apuntado Viejo.
También han empleado la detección infrarroja, pero "siguen siendo de menor precisión que la óptica", según el profesor de la UA, quien ha añadido que una alternativa serían "los rayos láser, pero el problema es que son mucho más caros".
Comenta
Por favor, inicia sesión en La Tercera para acceder a los comentarios.