11 de octubre de 2016

"El robot más avanzado es menos autónomo que una cucaracha"

ROBÓTICA
Cursos de Verano de la Universidad Complutense
"El robot más avanzado es menos autónomo que una cucaracha"
Atlas es un robot humanoide desarrollado por la compañía norteamericana Boston Dynamics. E.M.


El físico de la Universidad Politécnica de Madrid José Antonio Villacorta ve imposible que los futuros androides tengan consciencia y sentimientos

·         DANIEL MARTÍN
·         San Lorenzo de El Escorial (Madrid)

29/06/2016 13:11

Llevamos décadas imaginando tanto las bondades como las maldades que podrán llevar a cabo los robots. La ciencia-ficción y su impregnación en la cultura popular han ayudado a ello y para muchos es difícil no creer que en un futuro a medio-largo plazo nuestras ciudades no estarán plagadas de autómatas humanoides con los que interactuaremos, incluso a nivel emocional, prácticamente de igual a igual.

PUBLICIDADE

Las impresionantes imágenes que nos llegan de varios de los modelos más avanzados que se están desarrollando en estos momentos o que lo han hecho a lo largo de los últimos años, como el Atlas, de Boston Dynamics, también han propiciado este sentir más o menos generalizado.

El físico investigador de la Universidad Politécnica de Madrid José Antonio Villacorta Atienza ha desechado por completo esta posibilidad y ha dado un baño de realidad a quien pensase que de aquí a un tiempo compartiría su vida con personajes como los que aparecen en relatos como '¿Sueñan los androides con ovejas eléctricas?'-'Blade Runner'.

"El robot más avanzado es menos autómata que una simple cucaracha", ha llegado a asegurar esta mañana durante la celebración del Curso de Verano de la Universidad Complutense '¿Hay futuro para los robots en nuestra sociedad?'.

Para Villacorta "no parece plausible que en un futuro vayan a aparecer robots de forma autónoma, natural y productiva". "No va a haber nunca robots como los que esperamos. Lo más realista es pensar que tendremos máquinas más o menos autónomas con un rango de aplicabilidad muy limitado", ha asegurado.
Este investigador desarrolla desde hace varios años un robot capaz de esquivar obstáculos y que, como pretenden sus creadores, pueda detectar las emociones-intenciones de los humanos y actuar en base a ello. El proyecto está dirigido por el matemático Valeri Makarov, presente en la conferencia, y coordinado por el propio Villacorta, que ha desgranado por puntos todos los problemas por los que cree que los robots no podrán desarrollar consciencia ni poseer sentimientos. "El único robot que vais a ver en vuestras casas va a ser el aspirador", ha bromeado antes de enumerar los motivos.

No existe un 'cerebro' común
"En neurociencia existe un cerebro común, en robótica no. No tenemos la posibilidad de saber cómo de bueno es lo que hacemos porque no se hacen protocolos de evaluación, comparación y normalización de objetos. La mayor parte del trabajo en robótica está superfragmentado, no existe algo donde converger", ha asegurado, en referencia a la incertidumbre de si la investigación en aras de crear una mente artificial resultará satisfactoria.

Problemas etico-morales
Ya nos podemos ir olvidando de Terminator y androides similares en la vida real, según Villacorta."Si hablamos de que un robot se pueda volver pensante y atacar, no es ese el peligro. Lo es que los humanos puedan acabar con otros humanos a través de los robots", explica el físico, que advierte de cómo la tecnología armamentística cada vez está creando más desafección hacia la víctima: "Crear una máquina que mate está al alcance de la mano. Alguien puede matar a una persona con un dron como si fuese un videojuego e incluso hay un software que permite identificar a una persona concreta y ejecutarla".
Villacorta considera que los problemas éticos y morales ya se están planteando en otros campos más allá del bélico. Como ejemplo ha puesto el de los vehículos autónomos, de los cuales se prevé que comiencen a circular en unos cuatro años, y sobre los cuales, ha recordado, la revista Science ya lanzó una pregunta a sus lectores a este respecto: "¿Comprarías un vehículo autónomo que elige matarte para salvar a otros o permitirías que te salvase a costa de la vida de otros?".

La dificultad de regular las acciones de los robots
Para dilucidar de quién es la culpa cuando un robot realiza una acción perjudicial para el ser humano la clave son las aseguradoras, según Villacorta, que asevera que la Ley ya se está preparando para regular estos planteamientos en el caso de los citados coches autónomos. "La responsabilidad se dirimirá en términos de probabilidades de cada persona implicada. El coche salvará a aquellos con mayor capacidad de sobrevivir", ha afirmado. Para el físico, el comportamiento de los robots autónomos en situaciones complejas también se legislará "en base a la opinión de las aseguradoras".

La programación, otro obstáculo

"Cualquier cosa que se haga hoy en día en tecnología no funciona bien por culpa de la programación. Por ejemplo, un móvil hace varias cosas muy diferentes, pero una aplicación tarda en abrirse tres minutos. Hace años, cuando los móviles eran más sencillos, esto no ocurría", ha afirmado Villacorta, que ha sintetizado a este respecto que "a la tecnología le pedimos que haga cosas muy complejas, pero las que le pedimos no las hace muy bien. Uno de los pocos ejemplos positivos es la aviación civil".

Mente, cognición y sentimientos

Para el físico de la Universidad Politécnica, esperar que un robot tenga una mente parecida a la de los humanos "no tiene ningún sentido, al menos en cientos de años". "Los robots no tienen cognición, no son capaces de entender lo que sucede", explica Villacorta, que recuerda que "la mente es mucho más que eso" y abarca "motivación, curiosidad, intuición, imaginación y creatividad". En este sentido aseguró que, siendo el cerebro humano "el sistema más sofisticado conocido, se estima que el 30% falla o ha fallado alguna vez", evidenciado así la enorme dificultad de reproducir algo similar y que además funcione y mantenga el valor del producto.

Respecto a los sentimientos, indicó que para un robot no será necesario tenerlos, aunque sí detectarlos para que tomen decisiones "lo más parecido a las humanas". Sobre la consciencia, el último de los puntos de la conferencia, Villacorta afirmó que "el problema fundamental es que no hay ni una definición operacional de consciencia" con la que saber qué es lo que hay que tratar de implantar exactamente en la máquina.

¿Y si la tuvieran? Para el físico, "si tuviesen consciencia, podrían saltarse su programación y sus limitaciones. Esto podría conducir a que alterasen o incluso se saltasen las leyes de la robótica (de Isaac Asimov) y pudieran dañar a los humanos". Algo que parece poco probable, a tenor de la opinión tajante de Villacorta sobre este asunto: "No vamos a llegar a esto ni borrachos".


No hay comentarios: