11 de octubre de 2016
"El robot más avanzado es menos autónomo que una cucaracha"
ROBÓTICA
Cursos de
Verano de la Universidad Complutense
"El
robot más avanzado es menos autónomo que una cucaracha"
Atlas es un
robot humanoide desarrollado por la compañía norteamericana Boston Dynamics. E.M.
El físico de la Universidad Politécnica de Madrid
José Antonio Villacorta ve imposible que los futuros androides tengan
consciencia y sentimientos
·
DANIEL MARTÍN
·
San Lorenzo
de El Escorial (Madrid)
29/06/2016 13:11
Llevamos décadas imaginando tanto las bondades como las maldades que
podrán llevar a cabo los robots. La ciencia-ficción y su impregnación en la
cultura popular han ayudado a ello y para muchos es
difícil no creer que en un futuro a medio-largo plazo nuestras ciudades no
estarán plagadas de autómatas humanoides con los que interactuaremos, incluso a
nivel emocional, prácticamente de igual a igual.
PUBLICIDADE
Las impresionantes imágenes que nos llegan de varios de los modelos más
avanzados que se están desarrollando en estos momentos o que lo han hecho a lo
largo de los últimos años, como el Atlas, de Boston Dynamics, también han
propiciado este sentir más o menos generalizado.
El físico investigador de la Universidad Politécnica de Madrid José
Antonio Villacorta Atienza ha desechado por completo esta posibilidad y ha dado un baño de realidad a quien
pensase que de aquí a un tiempo compartiría su vida con personajes como los que
aparecen en relatos como '¿Sueñan los androides con ovejas eléctricas?'-'Blade
Runner'.
"El robot más avanzado es menos autómata que una simple cucaracha", ha llegado a asegurar esta mañana
durante la celebración del Curso de Verano de la Universidad Complutense '¿Hay
futuro para los robots en nuestra sociedad?'.
Para Villacorta "no parece plausible que en un futuro vayan a
aparecer robots de forma autónoma, natural y productiva". "No va
a haber nunca robots como los que esperamos. Lo más realista es pensar que tendremos
máquinas más o menos autónomas con un rango de aplicabilidad muy
limitado", ha asegurado.
Este investigador desarrolla desde hace varios años un robot capaz de
esquivar obstáculos y que, como pretenden sus creadores, pueda detectar las
emociones-intenciones de los humanos y actuar en base a ello. El proyecto está
dirigido por el matemático Valeri Makarov, presente en la conferencia, y
coordinado por el propio Villacorta, que ha desgranado por puntos todos los
problemas por los que cree que los robots no podrán desarrollar consciencia ni
poseer sentimientos. "El único robot que vais a
ver en vuestras casas va a ser el aspirador", ha bromeado antes de enumerar los
motivos.
No existe un 'cerebro' común
"En neurociencia existe un cerebro común, en robótica no. No tenemos la posibilidad de saber cómo
de bueno es lo que hacemos porque no se hacen protocolos de evaluación,
comparación y normalización de objetos. La mayor parte del trabajo en robótica
está superfragmentado, no existe algo donde converger", ha asegurado, en
referencia a la incertidumbre de si la investigación en aras de crear una mente
artificial resultará satisfactoria.
Problemas etico-morales
Ya nos podemos ir olvidando de Terminator y androides similares en la
vida real, según Villacorta."Si hablamos de que un robot se pueda volver
pensante y atacar, no es ese el peligro. Lo
es que los humanos puedan acabar con otros humanos a través de los robots", explica el físico, que advierte de
cómo la tecnología armamentística cada vez está creando más desafección hacia
la víctima: "Crear una máquina que mate está al alcance de la mano.
Alguien puede matar a una persona con un dron como si fuese un videojuego e
incluso hay un software que permite identificar a una persona concreta y
ejecutarla".
Villacorta considera que los problemas éticos y morales ya
se están planteando en otros campos más allá del bélico. Como ejemplo ha puesto el de los
vehículos autónomos, de los cuales se prevé que comiencen a circular en unos
cuatro años, y sobre los cuales, ha recordado, la revista Science ya lanzó una pregunta a sus lectores a este
respecto: "¿Comprarías un vehículo autónomo que elige matarte para salvar
a otros o permitirías que te salvase a costa de la vida de otros?".
La dificultad de regular las acciones de los robots
Para dilucidar de quién es la culpa cuando un robot realiza una acción
perjudicial para el ser humano la clave son las aseguradoras, según Villacorta,
que asevera que la Ley ya se está preparando para regular estos planteamientos
en el caso de los citados coches autónomos. "La
responsabilidad se dirimirá en términos de probabilidades de cada persona
implicada. El
coche salvará a aquellos con mayor capacidad de sobrevivir", ha afirmado.
Para el físico, el comportamiento de los robots autónomos en situaciones
complejas también se legislará "en base a la opinión de las
aseguradoras".
La programación, otro obstáculo
"Cualquier cosa que se haga hoy en día en tecnología no funciona
bien por culpa de la programación. Por ejemplo, un móvil hace varias cosas muy
diferentes, pero una aplicación tarda en abrirse tres minutos. Hace años,
cuando los móviles eran más sencillos, esto no ocurría", ha afirmado
Villacorta, que ha sintetizado a este respecto que "a la
tecnología le pedimos que haga cosas muy complejas, pero las que le pedimos no
las hace muy bien. Uno de los pocos ejemplos positivos es la aviación civil".
Mente, cognición y
sentimientos
Para el físico de la Universidad Politécnica, esperar que un robot tenga
una mente parecida a la de los humanos "no tiene ningún sentido, al menos
en cientos de años". "Los robots no tienen cognición, no son capaces
de entender lo que sucede", explica Villacorta, que recuerda que "la
mente es mucho más que eso" y abarca "motivación, curiosidad,
intuición, imaginación y creatividad". En este sentido aseguró que, siendo el
cerebro humano "el sistema más sofisticado conocido, se estima que el 30%
falla o ha fallado alguna vez", evidenciado así la enorme dificultad de
reproducir algo similar y que además funcione y mantenga el valor del producto.
Respecto a los sentimientos, indicó que para un robot no será necesario
tenerlos, aunque sí detectarlos para que tomen decisiones "lo más parecido
a las humanas". Sobre la consciencia, el último de los puntos de la
conferencia, Villacorta afirmó que "el problema fundamental es que no hay ni
una definición operacional de consciencia" con la que saber qué es lo que hay
que tratar de implantar exactamente en la máquina.
¿Y si la tuvieran? Para el físico, "si tuviesen
consciencia, podrían saltarse su programación y sus limitaciones. Esto podría conducir a que alterasen o
incluso se saltasen las leyes de la robótica (de Isaac Asimov) y pudieran dañar
a los humanos". Algo que parece poco probable, a tenor de la opinión
tajante de Villacorta sobre este asunto: "No vamos a llegar a esto ni
borrachos".
Suscribirse a:
Enviar comentarios (Atom)
No hay comentarios:
Publicar un comentario