3 de agosto de 2015

Cuando los robots tomen el mando y hagan la guerra

Cuando los robots tomen el mando y hagan la guerra

La carta firmada y presentada en Buenos Aires por Stephen Hawking y varios cerebros de la inteligencia artificial, es una señal nítida de la gran preocupación que el asunto suscita entre la élite científica

  • Enviar a LinkedIn6
  • Enviar a Google +5
La primera reflexión abarcadora sobre la coexistencia entre los robots y los humanos no fue obra de un científico de la computación ni de un filósofo ético, sino de un novelista. Isaac Asimov formuló las tres “leyes de la robótica” que deberían incorporarse en la programación de cualquier autómata lo bastante avanzado como para suponer un peligro: “No dañar a los humanos, obedecerles salvo conflicto con lo anterior y autoprotegerse salvo conflicto con todo lo anterior”. Las tres leyes de Asimov configuran una propuesta sólida y autoconsistente, y cuentan con apoyo entre la comunidad de la inteligencia artificial, que reconoce, por ejemplo, que cualquier sistema autónomo funcional debe ser capaz de autoprotegerse.
Pero es muy probable que Asimov pecara de ingenuo. Basta eliminar la primera ley (y los “salvo conflicto con lo anterior”) para convertir a un robot en un carnicero implacable y brutal, un asesino de acero y silicio ideal para asesinar al líder inconveniente, fumigar a la etnia defectuosa, subyugar a la población inoportuna. Y no estamos hablando de 2050, sino de un par de años o tres, la clase de plazo de la que siempre se olvidan los escritores de ciencia ficción. Los mismos sistemas inteligentes que llevan últimamente los coches, unidos a un sistema artificial de aprendizaje táctico, como el que ya ha desarrollado Google DeepMind, para fabricar un enjambre de robots que rastree una ciudad hasta el último rincón de la última habitación y elimine a todo lo que interprete como un enemigo. De forma autónoma, sin ningún control humano. Son los propios robots quienes seleccionan sus objetivos: quienes deciden a quién asesinar y lo asesinan.
Lo más fácil es empezar a hacer chistes sobre esto, y las redes sociales y los humoristas de la tele nos abrumarán con ellos durante meses y años por venir, pero el asunto tiene muy poca gracia. La carta firmada por mil científicos contra los robots militares autónomos, presentada la semana pasada en Buenos Aires por Stephen Hawking y varios cerebros de la inteligencia artificial, es una señal nítida de la gran preocupación que el asunto suscita entre la élite científica. Algunos de ellos lo han calificado como “la tercera revolución en el arte de la guerra, tras la pólvora y la bomba atómica”. Y recordemos que los chistes sobre la bomba atómica se acabaron en 1945.
Los promotores de la iniciativa aseguran que esta actitud de precaución se está extendiendo de forma eficaz entre los científicos de la computación y la robótica. Como ya les pasó a los físicos nucleares tras la II Guerra Mundial, y a los biólogos moleculares en los años setenta, los robóticos se han dado cuenta de que las inmensas posibilidades de su ciencia abren unos no menos enormes caminos para la guerra, el terrorismo y la destrucción.
Y creen estar a tiempo de pararlo. Siempre hay que creer en algo.
  • Enviar a LinkedIn6

No hay comentarios: