Los investigadores de AI presionan a sus gobiernos para que prohíban la creación de "robots asesinos"

noviembre 07, 2017

Drones

Uno de los grandes temores alrededor de la inteligencia artificial es la de que se acabe utilizando con fines bélicos para crear «robots asesinos». Ahora, varios investigadores de Australia y Canadá en este campo le están pidiendo a los presidentes de sus países una «posición global firme» contra el armamentismo de la IA.

Lo han hecho mediante una carta abierta firmada por decenas de expertos en robótica e Inteligencia Artificial, y que están directamente dirigidas a los presidentes Malcolm Turnbull y Justin Trudeau. Se les urge a trabajar con otros países para crear un acuerdo internacional que prohíba los sistemas automáticos letales, tal y como ya se hizo en los setenta con las armas nucleares.

Esta carta abierta se une a la ya publicada en agosto y firmada por decenas de empresarios de primer nivel en el sector tecnológico, incluyendo por ejemplo a Elon Musk, y la petición a través de todas ellas suma ya más de 300 firmas de expertos. La idea de todas estas iniciativas es la misma, la de legislar antes de que sea demasiado tarde y los sistemas automatizados sin control humano crucen las líneas morales.

«Los sistemas de armas autónomas amenazan convertirse en la tercera revolución en la guerra»

«De esta manera, nuestro gobierno puede reclamar su posición de liderazgo moral en el escenario mundial como se demostró anteriormente en otras áreas como la no proliferación de armas nucleares», se lee en la carta. «Como muchas corporaciones de IA y robótica han instado recientemente, los sistemas de armas autónomas amenazan convertirse en la tercera revolución en la guerra. Si se desarrollan, permitirán que el conflicto armado se dispute a una escala mayor que nunca, y en escalas de tiempo más rápidas de lo que los humanos puedan comprender.»

En la carta también se explica que la consecuencia del desarrollo de estas tecnologías supondría que serían las máquinas y no los humanos quienes decidiesen quien vive y quién muere. Esto es algo que las comunidades de Inteligencia Artificial de Australia y Canadá no aprueban, ya que dicen preferir desarrollar estas tecnologías en busca de beneficios para la humanidad.

Esta última carta abierta ha sido publicada a pocos días de una conferencia de las Naciones Unidas sobre la Convención sobre Ciertas Armas Convencionales (CCW), que se celebrará la semana que viene para intentar restringir o prohibir tipos específicos de armas que son indiscriminadas en su fuerza o causan lesiones excesivas.

Intentando evitar un ‘Terminator’

Naciones Unidas lleva desde diciembre del año pasado intentando abrir el debate para evitar la creación de armas con inteligencia artificial. En principio, esta conferencia debería haberse celebrado en agosto, pero fue aplazada hasta el próximo 14 de noviembre por falta de financiación. Ahora, a una semana de su celebración la comunidad de desarrolladores de este tipo de tecnologías vuelve a movilizarse para presionar a los gobiernos.

Sin embargo este preocupación viene desde lejos. Celebridades como Elon Musk y organizaciones como Human Rights Watch llevan tiempo advirtiendo sobre los caminos que se podría tomar con la Inteligencia Artificial, tratando de que se prevenga su uso para fines bélicos, ya que correríamos el peligro de que se nos acabe yendo de las manos.

Desde otras empresas como Google no se cree que el problema esté tanto en que las máquinas puedan ser inteligentes, sino más bien en que tomen decisiones erróneas porque no les ofrecemos todos los datos que necesitan para tomar las correctas. Así pues, lo que habría que cuidar según el jefe de la división de Inteligencia Artificial de Google son los propios algoritmos.

Sin embargo, el de los fines bélicos es sólo uno de los muchos debates que se están creando en torno a la toma de decisiones por parte de los sistemas automatizados. Hay que recordar, por ejemplo, que todavía se está buscando una solución para que los sistemas de conducción autónoma sean capaces de tomar decisiones éticas en el caso de que ante un accidente inminente tengan que decidir a quién atropellar.

Imagen | U.S. Department of Defense
En Xataka | El MIT y la CMU creen tener la solución sobre a quién debe atropellar un coche autónomo en caso de duda

También te recomendamos


Apple Music no supera a Spotify pero tiene un objetivo claro: ganar


Elon Musk, el CEO de DeepMind y hasta 116 expertos en IA piden a la ONU prohibir las armas autónomas


Este aterrador robot ruso sabe conducir, disparar y cualquier parecido con Terminator es mera coincidencia


La noticia

Los investigadores de AI presionan a sus gobiernos para que prohíban la creación de «robots asesinos»

fue publicada originalmente en

Xataka

por
Yúbal FM

.


Xataka
Enlace: Los investigadores de AI presionan a sus gobiernos para que prohíban la creación de «robots asesinos»

Uso de cookies

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.

ACEPTAR
Aviso de cookies