Portada :: Mundo
Aumentar tamaño del texto Disminuir tamaño del texto Partir el texto en columnas Ver como pdf 23-08-2017

Lderes del mbito tecnolgico firman una carta para pedir la prohibicin de los robots asesinos

La Marea

116 nombres destacados del sector firman el texto redactado por el experto en inteligencia artificial Toby Walsh. Elon Musk, fundador de Tesla, y Mustafa Suleyman, creador del laboratorio de inteligencia artificial de Google, entre los signatarios.


Un centenar de nombres destacados del mundo de la tecnologa, entre ellos Elon Musk, fundador de Tesla, y Mustafa Suleyman, creador del laboratorio de inteligencia artificial de Google, se han sumado a las decenas de organizaciones sociales, movimientos religiosos, comunidades cientficas y activistas que desde hace varios aos piden la prohibicin de las armas autnomas letales, popularmente conocidas como robots asesinos: mquinas capaces de abatir objetivos humanos en el campo de batalla de forma totalmente independiente (sin supervisin humana), a pesar de su incapacidad para distinguir entre objetivos civiles y militares.

En total 116 lderes del mbito tecnolgico de 26 pases firmaron la carta (puede leer una traduccin al castellano al final de este artculo), redactada por el cientfico y experto en inteligencia artificial Toby Walsh, y dirigida a las Naciones Unidas, la organizacin en la que ao tras ao los gobiernos aplazan la prohibicin de esta tecnologa militar. Entre los signatarios hay tres directivos espaoles: Toni Ferrate (RO-BOTICS), Jos Manuel del Ro (Aisoy Robotics) y Victor Martn (Macco Robotics). Sabes cmo aprenden [los robots asesinos], pero no qu van a hacer con el conocimiento adquirido, explic Toby Walsh a La Marea en diciembre, cuando tuvo lugar la ltima cita gubernamental para abordar el futuro de los robots asesinos.

Este lunes los Estados que integran la ONU tenan previsto reunirse en el marco de la Convencin sobre ciertas armas convencionales, la misma que en el pasado impidi, por ejemplo, el desarrollo de las armas lser, y que ahora se encarga de dictaminar el futuro de las armas autnomas letales (LAWS por sus siglas en ingls). Los Estados que participan en esta convocatoria decidieron crear un nuevo grupo de expertos para determinar los pros y contras de esta tecnologa, pero finalmente volvieron a posponer el encuentro de esta semana hasta noviembre. Desde que Naciones Unidas aborda el futuro de los robots asesinos, los gobiernos que participan en la revisin de esta convencin han aplazado una y otra vez su decisin. La ltima vez fue en diciembre de 2016 (La Marea fue el nico medio escrito que cubri la cita).

Los expertos en inteligencia artificial, lderes polticos y religiosos, e incluso premios Nobel de la Paz como Jody Williams advierten sobre los dilemas ticos y legales de permitir que una mquina mate a seres humanos (no es posible determinar el responsable legal de los errores que cometa el aparato), as como el peligro de desplegar armas independientes que, por razones tecnolgicas, estn incapacitadas para distinguir objetivos civiles y militares. Entre sus razones para prohibir el desarrollo de estas armas tambin est la necesidad de impedir que prolifere una nueva carrera armamentstica.

Carta abierta a la Convencin de las Naciones Unidas sobre Ciertas Armas Convencionales:

Nosotros, compaas que construyen la tecnologa en inteligencia artificial y robtica que podra ser reutilizada para desarrollar armas autnomas, nos sentimos particularmente responsables de alzar la voz en este sentido. Recibimos con los brazos abiertos la decisin de la Convencin de las Naciones Unidas sobre Ciertas Armas Convencionales (CCAC) para establecer un Grupo de Expertos Gubernamentales (GEG) sobre Sistemas Armados Autnomos Letales. Muchos de nuestros investigadores e ingenieros estn impacientes por ofrecer asesoramiento tcnico a sus deliberaciones.

Aplaudimos el nombramiento del Embajador Amandeep Singh Gill de India al frente del GGE. Rogamos a las Altas Partes Contratantes del GEG a trabajar intensamente en la bsqueda de medios para prevenir una carrera armamentstica de este tipo de armas, para proteger a los civiles de su uso indebido, y para evitar los efectos desestabilizadores de esta tecnologa. Lamentamos que el primer encuentro del GEG, el cual debera haber empezado hoy (21 de agosto de 2017), haya sido cancelado debido al reducido nmero de estados dispuestos a pagar su contribucin financiera a Naciones Unidas. Por tanto, exhortamos a las Altas Partes Contratantes a duplicar sus esfuerzos durante el primer encuentro del GEG previsto para noviembre.

Las armas autnomas letales amenazan con convertirse en la tercera revolucin armamentstica. Una vez desarrolladas, darn lugar a conflictos armados a una escala nunca antes vista, y a una velocidad superior a la que los humanos nunca podrn alcanzar. Estas pueden ser armas de terror, armas que los dspotas y terroristas usen contra poblaciones inocentes, y armas susceptibles de ser hackeadas para actuar de forma indeseable. No tenemos mucho tiempo para actuar. Una vez que la Caja de Pandora se haya abierto, ser difcil cerrarla. Por tanto, rogamos a las Altas Partes Contratantes que encontren la forma de protegernos de estos peligros.

Fuente: http://www.lamarea.com/2017/08/22/piden-prohibir-robots-asesinos/


Envía esta noticia
Compartir esta noticia: delicious  digg  meneame twitter