El conflicto ético que plantean las 'armas-robots'
Parece que se acercara la era de la Guerra de las Galaxias con los últimos desarrollos belicos en la aeronáutica y la robótica. Ya se escucha la prática de los drones, o aviones no tripulados, e incluso sistemas de misiles que dicen poder identificar y atacar objetivos automáticamente.
De acuerdo a un reportaje difundido por la BBC Mundo, estas invenciones cambiarían completamente la concepción del combate bélico como le conocemos actualmente.
En el Instituto de Tecnología de Georgia, Atlanta, el profesor Henrik Christensen y su equipo trabajan en un proyecto financiado por la compañía de defensa BAE Systems que busca la creación de vehículos no tripulados programados para identificar escondites enemigos, lo que permitiría que los soldados humanos obtengan información vital a una distancia segura.
El proyecto parece tener buenas intenciones, enfocándose en el objetivo de reconocimiento y obtención de información. Sin embargo, la literatura científica ha planteado la posibilidad de robots armados, programados para atacar objetivos enemigos que aparezcan en el campo de batalla.
No obstante, más allá de los cambios en el escenario de batalla que plantean estas tecnologías, existen las preocupaciones éticas inherentes a la misma.
Jody Williams, la estadounidense ganadora del Premio Nobel de la Paz en 1997 por su trabajo al frente de la campaña para prohibir las minas terrestres antipersonales, insiste que los sistemas autónomos que se desarrollan actualmente, en su debido tiempo podrán liberar una fuerza letal.
Williams destaca que hay que abandonar el uso de palabras sin valor moral 'sistemas de armas autónomas'.
'Preferimos llamarlos robots asesinos', dice, definiéndolos como 'armas que son letales, armas que pueden matar por su propia cuenta, y en las que no habría ningún ser humano involucrado en el proceso de toma de decisión. Cuando supe de esto por primera vez, honestamente me sentí horrorizada', afirma.
Pero el profesor Ronald Arkin, del Instituto de Tecnología de Georgia, tiene una opinión diferente. El cinetífico propone el concepto de un sistema de armas controlado por un 'gobernador moral'.
Esto no contempla a ningún ser humano tirando físicamente del gatillo, pero estaría programado para cumplir con las leyes internacionales de la guerra y las normas de combate.
La respuesta de Arkin es simple: 'Hay que usar la tecnología para reducir de las bajas de no combatientes en el campo de batalla'.
De todas formas, la posibilidad de una tecnología armamentística totalmente autónoma, sin participación de humanos, todavía está un poco lejos.
Jody Williams, sin embargo, no espera que llegue ese momento. La ganadora del Premio Nobel planea lanzar una campaña internacional para que se declare ilegal la investigación de armas robóticas.
'Si se les permite continuar con la investigación, el desarrollo y, finalmente, su uso, la guerra cambiará para siempre de una forma absolutamente aterradora', declaró Williams.