A lo largo de la historia de la guerra hemos presenciado el nacimiento de muchas armas y tecnologías que cambiaban las reglas del juego. Desde la espada en la Edad Media hasta las armas de fuego en el Renacimiento, desde los aviones y los tanques de la Primera Guerra Mundial hasta el armamento nuclear. En épocas más recientes, los sistemas por control remoto (aviones no tripulados o, en inglés, drones) han empezado a formar parte de los arsenales actuales. Podríamos pensar que ya lo hemos visto todo, pero durante la última década la tecnología, especialmente en el campo de la informática y la electrónica, ha avanzado cada vez más, lo cual ha desembocado en esfuerzos por desarrollar armas totalmente autónomas, los llamados robots asesinos. Mientras que los aviones no tripulados todavía son dirigidos por un ser humano, los robots asesinos buscarían y atacarían objetivos sin necesidad de ninguna intervención humana significativa. Eso quiere decir que las decisiones sobre la vida y la muerte ya no las tomarían los seres humanos, sino unas máquinas. Es una tecnología que cambia las reglas del juego, que no sólo no cambiará cómo se hace la guerra, sino que también, por primera vez en la historia, cambiará la identidad misma de la guerra en el sentido de quién lucha.
Como en el caso de otras tecnologías militares revolucionarias, no se sabe gran cosa de los riesgos potenciales que estas armas robóticas plantean para los humanos. El armamento nuclear y los drones ya habían generado mucho debate, pero sólo después de haber sido desarrollados y utilizados. Aunque algunos precursores de los robots asesinos (mayoritariamente armas defensivas autónomas de base fija) ya están en funcionamiento, el debate sobre los riesgos potenciales de este armamento todavía se encuentra en una fase preliminar. En mayo de 2011 IKV Pax Christi publicó un informe sobre los drones en que también incidía en la cuestión del armamento totalmente automático. 1 En noviembre de 2012 Human Rights Watch y la Facultad de Derecho de Harvard publicaron el informe “Losing Humanity”, que alimentaba el debate mundial. 2 Pocas semanas después de la publicación de este informe, el Departamento de Defensa de los Estados Unidos publicó una directiva sobre los sistemas autónomos de armamento. 3 Aunque la directiva establecía que las armas autónomas sólo se utilizarían para ejercer una fuerza no letal, no descarta totalmente el desarrollo y el uso de armamento autónomo en el futuro.
Campaña para Detener los Robots Asesinos
En una reunión en Nueva York en octubre de 2011, muchas ONG reconocieron el problema planteado por las armas totalmente autónomas y expresaron los problemas que veían. En consecuencia, decidieron colaborar para poner en marcha una campaña internacional para detener el desarrollo, la producción y la utilización de armas totalmente autónomas. En abril de 2013, la coalición internacional de ONG lanzó oficialmente la Campaña para Detener los Robots Asesinos en Londres. En mayo del mismo año, el relator especial de las Naciones Unidas Christof Heyns presentó su informe sobre los robots autónomos letales (RAL) en el Consejo de los Derechos Humanos de Ginebra. 4 La Campaña hace un llamamiento todos los estados a implementar las recomendaciones de este informe y a establecer conversaciones sobre la cuestión en los ámbitos nacional e internacional. En consecuencia, un gran número de países ya se ha manifestado en la Comisión de los Derechos Humanos de Ginebra y en la Primera Comisión de las Naciones Unidas en Nueva York, pero también se han iniciado debates en foros nacionales. 5 En términos generales, todos los estados reconocen los problemas urgentes que se plantean y todos los estados parecen abiertos a más negociaciones.
Estas armas plantean preguntas éticas, morales y legales. ¿Queremos delegar a las máquinas el poder para decidir sobre la vida y la muerte?
Objeciones y preocupaciones
Los defensores de los robots asesinos suelen recalcar que si desplegamos armamento totalmente autónomo ahorraremos vidas de militares y reduciremos la mano de obra humana necesaria para manejar los sistemas y, por lo tanto, se reducirán costes. Parece que los partidarios de estas armas se centran principalmente en la ventaja militar que se prevé, de manera que no son conscientes de los peligros de este arma para los civiles. Sin embargo, consideramos que estas armas plantean diversas preguntas éticas, morales y legales. Principalmente, creemos que habría que hacerse una pregunta ética: ¿queremos delegar en las máquinas el poder para decidir sobre la vida y la muerte? El relator especial de las Naciones Unidas Christof Heyns establece la urgencia de esta pregunta en su informe sobre los RAL:
«Incluso aceptando que los robots autónomos letales -especialmente cuando funcionan acompañados de seres humanos- puedan cumplir las exigencias del derecho internacional humanitario, y se pueda demostrar que, por término medio y en conjunto, salvarán vidas, se plantea el interrogante de si es o no intrínsecamente erróneo dejar que máquinas autónomas decidan a quién matar y cuándo hacerlo. […] Si la respuesta es negativa, ninguna otra consideración puede justificar el despliegue de robots autónomos letales, independientemente del nivel de competencia técnica en el que funcionan.» 6
Según la Campaña para Detener los Robots Asesinos, en la línea de mando siempre tendría que haber un humano que ejerza un control significativo sobre la decisión de hacer uso de la fuerza contra un objetivo humano. Sin ello, parece que no sería suficiente para garantizar que alguien tenga que rendir cuentas por las violaciones del derecho internacional perpetradas por el robot. No tendría que sorprendernos que generalmente se perciba a los robots asesinos como algo inherentemente detestable. Como señala Peter Singer, politólogo y uno de los principales expertos mundiales en los cambios en la guerra en el siglo XXI, «[La guerra] consiste en padecimiento humano, en la pérdida de vidas humanas y en consecuencias para los seres humanos». 7 Por lo tanto, matar con máquinas es el paso definitivo que desprovee la guerra de moral. Incluso en el infierno de la guerra se puede encontrar humanidad, y hace falta que la sigamos encontrando. 8
Cuestiones éticas aparte, también hay preguntas legales que reclaman un debate urgente. Para proteger a los civiles en los conflictos armados, habrá que programar a los robots asesinos para actuar de acuerdo con el derecho internacional humanitario (DIH) y el derecho internacional de los derechos humanos (DIDH). Más concretamente, hace falta que el armamento totalmente autónomo sea capaz, como mínimo, de discriminar entre civiles y combatientes y de ponderar los daños contra personas y objetos civiles en relación con los beneficios militares esperados. Estas normas se llaman principio de la distinción y principio de la proporcionalidad, y es necesario que se evalúen caso por caso y en todas las situaciones. 9
Aunque algunos defensores de estas armas, como Ronald Arkin, experto en robótica y catedrático en el Georgia Institute of Technology, sostienen que en los próximos 20 años las máquinas pueden alcanzar una capacidad de discriminación tan buena como la de los humanos, está más generalizada la opinión que será muy improbable que los robots se puedan diseñar de manera que puedan cumplir con el DIH y el DIDH igual que pueden hacerlo los humanos. Sin embargo, estos principios requieren un enfoque caso por caso y un análisis complejo y en profundidad del contexto, los motivos y la intención de los actores. Estos principios, y especialmente el de proporcionalidad, son considerados las normas del derecho internacional más difíciles de entender y de aplicar; especialmente en las guerras actuales, en que cada vez es más difícil discriminar entre civiles y combatientes. Por consiguiente, es difícil imaginar cómo se puede desarrollar una codificación de software que limite con eficacia el comportamiento del robot. Según el Comité Internacional de la Cruz Roja, desarrollar un sistema de armas autónomas que pueda aplicar el DIH representa un desafío de programación colosal que puede muy bien resultar inalcanzable. 10 Por eso Noel Sharkey, catedrático de Inteligencia Artificial y Robótica en la Universidad de Sheffield y cofundador del Comité Internacional para el Control de las Armas Robóticas (ICRAC, por sus siglas en inglés), subraya que «Son los humanos, no las máquinas, los que concibieron las leyes de la guerra, y son los humanos, no las máquinas, los que las entenderán y entenderán la lógica de su aplicación». 11
Hay que debatir sobre los robots asesinos para que la comunidad internacional pueda legislar para evitar que estas armas causen un grave sufrimiento humanitario
El despliegue de estos aparatos no sólo podría causar un gran sufrimiento en términos humanitarios, sino que en las etapas preliminares de la guerra es probable que tuvieran efectos profundos sobre la toma de decisiones. Los robots asesinos facilitarán la decisión de los dirigentes de ir a la guerra. Por una parte, los robots asesinos podrían salvar muchas vidas de militares, pero, por otra parte, al hacerlo aumentarían la distancia entre la población y la guerra porque ya no habría seres amados que volvieran del campo de batalla dentro de una bolsa para cadáveres. Puede parecer cruel, pero las bolsas para cadáveres tienen un papel vital en la guerra. Son un factor inhibidor de una importancia máxima, porque pueden hacer que los políticos pierdan votos. El despliegue de los robots asesinos convertiría la población en un observador pasivo, de manera que otorgaría a los políticos más discrecionalidad para decidir cuándo y cómo ir a la guerra, lo cual, a su vez, comportaría un incremento en la duración y en la cantidad de los conflictos en todo el planeta.
Conclusiones
Las ventajas de los robots asesinos pueden parecer bastante lógicas y claras. Los robots asesinos ahorran vidas de militares, pueden resultar más baratos y no matan por venganza o por un ataque de furia. Sin embargo, llevada al extremo, la falta de emociones en la guerra es peligrosa de forma extrema y el bajo coste de estos robots incentiva su proliferación mundial. En algún momento, estas armas también combatirán entre sí, y con la amplia variedad de algoritmos desconocidos, las consecuencias serán impredecibles y devastadoras. En este documento les hemos presentado una breve panorámica de algunos de los peligros que estas armas pueden implicar. Cabe remarcar que esta lista no es exhaustiva y que sólo tiene el propósito que el lector se pueda hacer una idea del problema. No obstante, el mensaje está claro: hay que debatir sobre los robots asesinos para que la comunidad internacional pueda desarrollar una legislación para evitar que este armamento cause un sufrimiento grave en términos humanitarios. Afortunadamente, sólo siete meses después del lanzamiento de la Campaña, la Convención sobre Ciertas Armas Convencionales adoptó un mandato para debatir sobre cuestiones relacionadas con los «sistemas de armamento autónomos letales». Los debates sobre estos sistemas de armamento, también conocidos como armas totalmente autónomas o robots asesinos, se celebrarán en mayo de 2014. Los robots asesinos están en la agenda y no saldrán hasta que estén prohibidos.
1. IKV Pax Christi, Cor Oudes i Wim Zwijnenburg, Does Unmanned Make Unacceptable?, 2011.
2. Human Rights Watch i Harvard Law School International Human Rights Clinic, Losing Humanity – the Case Against Killer Robots, 2012.
3. “Directive 3000.09”, consultada el 9 de diciembre de 2013. Disponible aquí.
4. Para más información sobre el informe las recomendaciones de Heyns, véase: «Repuerto of the Special Rapporteur donde extrajudicial summary oro arbitrary executions, Christof Heyns», disponible aquí, consultado el 9 de diciembre de, 2013
5. Desde que este tema empezó a debatirse en el Consejo de Derechos Humanos el 30 de mayo de 2013, un total de 44 países se han pronunciado públicamente sobre las armas totalmente automáticas. Véase el enlace.
6. «Informe del relator especial sobre ejecuciones sumarias o arbitrarias, Christof Heyns.»
7. Peter W. Singer, “Interview with Peter W. Singer”, International Review of the Red Cross 94, 886 (2012), p. 476.
8. IKV Pax Christi publicará otro informe sobre las ocho preocupaciones más urgentes suscitadas por el desarrollo, la producción y la utilización potencial de los robots asesinos. Véase Merel Ekelhof y Miriam Struyk, Outsourcing Morality: 8 objections against killer robots, que se publicará en enero de 2014.
9. Según los artículos 48, 51 y 52 del Protocolo Adicional I de las Convenciones de Ginebra, todas las partes en un conflicto tendrán que distinguir en todo momento entre civiles y combatientes, así como entre objetos civiles y objetivos militares, de manera que, en consecuencia, sólo dirijan sus operaciones contra objetivos militares. El principio de proporcionalidad es codificado en el artículo 51.5.b del Protocolo Adicional I y se repite en el artículo 57, y básicamente significa que los daños contra personas y objetos civiles no pueden ser excesivos en relación con los progresos militares esperados.
10. “International Humanitarian Law and the challenges of contemporary armed conflicts.” Comité Internacional de la Cruz Roja, consultado el 9 de diciembre de 2013, p. 40. Disponible aquí.
11. Noel Sharkey, “The Evitability of Autonomous Robot Warfare”. International Review of the Red Cross 94, 886 (2012), p. 796.
Fotografía: US Air Force. Modificada. Link a la licencia.
© Generalitat de Catalunya