Christof Heyns, relator especial de Naciones Unidas sobre ejecuciones extrajudiciales, sumarias y arbitrarias y catedrático de Derecho Internacional de los Derechos Humanos de la Universidad de Pretoria.
Como experto que trabaja en Naciones Unidas, Christof Heyns ha manifestado muchas veces su preocupación por el creciente número de ataques con drones en países como Pakistán, Somalia o Yemen, y ha alertado sobre el peligro que la proliferación de estas aeronaves supone para la seguridad internacional y la protección de la vida. En esta entrevista habla de los retos que representan los aviones no tripulados y de la necesidad urgente de detener la proliferación de los «robots asesinos» con vistas a proteger el orden mundial.
¿Cómo experto en derecho internacional, considera que el uso de los drones puede ser compatible con el derecho internacional humanitario?
No creo que los drones sean armas inherentemente ilegales. Se están utilizando en Afganistán en el contexto de un conflicto armado y, en este caso concreto, no veo una gran diferencia entre alguien a bordo de un avión que pulse un botón a 5.000 metros de altitud y alguien que pulse el botón desde tierra con una pantalla que muestra claramente el objetivo. Sin embargo, la utilización de estos aviones genera muchas dudas y eso es lo que hay que estudiar.
En sus últimos informes, usted ha declarado que «un mundo en que diversos estados utilizan drones armados en secreto es un mundo menos seguro» y ha pedido más transparencia a los estados. ¿Qué medidas hay que adoptar para lograrlo?
Actualmente en los Estados Unidos hay un anteproyecto de ley en el que se prevé publicar el número de víctimas civiles causadas por un ataque con drones, lo cual ya es un primer paso. Lo ideal sería que se revelaran las identidades, no sólo el número. Se necesita mayor transparencia sobre los hechos, sobre la legislación relativa a los aviones no tripulados y sobre quien es exactamente el objetivo potencial. Por ejemplo, está la cuestión de los miembros de grupos armados organizados: ¿Quién puede ser un objetivo? ¿Cualquier miembro de un grupo armado o sólo algunos? También se requiere claridad sobre las políticas que determinan en qué casos se utilizan los aviones no tripulados y que normativas rigen este tipo de armamento. Son los tres ámbitos en los que intento alcanzar una mayor transparencia y visibilidad.
¿Con respecto a los grupos armados no estatales, es posible que pudieran conseguir este tipo de armas?
Enviar un dron a un remoto rincón del planeta requiere de un sistema avanzado de telecomunicaciones, a menudo fuera del alcance incluso de actores estatales. Probablemente estos grupos sólo los podrían utilizar con un corto radio de acción. El peligro, por tanto, estaría en que los pirateen y así caigan en manos de actores no estatales.
Necesitamos más transparencia sobre los hechos, sobre la legislación relativa a los drones y sobre quien es exactamente el objetivo potencial
¿Para afrontar estos retos (drones, robots asesinos…), considera que la comunidad internacional y la opinión pública tendrían que tener un papel más relevante?
Hace falta que la comunidad internacional se pronuncie sobre los robots. De hecho en la Asamblea General de las Naciones Unidas ya se está produciendo. Debates como el mantenido hace unos meses en Nueva York con 193 países, en el que se expresaban sobre diversas cuestiones son importantes, también la declaración de la Unión Europea en que defendía que se utilizara el sistema jurídico internacional establecido, que no se relajaran las normas y que hubiera transparencia. La Convención sobre Ciertas Armas Convencionales (CCAC) también está estudiando el asunto, y se ha solicitado al Secretario General de la ONU que inicie un proceso.
En un informe del año 2010, el relator especial Philip Alston ya expresó su preocupación por el uso de drones para efectuar asesinatos selectivos y ya manifestó que era urgente estudiar las implicaciones de las armas totalmente automáticas. ¿Existe el riesgo de que actuemos demasiado tarde?
No creo que sea demasiado tarde. En cierta manera es inusual abordar con antelación los problemas con los sistemas de armamento. Normalmente se incide en estos problemas una vez ya se ha utilizado un sistema, aunque creo que si se utilizan los robots será muy difícil deshacerse de ellos. Creo que es una cuestión urgente, pero que todavía no es demasiado tarde. Los principales estados que disponen de esta tecnología son conscientes de que, como mínimo, suscita preocupación. Tenemos posibilidades de actuar, pero de aquí a unos cuantos meses probablemente ya no tendremos.
En su informe, usted ha propuesto una moratoria sobre los robots. ¿Sería un primer paso hacia una futura prohibición?
Sobre la moratoria, lo que es importante señalar, es que es una situación temporal sobre un elemento o un procedimiento que, en la práctica, no se ha utilizado. La comunidad internacional comprende bastante bien que hay que prohibir estos robots; mi propuesta consiste en no utilizarlos de momento. Eso podría conducir a una prohibición o a una legislación más restrictiva o, potencialmente, podría hacer que la comunidad internacional decidiera que acepta los robots. No creo que esta última opción sea realista, preveo más una prohibición o algún tipo de regulación.
El hecho de si es aceptable que las máquinas puedan decidir sobre la vida y la muerte de los seres humanos es preocupante. Y la rendición de cuentas también. ¿Cómo se puede regular una situación si no sabemos quién es el responsable último?
¿Es posible imponer una moratoria para la investigación sobre ellos?
Es imposible. La tecnología utilizada en estos robots es la misma que la del coche de Google y que la de muchas otras aplicaciones. Lo que yo pido es una moratoria sobre la producción, el uso y el desarrollo de estas armas; y también sobre las plataformas de armamento, porque estos robots simplemente llevan otras armas. Sólo pido una moratoria nacional, de manera que los estados mismos declaren que no utilizarán estas máquinas. Es difícil supervisarlo desde el marco internacional; mi argumento principal es que por ahora no sabemos bastante de las implicaciones de estas armas, de manera que de momento los estados tendrían que comprometerse a no utilizarlas.
¿Cuáles son las principales preocupaciones que suscita el uso de los robots asesinos?
En primer lugar, está la duda de si verdaderamente es aceptable que las máquinas puedan decidir sobre la vida y la muerte de los seres humanos. Aunque pudieran cumplir al 100% el derecho internacional, hay un problema de dignidad humana, sobre el hecho de que nos puedan matar unas máquinas. La segunda fuente de preocupación es la rendición de cuentas. ¿Incluso si en la teoría estos robots pueden cumplir el derecho internacional humanitario, cómo se puede regular la situación si no sabemos quién es el responsable último? ¿La persona que desarrolla el software, los políticos, el comandante…? Estas máquinas habrán sido programadas con años de antelación antes de que ni siquiera haya una guerra; ¿se puede juzgar por crímenes de guerra a quien las haya programado? Hay mucha incertidumbre sobre la rendición de cuentas y no se puede controlar la aplicación del derecho internacional humanitario si no sabemos a quién podemos atribuir la responsabilidad.
Esta cuestión se ha debatido en la Convención sobre Ciertas Armas Convencionales (CCAC), a demanda de algunos países. ¿Considera que el hecho de no avanzar suficiente nos podría conducir a un proceso por la vía rápida, como el proceso de Oslo que logró prohibir las bombas de dispersión?
Mucha gente se muestra crítica con la CCAC, porque abordaba muchos tipos de armamento, como las bombas de dispersión o las minas antipersona, para las cuales finalmente se encontraron soluciones en otros marcos. A veces se critica la CCAC por no haber conseguido resultados concretos en los últimos años, pero parece que ahora tiene un nuevo impulso; el grupo de los estados partes está presidido por un francés (Jean-Hugues Simon-Michel) con quien me he reunido, y también se han comprometido a utilizar los procedimientos de la CCAC. Y hay razones para ser cautamente optimistas sobre su capacidad para avanzar en la agenda.
Parece que en el ámbito internacional hay un impulso favorable al desarme humanitario. ¿Sin duda, es positivo, sin embargo, podría tener una vertiente negativa? ¿Hay demasiadas cuestiones que compiten para adquirir relevancia pública en la agenda?
Corremos el peligro de que se centre la atención únicamente sobre los robots autónomos mientras se desarrolla una nueva tecnología. No creo que sea negativo que se preste atención a diversas tecnologías, pero también creo que hay que ser realista. Tenemos que pensar como regular el uso de los drones y, en este caso, la cuestión no gira en torno a sí prohibirlos o no. En cambio, el tema de los robots es diferente; aquí sí que habría que canalizar nuestras energías hacia la pregunta de si prohibirlos o no. Por otra parte, se están desarrollando nuevos tipos de tecnología biológica y nanotecnología. Hay que centrar esfuerzos, de manera que pienso que es positivo que se amplíen los focos de atención.
¿Cómo imagina que serán los conflictos armados en el futuro?
No hay duda que nos estamos alejando de las guerras interestatales. Los conflictos son mayoritariamente no internacionales, entre estados y actores no estatales, y la guerra se convierte en asunto más complejo. Los estados que dispongan de una determinada tecnología tendrán más incentivos para emplearlos, también por eso me preocupa la autonomía, porque puede que un día llegue demasiado lejos, sobrepase los límites y se convierta en algo que deshumanice la idea misma de humanidad. Considero que los estados que dispongan de la tecnología cada vez la utilizarán más, y eso es preocupante. Tienen incentivos significativos, especialmente en el caso de los sistemas no tripulados, porque se aseguran no tener bajas entre sus tropas.
Probablemente, como usted afirma en su informe, habrá más conflictos, en el sentido que los actores tendrán menos que perder.
Sí, y eso me preocupa. La guerra suele responder a un esquema temporal determinado. Normalmente hay un momento para la guerra, seguido de un periodo de paz; se acaba la guerra y llega el tiempo de la recuperación y la reconstrucción. Sin embargo, si los estados tienen acceso a una tecnología que puedan utilizar para atacar específicamente un objetivo concreto y un estado determinado, se puede generalizar cada vez más un tipo de conflicto de menor intensidad en que un estado puede atacar a sus enemigos en muchos estados diferentes al mismo tiempo. Eso representaría que el ritmo establecido entre la guerra y la paz se desvanecería y que reinaría un conflicto armado continuado de baja intensidad.
© Generalitat de Catalunya