Page 137

REVISTA IEEE 2

137 Cesáreo Gutiérrez Espada y María José Cervell Hortal Sistemas de armas autónomas, drones y derecho internacional a respetar las normas del DIH22, otros especialistas no están seguros de que esto sea posible. En particular, consideran estos últimos que existen factores que pueden impedir o dificultar extraordinariamente que los Sistemas de Armas Autónomas acaten tanto las normas del DIH relativas a la distinción entre objetivos lícitos según este ordenamiento jurídico y aquellos que no lo son (A) como las que exigen el principio de proporcionalidad (B). Las primeras, como es sabido, buscan proteger a la población civil de ataques indiscriminados, mientras las segundas exigen una evaluación previa del daño que puede causarse a la población no combatiente o protegida, respecto de la ventaja militar que el ataque pretenda conseguir. A) En relación con el principio de distinción se ha dicho que, a causa de la falta de idoneidad tecnológica de los sensores existentes en la actualidad, la incapacidad para comprender el contexto y la dificultad de aplicar en la práctica (mediante un programa informático) el estatuto del no combatiente, o la incapacidad para interpretar intenciones y emociones, sería muy difícil para un robot autónomo cumplir las exigencias del DIH sobre el mismo; y no digamos para identificar, en supuestos de conflictos asimétricos, quién es -y quién no- un combatiente23. Particularmente rotundo se manifiesta Noel E. Sharkey profesor de Inteligencia Artificial y Robótica de la Universidad de Sheffield (Reino Unido). Para este experto británico, los robots que hoy existen carecen de los principales elementos exigibles para asegurar el cumplimiento del principio de distinción: • No tienen los sensores adecuados, ni sistemas de visión, para distinguir combatientes de civiles, en particular en los conflictos asimétricos o asimilados, ni para reconocer combatientes heridos, que se han rendido o se hallan mentalmente en una situación a la que es aplicable el principio de distinción. • No es posible, por la vaguedad de las definiciones jurídicas (como la de “civiles” o conceptos necesarios como “sentido” común), de los Convenios de Ginebra 22  MARCHANT, Gary; ALLENBY, Braden; ARKIN,Ronald; BARRERTT, Edward T.; BORENSTEIN, Jason; GAUDET, Lyn M.; KITTRIE, Orde; LIN, Patrick; LUCAS, George R.; O’MEARA, Richard; SILBERMAN, Jared: “International governance...” cit., p. 280; SINGER, Peter Warren: Wired for War... cit., p. 398; ARKIN, Ronald: Governing lethal behaviour... cit., p. 127. 23  Vid. ad ex. SHARKEY, Noel E.: “Grounds for discrimination: Autonomous Robot Weapons”, RUSI Defence Systems October 2008, pp. 86-89, pp. 88-89 (http://www.rusi.org/down-loads/ assets/23sharkey.pdf; consultado el lunes 9 de septiembre de 2013); ASARO, Peter: “On banning Autonomous Weapons Systems: Human rights, automation and the dehumanisation of lethal decision-making”, International Review of the Red Cross, 94 (2012), núm. 886, pp. 687-709, pp. 696 ss.; DINSTEIN, Yoram: “The principle of distinction and cyber war in International Armed Conflicts”, Journal of Conflict and Security Law, 17 (2012), num. 2, pp. 261-277 y HUMAN RIGHTS WATCH: Losing humanity... cit., p. 31.


REVISTA IEEE 2
To see the actual publication please follow the link above