Page 138

REVISTA IEEE 2

138 Revista del Instituto Español de Estudios Estratégicos Núm. 2 / 2013 de 1949, y del Protocolo I de 1977 adiccional, relativo a los conflictos armados internacionales, adicional a los Convenios de Ginebra (como la de “civiles” o conceptos necesarios como “sentido común”), trasladar al lenguaje del programa de un computador la esencia del principio de no discriminación. • Y tres, aun dotando en su día a los robots de mecanismos para distinguir civiles de militares combatientes, las máquinas carecen de la capacidad de alcanzar el nivel humano del sentido común indispensable para la correcta aplicación del principio de no discriminación. El profesor Sharkey se declara sumamente escéptico incluso, sobre la posibilidad de que alguna vez sea posible -pese al avance esperado de la tecnología- llegar a este extremo24. B) La evaluación de todas las circunstancias precisas para aplicar correctamente el principio de proporcionalidad no es seguro que pueda ser acometerse por los Sistemas de Armas Autónomas. De hecho, su aplicación reposa en conceptos como la “buena fe” o, antes ya lo comentábamos, el “sentido común”. No es posible saber hoy si este tipo de conceptos pueden ser “asumidos y comprendidos” por los programas informáticos que alimentan a estos Sistemas25. El profesor Sharkey admite que, si bien es posible que los robots puedan ser programados para respetar en cierto sentido el principio de proporcionalidad (en particular el “easy proportionality problem”), o minimizar los daños colaterales eligiendo armas o municiones adecuadas y apropiadamente dirigidas no lo es hoy -ni cree lo sea en el futuro- asegurar su respeto en cuanto al “hard proportionality pro-blem”, es decir: saber cuando el daño a los civiles supera o desborda la ventaja militar que el ataque proporciona; se trata, en este caso, de “decisiones cualita-tivas y subjetivas”, que solo el ser humano puede tomar26 Habida cuenta el tenor literal de los artículos 51.5.b y 57.2 del Protocolo I de 1977 relativo a los conflictos armados, adicional a los Convenios de Ginebra, no es fácilmente imaginable cómo una “máquina” -si se quiere el programa informático que la dirige- puede prever de qué manera atacar o decidir no atacar cuando el daño probable que se cause a civiles sea “excesivo en relación con la ventaja militar concreta y directa 24  “The evitability of autonomous…” cit., pp. 788-789. 25  Vid. ad ex. LIN, Patrick; BEKEY, George y ABNEY, Keith: “Robots in war: issues of risk and ethics”, en Capurro R. y Nagenborg, M. (Edts): Ethics and Robotics, Heidelberg: AKA Verlag, 2009, pp. 49-67, pp. 57-58 (puede consultarse este capítulo también en http://www.digitalcommons.calpoly. edu; consulta del lunes 9 de septiembre de 2013); SHARKEY, Noel E.: “Automated killers and the computing profession”, Computer, 40 (2007), num. 11, pp. 122-124, p. 124 (http://www.computer.org; consulta del lunes 9 de septiembre de 2013); WAGNER, Markus: “The dehumanization of International Humanitarian Law: legal, ethical and political implications of Autonomous Weapon Systems”, pp. 1-60, pp. 28-38 (http://www.robots.law.miami.edu; consulta del lunes 9 de septiembre de 2013). 26  “The evitability of autonomous…” cit., p. 789.


REVISTA IEEE 2
To see the actual publication please follow the link above