Page 139

REVISTA IEEE 2

139 Cesáreo Gutiérrez Espada y María José Cervell Hortal Sistemas de armas autónomas, drones y derecho internacional prevista” (artículo 51.5.b)27; en particular, a quienes no somos expertos en robótica ni en inteligencia artificial, nos resulta difícil imaginar cómo una “máquina” puede adap-tarse a la evolución de los acontecimientos sobre el terreno. El programa informático del robot le ordena identificar y destruir los tanques del enemigo; pero, ¿puede este prever que no lo haga si el tanque se ha ubicado a propósito junto a una escuela o una mezquita?). Por todo ello, expertos como Kastan consideran que, sea cual sea el avance tecnológico que pueda producirse, los análisis y evaluaciones pertinentes sobre el principio de proporcionalidad tendrán que dejarse inicialmente a los seres humanos y no a los robots28. Al menos hasta que estas armas no garanticen el cumplimiento de las tres leyes que Isaac Asimov exigiera a sus robots de ficción29. En consecuencia, hoy no puede asegurarse que los llamados robots autónomos letales sean capaces de ajustarse a ciertas normas clave del DIH; pero tampoco que sea imposible, con el avance tecnológico, introducir en los programas informáticos de estos ingenios el “regulador ético” necesario para actuar siempre de conformidad con el DIH o el DIDH. Partiendo de un dato que nos parece inobjetable, relativo a que si los Sistemas de Armas Autónomas no pueden cumplir las exigencias del DIH o del DIDH, deberían prohibirse30, la prudencia más elemental aconseja tomarse las cosas con calma y promover un debate que permita llegar a unos principios básicos en la regulación de estas armas sobre la que volveremos en el apartado 3 de este trabajo. 2.2. Los Sistemas de Armas Autónomas y la asignación de responsabilidad. Si un robot autónomo lleva a cabo un ataque en violación del DIH o del DIDH ¿a quién cabe atribuir la responsabilidad? La conducta implícita en el delito internacional concreto, no es obra de un ser 27  BOE de 26 de julio de 1989. Vid. WAGNER, Marcus: “Beyond the drone debate: autonomy in tomorrow’s battlespace”, Proceedings of the 106 th annual meeting (Confronting complexity) American Society of International Law, 106 (march 2012), pp. 80-84. 28  KASTAN, Benjamin: “Autonomous Weapons Systems: A coming legal ‘singularity’”, Journal of Law, Technology & Policy, 2013, núm. 1, pp. 45-82, pp. 61-62 (copia electrónica puede consultarse en http://ssrn.com/abstract=2037808, consultado el lunes 9 de septiembre de 2013). 29  “Primera Ley: un robot no debe dañar a un ser humano ni, por inacción, permitir que un ser humano sufra daño. Segunda Ley: un robot debe obedecer las órdenes que le son dadas por los seres humanos, excepto cuando estas órdenes entren en conflicto con la primera ley. Tercera Ley: un robot debe proteger su propia existencia hasta donde esta protección no entre en conflicto con la primera o la segunda ley”. 30  En este mismo sentido, el Informe del Relator Especial… Christof Heyns cit., p. 13, párrafo 63.


REVISTA IEEE 2
To see the actual publication please follow the link above