27
directamente con el individuo (Amazon,
Google, etc.) y se trata de influenciarlo,
aparecen para la seguridad y defensa
tremendos riesgos y oportunidades,
como son las acciones de guerra híbrida
de las que hemos sido testigos.
El desarrollo de IA en forma de aplicaciones
que permitan hacer frente a
problemas de seguridad y defensa y
aumenten la resiliencia en una sociedad
actualmente saturada de noticias falsas
(fake news) es un campo de interés creciente.
Es interesante la reflexión del estudio
mencionado sobre que nuestras
organizaciones de defensa deberían
empezar a utilizar IA para estimular, no
condicionar, nuestras sociedades de
forma que cuenten con la fuerza interna
suficiente y eviten la necesidad de tener
que recurrir y responsabilizar totalmente
a las Fuerzas Armadas como único
instrumento para su defensa.
El estudio propone un número concreto
de áreas para aplicar la IA a las
organizaciones de Defensa. Es de resaltar
que propone alternativas que
no sean de hardware, o hard power,
sino un cúmulo de desarrollos de autonomía
estática, que mencionábamos
al principio. Muchos de ellos ya
están en fases de desarrollo y experimentación.
Destacan los siguientes:
• Automatizar las denominadas
ciberoperaciones. Ya existen aplicaciones
que reaccionan ante ataques
informáticos, incluidos los
realizados por máquinas. Los sistemas
aprenden de forma automática
y evolucionan para hacer frente
a los nuevos tipos de ataque.
• Targeting algorítmico. Destinado a
identificar con precisión objetivos
depurando la información recibida
de distintas fuentes y evitando también
daños colaterales.
• Conocimiento y comprensión de
la situación. Estos sistemas pueden
incrementar la eficacia de las
unidades operando en entornos
culturales poco familiares, mediante
sintetizadores de voz, lenguaje
natural, reconocimiento facial,
traducción inmediata, detección
de actitud de personas o grupos y
evitando errores provocados por
dichas diferencias culturales.
• Planificación y asignación automática
de personal. Para la mejor asignación
de cometidos, al integrar los
requisitos de puesto con los perfiles
personales.
• Análisis de potenciales objetivos y
análisis de audiencia objetivo. Integrando
un importante volumen
de información no estructurada se
deducen probabilidades de comportamiento
del enemigo, se prevén
vulnerabilidades en las líneas
de abastecimiento y se diseñan
estrategias mitigadoras. Se realizó
una prueba evaluando 2200 incidentes
de combate con el ISIS y
se detectaron objetivos prioritarios
y claras correlaciones entre tácticas
del ISIS, como la realización
de ataques en ciertas zonas para
alejar fuerzas de los objetivos principales.
• Análisis y optimización de los informas
médicos. Ya desarrollado,
el sistema permite deducir los problemas
médicos más probables.
Una variante permite, en combate,
mejorar la evacuación de personal
herido en zonas inseguras proponiendo
la mejor ruta de evacuación
y la instalación sanitaria preferible
como medio de salvar más vidas.
Junto a estos desarrollos, orientados
fundamentalmente al combate, el informe
propone otra serie de «armas»
destinadas a vencer en conflictos de
una forma diferente. Cabe destacar
dos:
• Modelo de prevención de conflictos
P4: predictivo, preventivo,
personalizado y participativo. El
volumen de información actualmente
disponible sobre todas las
personas permite pensar en medios
capaces de afectar a los potenciales
adversarios. Ya existe un
programa de Google que trata de
predecir los deseos de los internautas,
y está logrando bastante
éxito. Sobre esta base, se intenta
conseguir, mediante una combinación
de técnicas de publicidad
y el programa YouTube, acercarse
a potenciales reclutas yihadistas y
lograr disuadirlos de que se unan
al grupo mostrando vídeos reales
que les desacreditan, dada su violencia
extrema y sin sentido. Sin
que sea posible realizar una estadística
fiable de resultados, se ha
podido cuantificar el número de
accesos y la duración de las sesiones,
lo que permite albergar cierto
optimismo.
• Refuerzo de la resiliencia en la sociedad.
Esta área, que se basaría en
modelos similares al mencionado
en el apartado anterior, es mucho
más delicada y exige un profundo
estudio sobre sus implicaciones
morales y legales, pues podría ser
visto como un lavado de cerebro
colectivo. Pero es cierto que la resiliencia
de la sociedad permitió al
Reino Unido mantenerse firme durante
la Segunda Guerra Mundial.
Un modelo que estudiar.
Renunciar al
desarrollo y
empleo de la
robótica y la
inteligencia
artificial puede
ser la mejor vía
para el fracaso de
nuestra misión
En resumen, el presente siglo, con
desarrollos exponenciales tanto en
el campo de la robótica como de la
inteligencia artificial, impulsados en
gran medida por el mundo civil, ofrece
a las Fuerzas Armadas una serie
de retos y oportunidades, tanto para
las propias y las de nuestros aliados
como para las de los potenciales adversarios,
y renunciar a su desarrollo
y empleo por pasividad o temor a lo
desconocido puede ser la mejor vía
para el fracaso de nuestra misión fundamental
de defensa de nuestra sociedad.
Existen suficientes ejemplos
en el pasado como para ignorar la
experiencia de la inacción.
NOTAS
1. Final Report of the Defense Science
Board (DSB). Summer Study on
Autonomy. 10 de junio de 2016.
2. «Artificial Intelligence and the future
of Defenserategic implications
for small – and medium-sized Force
Providers». The Hague Centre
for Strategic Studies (HCSS).■