TEMAS PROFESIONALES
— La confianza. La inteligencia artificial asume riesgos, toma decisiones
y ejecuta en base a un cálculo de probabilidades basado en diferentes
parámetros definidos y establecidos en el diseño, pero que se pueden
ir implementando con el aprendizaje. Pero, ¿quién establecerá los
parámetros mínimos que deban tener todos los modelos de inteligen-cia
artificial aplicada a sistemas autónomos? Se necesita una legisla-ción
comunitaria. Y si no coincide con la decisión que tomaría el
humano, ¿debemos confiar en que esta es la acertada? Para ello se
necesita resolver la opacidad de los modelos de inteligencia artificial
que se trata en el siguiente apartado.
— La transparencia. Otro inconveniente en delegar la toma de decisiones
de alto nivel a las máquinas es la desconfianza por no disponer de una
trazabilidad legible para el usuario. Para superar este inconveniente ya
está en estudio la utilización de la inteligencia artificial explicable
(XAI, por sus siglas en inglés) (5), consistente en un conjunto de
métodos y técnicas utilizadas para que el algoritmo de inteligencia
artificial en producción ofrezca transparencia al usuario de cómo es el
modelo, cómo ha llegado a sus resultados y los posibles sesgos.
Conclusión
Los sistemas con inteligencia artificial débil resultan idóneos a la hora de
reducir el trabajo de los responsables en la toma de decisiones, aportando
mayor capacidad y velocidad de procesamiento de datos de fuentes heterogé-neas
y contribuyendo así a una presentación de resultados más objetiva en los
sistemas C2.
Aun así, actualmente la sustitución humana por máquinas en la toma de
decisiones de alto nivel para la conducción y seguimiento de las fuerzas no se
estima posible a corto plazo por la falta de confianza, transparencia y legisla-ción
de los sistemas autónomos, aunque se está avanzando para paliar esta
desconfianza en la integración de modelos de inteligencia artificial en los siste-mas
autónomos con la introducción de la XAI en los algoritmos e iniciando el
proyecto de una legislación común con la propuesta de la UE.
«Estamos pensando profundamente acerca del uso ético, seguro y legal de
la inteligencia artificial» (6).
(5) MARÍN GARCÍA, Sergio: Ética e inteligencia artificial. Cuadernos de la Cátedra Caixa-
Bank de Responsabilidad Social Corporativa, núm. 42. Septiembre de 2019.
(6) Afirmación del teniente general Jack Shanahan, director del Centro de Inteligencia
Artificial del Departamento de Defensa de Estados Unidos sobre el uso de armamento autóno-mo
(consulta 8 de febrero de 2022).
526 Abril