Boletín Técnico de Ingeniería
solucionará con el cambio del sensor, sino que este estará «interiorizado» en las bases de datos del
sistema.
Errores de cálculo interno, puede darse en sistemas con base digital donde los cálculos internos que
den errores de cálculo por redondeos, valores nulos, saturación de variables, pérdidas de datos por
overflow memory... Como ejemplo en el ordenador de guiado del Apollo 11 dio errores 1201 y 1202
en la etapa final de alunizaje por Overflow, o algunos CNC que se bloquean cuando hacen algunos
parámetros G o M que implican un cálculo internos de movimientos que da fallo en algunas zonas de
trabajo o con valores asociados para el cálculo.
Situación desconocida, en teoría de control desde PID es el más sencillo lo que se trata de hacer es
que el sistema de control se diseñe según el comportamiento esperado del sistema a controlar, y
este se ha usado durante años en muchos sistemas, pero cuando hay un cambio de comportamiento
del sistema como fallos de sensores, este puede inducir errores de control. Un ejemplo el accidente
en la presentación del YF-22 del programa ATF (Advanced Tactical Fighter) de la USAF, el cual entro
en un fugoide al no tener contemplado el efecto suelo aerodinámico, con el tren sin desplegar 4.
Estos casos de derivas pequeñas se corrigen con los sistemas adaptativos, estos tienen la ventaja de
corregir la deriva/calibrado que los sensores puedan tener, pero cada cierto tiempo se tiene que
hacer un reset de los valores ya que dependiendo del diseño estos pueden tener errores acumulativos,
estos últimos son típicos en ECU (Engine Control Unit) de vehículos, ya que se corre el problema
de saturación, o estancación máximos locales no contemplados.
Errores de «caja negra» se denomina caja negra cuando un sistema le das unos inputs y de este ofrece unos
outputs, pero la «lógica» de cómo llega de los inputs a los outputs es desconocida, desconocemos la trazabilidad,
esto crea unos sesgos que en teoría no deberían existir pero en la práctica existen. Estos son principalmente
de la IAs:
Apple card dispone de un algoritmo de mano del banco Goldman Sachs, para medir los niveles de
crédito que se les puede dar a una determinada persona, y se ha visto en ellos un sesgo de género
que en teoría no debe existir (del orden de dar 10 veces más crédito a un hombre que a una mujer),
actualmente no se sabe el porqué de este sesgo 5. Como estos hay varios de este tipo 6, aunque
luego se ve que realmente el fallo era por falta de formación de los que usan el algoritmo 7
Algoritmo de reconocimiento facial de Google Photos que catalogó a gente de ascendencia africana
como gorilas. La razón de este sesgo es que este algoritmo fue entrenado con un Dataset que disponía
de una mayor cantidad de fotos de caucásicos y no de otras poblaciones 8, y la solución posterior
tuvo otros problemas, ya que no reconocía gorilas 9. Este sesgo es el más importante en IAs
porque dependiendo del Dataset usado en el entrenamiento. Como curiosidad, en el libro y la película
«La caza del Octubre Rojo» se habla de este problema por parte del operador del sonar del
submarino de la US Navy, el sistema automático de clasificación del mismo tenía un sesgo de diseño.
Programa del US Army, para la detección de tanques en un fotograma, que funcionaba con un nivel
demasiado alto. Se vio que el sesgo fue que los grupos de fotos donde había tanques se hicieron un
día nublado y el resto de las fotos en un día soleado, de tal forma que no detectaba los tanques, si
55
Problema de sesgo desconocido.
Problema de sesgo de entrenamiento.
Problema de sesgo de no esperado.