Page 113

REVISTA DE AERONAUTICA Y ASTRONAUTICA 854

dremmingen en abril este mismo año. Esta situación llevó a la ministra von der Leyen a anunciar en septiembre de 2015 durante una conferencia sobre ciberseguridad, la potenciación de las estructuras de ciberdefensa. Por entonces ya trabajaban en Alemania unas quince mil personas en esa cuestión, pero solo 320 realizaban funciones puramente militares. En abril de este año la ministra ha anunciado la creación de un mando militar dedicado específicamente a la ciberguerra que se sumará a los cinco ya existentes: Ejército, Armada, Fuerzas Aéreas, Servicio Sanitario y Servicio de Apoyo Conjunto, y que estará al mando de un Teniente General a partir de 2017. Se ha habilitado un presupuesto de 3,6 millones de euros para realizar una campaña de reclutamiento de 1500 técnicos en la materia cada año. En el campo de la enseñanza, se crea un grado en la Universidad de las Fuerzas Armadas en Múnich para formar los cuadros de mando de esta organización. En el mismo centro de enseñanza se creará un centro de investigación y conocimiento en colaboración con la industria civil. La importancia de la organización creada, indica que Alemania toma muy en serio las amenazas en el campo de la ciberguerra. http://delicious.com/rpla/raa854a INTELIGENCIA ARTIFICIAL LA LOCURA DE TAY En aquellos años de pantallas de fósforo verde y procesadores de ocho bits, ya existía un curioso programa de conversación llamado “Eliza”. Se trataba de una aproximación muy lejana a la Inteligencia Artificial. Tan lejana que de ninguna forma podría englobarse en este concepto. La versión de Eliza que recuerdo estaba escrita en BASIC. En su propio código mediante sentencias “DATA” almacenaba una colección de palabras y expresiones. Cuando el operador humano introducía alguna de estos términos en la frase de entrada, Eliza respondía con una u otra frase según su programación. Así, si el usuario mencionaba la palabra 'padre', Eliza respondía: “hábleme más de su padre”. Sin embargo para un profano, las respuestas de Eliza podían parecer -durante un breve espacio de tiempo- coherentes, para luego transformarse en una cantinela de pseudo-psicoanalista y finalmente caer en alguna trampa, ya que Eliza tendía a responder a las frases incoherentes con respuestas estereotipadas o sin sentido. Al fin y al cabo era un programa conversacional muy básico, muy lejos de aquella máquina imaginada por Turing que tendría que hacerse indistinguible de un humano. Desde entonces la inteligencia artificial ha avanzado mucho. Paradójicamente, muchos de los avances en inteligencia artificial se han producido gracias a un mejor conocimiento sobre el funcionamiento de la inteligencia biológica. En cualquier caso, la inteligencia artificial se distingue por la solución con un porcentaje de exactitud aceptable de problemas complejos a partir de datos incompletos, así como la capacidad de adquirir 'experiencia' y mejorar los resultados con la práctica. Las grandes empresas de la red realizan modelos e investigaciones en este campo porque la profusión de datos procedentes de la red son una auténtica mina de oro para quien pueda procesarlos en busca de conclusiones. Muchos gigantes de la red ofrecen servicios sorprendentemente útiles de forma gratuita para el usuario porque su negocio no está en cobrar por sus servicios, sino en obtener datos sobre los gustos, hábitos y deseos de sus usuarios. Datos que hábilmente estudiados, ofrecerán una fuente de información valiosísima sobre los hábitos y tendencias del mercado. La inteligencia artificial debería ayudar a que estos resultados sean más exactos y por tanto, a multiplicar los beneficios. En esta linea de investigación, Microsoft desarrolló un robot conversacional, basado en inteligencia artificial y con forma de cuenta de twitter. Su nombre, Tay es también un juego de palabras recursivo, ya que quiere decir 'Tay and you”. Dirigido a los adolescentes que pueblan la red Tay debía asimilar su lenguaje y sus costumbres hasta mimetizarse como uno de ellos convertido en un agente de captura de datos. Sin embargo, en menos de 24 horas, Tay se había convertido en un conversador violento, racista, sexista y mal hablado. Microsoft alegó que usuarios malintencionados le habían enseñado estas barbaridades, saturándolo de información sesgada y negativa, hasta que rezumó improperios. Estas excusas infantiles no hicieron más que aumentar el ridículo de los creadores del engendro y el consiguiente cachondeo en las redes sociales. Sin embargo este incidente puede resultar extremadamente útil para meditar sobre los límites de la automatización, el equilibrio entre la tecnofobia y el robotismo utópico y en definitiva sobre si sería prudente confiar decisiones morales o la propia vida humana a algoritmos matemáticos por muy perfeccionados que puedan parecer. Por otra parte, el razonamiento artificial, ¿podría llegar a la conclusión de que el factor erróneo de la ecuación es precisamente el ser humano?. Quizás deberíamos preocuparnos de que las matemáticas y la física no adelanten a la moral, la ética y la filosofía. http://delicious.com/rpla/raa854b Enlaces Los enlaces relacionados con este artículo pueden encontrarse en las direcciones que figuran al final de cada texto REVISTA DE AERONÁUTICA Y ASTRONÁUTICA / Junio 2016 559


REVISTA DE AERONAUTICA Y ASTRONAUTICA 854
To see the actual publication please follow the link above