Page 15

BOLETIN DE OBSERVACION TECNOLOGICA 51

en profundidad Fig. 2. Empleo de DNN en reconocimiento de objetivos. (Fuente: NVIDIA - https://blogs.nvidia.com/blog/2016/06/29/deep-learning-6/). miento (overfitting) ha dado lugar a que a menudo las soluciones que se han desarrollado tengan solamente unas pocas capas internas que no lograban alcanzar las expectativas creadas. ¿Qué es lo que está cambiando para que se vuelva a hablar de las redes neuronales artificiales, o más en particular, del aprendizaje profundo? La existencia de múltiples capas internas es donde se encuentra uno de los elementos diferenciadores de esta tecnología, al permitir representar diferentes niveles de abstracción de los datos de entrada, mejorando la capacidad de predicción de la red. Y es precisamente en el desarrollo de nuevas técnicas que permiten trabajar con redes dotadas de más capas internas (varias decenas) con mayores conexiones donde las cosas más están cambiando. De ahí el nombre Deep Neural Network (DNN) que se vienen utilizando para referirse a este tipo de redes. Algunos autores apuntan a dos factores como habilitadores de estos avances. En primer lugar, la posibilidad de disponer de enormes cantidades de datos para entrenamiento, gracias al desarrollo del big data. Y en segundo, los avances en cuanto a hardware de procesamiento de datos y, muy especialmente, el desarrollo de las GPU (Graphics Processor Unit), es decir, los coprocesadores que desde hace años se incluyen en los ordenadores para realizar el procesamiento de gráficos o las operaciones de coma flotante, aligerando así la carga de trabajo de las CPUs de los ordenadores, sobre todo si trabajan con videojuegos o aplicaciones 3D interactivas. Dado que las GPUs están optimizadas para trabajar con grandes cantidades de datos y realizar las mismas operaciones, una y otra vez, es posible transferir a estas unidades una parte importante de las operaciones que se llevan a cabo en las redes neuronales durante el aprendizaje, mejorando notablemente las prestaciones y a muy bajo coste 1. De esta manera, en los últimos años, los fabricantes de GPUs han venido adecuando sus desarrollos para facilitar su empleo en aplicaciones de aprendizaje, permitiendo que hoy en día se pueda hablar de problemas cuyo análisis es masivamente paralelizable. Adicionalmente se han venido desarrollando conjuntos de librerías software (Caffee, CNTK, Theano, Tensorflow, Torch, etc.) que simplifican enormemente el desarrollo y despliegue de aplicaciones de aprendizaje profundo que permiten explotar al máximo las capacidades de una o múltiples GPUs. Otra notable ventaja que presentan las DNN frente a las técnicas clásicas de aprendizaje automático es la simplificación del proceso de aprendizaje y la mejora en robustez frente a variaciones naturales en los datos de entrada. Así, por ejemplo, en aplicaciones que trabajan con datos de entrada complejos como imágenes o vídeos, normalmente es necesario analizar de forma manual los datos de entrada y determinar las características (elementos específicos en la escena) en torno a los que se debe centrar el aprendizaje, siendo además necesario implementar una etapa de extracción de esas características de forma que sean únicamente esos datos los que alimenten Boletín de Observación Tecnológica en Defensa n.º 51. Tercer trimestre 2016 15


BOLETIN DE OBSERVACION TECNOLOGICA 51
To see the actual publication please follow the link above