Page 57

Bol_tec_ing_16

‘Ž‡–À±…‹…‘†‡‰‡‹‡”Àƒ Todos ellos pueden ser utilizados como algoritmos de aprendizaje supervisado y algunos de ellos como no supervisados como se puede ver en Tabla 1. Tabla 1. Comparativa de los principales algoritmos de aprendizaje Algoritmo Supervisado No supervisado Por refuerzo 5HJUHVLyQ Regresión lineal x - - Regresión logística x - - &OXVWHULQJ K-Medias x x - Detección de anomalías x x - &ODVLILFDFLyQ Redes Neuronales x x x K-vecinos más cercanos x - - Arboles de decisión x - - Bosques aleatorios x x - SVM x x - Naive Bayes x - - Las redes neuronales están inspiradas en las redes neuronales biológicas (Fig. 7), pretenden imitar su comportamiento a través de algoritmos matemáticos que ofrecen una respuesta aproximada a como lo hacen las originales. Se utilizan en problemas de clasificación y regresión, además tienen un gran potencial para resolver problemas complejos y son especialmente certeros en detectar patrones. Las redes neuronales consisten en una interconexión de nodos llamadas neuronas y divididas en capas en las cuales distinguimos una capa de entrada, un número de capas ocultas o intermedias y una capa de salida. Cada neurona de la capa oculta tiene un número de entradas determinada por el número de neuronas de la capa anterior y un número de salidas correspondiente al número de neuronas de la capa superior, por otro lado, los inputs en la capa de entrada son las propias variables a analizar (x) y los outputs de la capa de salida serán los resultados del sistema (y). Cada conexión entre neuronas tiene asociado un peso (w). Este peso representa la importancia que tendrá esa relación en la neurona al multiplicarse por el valor de entrada. Los valores iniciales para los pesos se asignan automáticamente. Por otro lado, tenemos el umbral o umbral de activación (u), el valor del umbral afecta directamente al valor que tomará la salida de la neurona. Si el valor es muy grande negativamente, la neurona se excitará al máximo y dará una salida de 1 independientemente de lo que haya en las entradas. Si el valor es muy grande positivamente, la neurona no se excitará en absoluto y dará una salida de 0 independientemente de lo que haya en las entradas. Cada neurona tiene una función de activación que determina si la suma de los valores recibidos, multiplicados por el peso de cada conexión, supera un umbral que hace que la neurona se active o no y proporcione un valor a la siguiente capa de neuronas (a). Al final de este proceso iterativo obtendremos una o varias salidas al final de la red, usaremos una función para comparar que tan buenos o malos son los resultados obtenidos comparados a los resultados reales esperados, a esta función se le llama Función Coste. Idealmente queremos que esta función coste tenga el valor más pequeño posible. A medida que se entrena el modelo se irá ajustando los pesos de inter-conexión entre las neuronas de manera automática hasta obtener buenas predicciones. Para el ajuste de los pesos se usará un modelo matemático llamado descenso de gradiente el cual pretende encontrar el mínimo de una función, en nuestro caso, la utilizaremos para encontrar el mínimo de la Función Coste. Su funcionamiento consiste en ir en contra de la derivada de la función, de esta manera podemos asegurarnos que partiendo de un valor inicial y teniendo en cuenta la derivada negativa, el próximo valor va a disminuir. Al calcular la derivada (o gradiente) de la Función Coste en un cierto conjunto de pesos, podremos 5ϱ


Bol_tec_ing_16
To see the actual publication please follow the link above