miércoles, 8 de julio de 2015

RED ADALINE

FECHA: 30 de Junio del 2015
TEMA: RED ADALINE

INTRODUCCIÓN

Las Redes Neuronales son dispositivos, programados de manera tal que tratan de representar el cerebro humano, simulando de cierto su proceso de aprendizaje. Dentro de los tipos de neuronas artificiales tenemos a la Red Adaline.
La Red Adaline tiene una diferencia significativa  con relación al Perceptrón ya que esta emplea  una regla de aprendizaje más fuerte que la del perceptrón que es la llamada regla LMS (Least Mean Square) mínimo cuadrado medio.
El perceptrón se basa en diferenciar de una clase de otra, separa por decirlo así manzana de peras ,personas altas de bajas por decir un ejemplo , en cambio una red Adaline tiene una salida lineal y toma valores continuos que pueden ir de valores negativos hasta positivos.

MARCO TEÓRICO

RED ADALINE
ANTECEDENTES

La Red Adaline fue desarrollada en el 1960 por Bernard Widrow y su estudiante Marcian Hoff de la universidad de Stanford.
ADALINE proviene de Adaptive Lineal Element (Elemento Lineal Adaptativo), pero antes de que se le diera este nombre esta red sufrió un cambio ya  que primeramente se llamaba Adaptive Lineal Neuron (Neurona Linear Adaptiva), dicho cambio se dio por que la Red Adaline es un dispositivo que consta de un único elemento de procesamiento, como tal no es técnicamente considerada una red neuronal.
Adaline fue desarrollada para el reconocimiento de patrones binarios, por ejemplo predecir el siguiente bit en una línea telefónica.

CARACTERISTICAS

Las Redes ADALINE son redes muy similares al Perceptrón con la diferencia de que su función de activación es lineal en lugar de ser un limitador fuerte como es el caso del Perceptrón, estas presentan la misma limitación del Perceptrón respecto al tipo de problemas que pueden resolver,  ya que ambas redes solo pueden resolver problemas linealmente separables.
Son redes de aprendizaje supervisado que  usan la regla de Widrow – Hoff para dicho aprendizaje o también denominada regla Delta. El algoritmo que estas usan es el LMS (Least Mean Square) siendo este  más eficiente que la regla de aprendizaje del Perceptrón puesto que minimiza el error medio cuadrático.
Adaline está limitada a una única neurona de salida, un  vector x como su entrada y un número real y como su salida.

ARQUITECTURA

Como se aprecia en la (Imagen 1), la  Red Adaline está formada por un elemento denominado Combinador Adaptativo Lineal (ALC).
La salida lineal obtenida del ALC es aplicada  a un Conmutador Bipolar.
El Umbral se representa  a través de una conexión ficticia de peso W0 (b).

La red Adaline puede tomar valores continuos.

ALGORITMO DE APRENDIZAJE:

1.- Inicializar los pesos en forma aleatoria
2.- Introducir un patrón de entrada
3.- Calcular la  salida (y), compararla con la deseada (d) y obtener la diferencia (dp - yp)
4.- Multiplicar el resultado del paso anterior por la entrada correspondiente a cada uno de los pesos  y ponderarla por la tasa de aprendizaje.
5.- Actualizar los pesos, sumando al valor antiguo la cantidad obtenida en el paso anterior
6.- Si no se ha cumplido el criterio de parada, regresar al paso 2, si se ha acabado todos los  patrones repetir el algoritmo.

Criterios de parada:

Criterio 1: Fijar un número de ciclos máximo. Dicho número debe garantizar que el error cuadrático para los patrones de entrenamiento se haya estabilizado.
Criterio 2: Cuando el error cuadrático sobre los patrones de entrenamiento no cambia durante x ciclos.
Criterio 3: Cuando el error cuadrático sobre los patrones de validación no aumenta o se mantiene estable a lo largo de x ciclos.
EJEMPLO:



VENTAJAS


Una de las principales ventajas que presenta la Red Adaline frente al perceptrón es que esta su gráfica de error es un  hiperparaboloide la cual contiene un mínimo global o también puede tener una recta de infinitos valores.
De esta manera se evita los problemas que proporciona el perceptrón al momento del entrenamiento ya que su función de error tiene cuantiosos mínimos específicos.

APLICACIONES

La principal aplicación de las redes de tipo Adaline se encuentra en el campo de procesamiento de señales. Específicamente en el diseño de filtros, estas son capaces de eliminar ruido en señales portadoras de información.
Otra aplicación que tiene esta red  es la de los filtros adaptivos.
Un Adaline tiene la suficiente capacidad  de predecir el valor de una señal en el instante ( t+1) si se conoce el valor de la misma en los p instantes anteriores (p es >0 y su valor depende del problema).
Predecir el valor futuro de una señal a partir de su valor actual.
El error predicción  va a variar, es decir la predicción va a ser mayor o menor dependiendo de la señal que se va a predecir. Si dicha señal corresponde a una serie de temporal el Adaline, transcurrido un tiempo, estará apta para dar predicciones correctas.

CONCLUSIONES
La Red Adaline es un mecanismo físico capaz de realizar aprendizaje es un elemento Combinador Adaptativo, recibe un conjunto de entradas y las combina para producir una salida entonces ADALINE es un modelo de aprendizaje.
Las redes Adaline se basan en el objetivo de evaluar  de la forma más  correcta la salida, para de esta manera poder minimizar el error medio cuadrático, por tanto son muy similares al Perceptrón, lo único en lo que cambian es la transferencia en la salida.
Adaline tiene una considerable diferencia con respecto a Perceptron, puesto que en la modificación de los pesos que se dan en la preparación, la Red Adaline tiene muy presente el valor de corrección de la salida estimada con relación a la esperada.

BIBLIOGRAFÍA

Medina, E; Cubides, H; Salazar, J y Sigüencia, J. 2010. Redes Adaline – Filtros Adaptativos. (En Línea). Consultado,  03 de Jun del 2015. Disponible en: http://es.scribd.com/doc/52002261/Adeline-1

Galván, I y Valls, J. 2010. Redes de Neuronas Artificiales. (En Línea). Consultado,  02 de Jun del 2015. Formato (PDF). Disponible en: http://ocw.uc3m.es/ingenieria-informatica/redes-de-neuronas-artificiales/transparencias/material-de-clase.-tema-2

Torres, Luis .2008. Redes Neuronales Artificiales. (En Línea).Consultado 16 de Jun 2015. Formato (PDF).Disponible en http://disi.unal.edu.co/~lctorress/RedNeu/RNA006c.pdf

Valls, J. 2007. Redes de Neuronas Perceptrón y Adaline. (En Línea). Consultado,  24 de Junio 2015. Formato (PDF). Disponible en: http://eva.evannai.inf.uc3m.es/et/docencia/rn-inf/documentacion/Tema2-PerceptronAdaline.pdf

Roncagllolo, P. s.f. Procesamiento Digital de Imágenes. (En Línea). Consultado,  24 de Jun 2015. Formato (PDF). Disponible en: http://www2.elo.utfsm.cl/~elo328/PDI21_RedesNeuronales.pdf





3 comentarios:

  1. Creo que le falta información a tu explicación, ya que en ninguno de los patrones de entrada defines un valor deseado esperado. También en tu regla delta jamás definió una regla para el nuevo cálculo de pesos en función de la derivada de tu función de activación, por lo tanto, jamás aplicarías el gradiente descendiente.

    ResponderEliminar