FECHA: 30 de Junio del 2015
TEMA: RED
ADALINE
INTRODUCCIÓN
Las
Redes Neuronales son dispositivos, programados de manera tal que tratan de
representar el cerebro humano, simulando de cierto su proceso de aprendizaje. Dentro
de los tipos de neuronas artificiales tenemos a la Red Adaline.
La Red
Adaline tiene una diferencia significativa
con relación al Perceptrón ya que esta emplea una regla de aprendizaje más fuerte que la del
perceptrón que es la llamada regla LMS (Least Mean Square) mínimo cuadrado
medio.
El
perceptrón se basa en diferenciar de una clase de otra, separa por decirlo así
manzana de peras ,personas altas de bajas por decir un ejemplo , en cambio una
red Adaline tiene una salida lineal y toma valores continuos que pueden ir de
valores negativos hasta positivos.
MARCO TEÓRICO
RED ADALINE
ANTECEDENTES
La Red Adaline fue desarrollada en el 1960 por Bernard
Widrow y su estudiante Marcian Hoff de la universidad de Stanford.
ADALINE proviene de
Adaptive Lineal Element (Elemento Lineal Adaptativo), pero antes de que se le
diera este nombre esta red sufrió un cambio ya
que primeramente se llamaba Adaptive Lineal Neuron (Neurona Linear
Adaptiva), dicho cambio se dio por que la Red Adaline es un dispositivo que
consta de un único elemento de procesamiento, como tal no es técnicamente
considerada una red neuronal.
Adaline fue
desarrollada para el reconocimiento de patrones binarios, por ejemplo predecir
el siguiente bit en una línea telefónica.
CARACTERISTICAS
Las Redes ADALINE son redes muy similares al Perceptrón con
la diferencia de que su función de activación es lineal en lugar de ser un
limitador fuerte como es el caso del Perceptrón, estas presentan la misma
limitación del Perceptrón respecto al tipo de problemas que pueden
resolver, ya que ambas redes solo pueden
resolver problemas linealmente separables.
Son redes de aprendizaje supervisado que usan la regla de Widrow – Hoff para dicho
aprendizaje o también denominada regla Delta. El algoritmo que estas usan es el
LMS (Least Mean Square) siendo este más
eficiente que la regla de aprendizaje del Perceptrón puesto que minimiza el
error medio cuadrático.
Adaline está limitada a una única neurona de salida,
un vector x como su entrada y un número
real y como su salida.
ARQUITECTURA
Como se aprecia en la (Imagen 1), la Red Adaline está formada por un elemento
denominado Combinador Adaptativo Lineal (ALC).
La salida lineal obtenida del ALC es aplicada a un Conmutador Bipolar.
El Umbral se representa
a través de una conexión ficticia de peso W0 (b).
La red Adaline puede tomar valores continuos.
ALGORITMO DE APRENDIZAJE:
1.- Inicializar los pesos en forma aleatoria
2.- Introducir un patrón de entrada
3.- Calcular la
salida (y), compararla con la deseada (d) y obtener la diferencia (dp -
yp)
4.- Multiplicar el resultado del paso anterior por la
entrada correspondiente a cada uno de los pesos
y ponderarla por la tasa de aprendizaje.
5.- Actualizar los pesos, sumando al valor antiguo la
cantidad obtenida en el paso anterior
6.- Si no se ha cumplido el criterio de parada, regresar al
paso 2, si se ha acabado todos los patrones repetir el algoritmo.
Criterios de parada:
Criterio 1: Fijar un número de ciclos máximo. Dicho número debe
garantizar que el error cuadrático para los patrones de entrenamiento se haya
estabilizado.
Criterio 2: Cuando
el error cuadrático sobre los patrones de entrenamiento no cambia durante x
ciclos.
Criterio 3: Cuando
el error cuadrático sobre los patrones de validación no aumenta o se mantiene
estable a lo largo de x ciclos.
EJEMPLO:
VENTAJAS
Una de
las principales ventajas que presenta la Red Adaline frente al perceptrón es
que esta su gráfica de error es un
hiperparaboloide la cual contiene un mínimo global o también puede tener
una recta de infinitos valores.
De esta manera se evita los problemas que proporciona el
perceptrón al momento del entrenamiento ya que su función de error tiene
cuantiosos mínimos específicos.
APLICACIONES
La principal aplicación de las redes de tipo Adaline se
encuentra en el campo de procesamiento de señales. Específicamente en el diseño
de filtros, estas son capaces de eliminar ruido en señales portadoras de
información.
Otra aplicación que tiene esta red es la de los filtros adaptivos.
Un Adaline tiene la suficiente capacidad de predecir el valor de una señal en el
instante ( t+1) si se conoce el valor de la misma en los p instantes anteriores
(p es >0 y su valor depende del problema).
Predecir el valor futuro de una señal a partir de su valor
actual.
El error predicción
va a variar, es decir la predicción va a ser mayor o menor dependiendo
de la señal que se va a predecir. Si dicha señal corresponde a una serie de
temporal el Adaline, transcurrido un tiempo, estará apta para dar predicciones correctas.
CONCLUSIONES
La Red Adaline es un mecanismo físico capaz de realizar
aprendizaje es un elemento Combinador Adaptativo, recibe un conjunto de
entradas y las combina para producir una salida entonces ADALINE es un modelo
de aprendizaje.
Las redes Adaline se basan en el objetivo de
evaluar de la forma más correcta la salida, para de esta manera poder
minimizar el error medio cuadrático, por tanto son muy similares al Perceptrón,
lo único en lo que cambian es la transferencia en la salida.
Adaline tiene una considerable diferencia con respecto a
Perceptron, puesto que en la modificación de los pesos que se dan en la
preparación, la Red Adaline tiene muy presente el valor de corrección de la
salida estimada con relación a la esperada.
BIBLIOGRAFÍA
Medina,
E; Cubides, H; Salazar, J y Sigüencia, J. 2010. Redes Adaline – Filtros
Adaptativos. (En Línea). Consultado, 03
de Jun del 2015. Disponible en: http://es.scribd.com/doc/52002261/Adeline-1
Galván,
I y Valls, J. 2010. Redes de Neuronas Artificiales. (En Línea). Consultado, 02 de Jun del 2015. Formato (PDF). Disponible
en:
http://ocw.uc3m.es/ingenieria-informatica/redes-de-neuronas-artificiales/transparencias/material-de-clase.-tema-2
Torres,
Luis .2008. Redes Neuronales Artificiales. (En Línea).Consultado 16 de Jun
2015. Formato (PDF).Disponible en http://disi.unal.edu.co/~lctorress/RedNeu/RNA006c.pdf
Valls, J.
2007. Redes de Neuronas Perceptrón y Adaline. (En Línea). Consultado, 24 de Junio 2015. Formato (PDF). Disponible
en:
http://eva.evannai.inf.uc3m.es/et/docencia/rn-inf/documentacion/Tema2-PerceptronAdaline.pdf
Roncagllolo,
P. s.f. Procesamiento Digital de Imágenes. (En Línea). Consultado, 24 de Jun 2015. Formato (PDF). Disponible en:
http://www2.elo.utfsm.cl/~elo328/PDI21_RedesNeuronales.pdf
Creo que le falta información a tu explicación, ya que en ninguno de los patrones de entrada defines un valor deseado esperado. También en tu regla delta jamás definió una regla para el nuevo cálculo de pesos en función de la derivada de tu función de activación, por lo tanto, jamás aplicarías el gradiente descendiente.
ResponderEliminarholoa tiene el programa
ResponderEliminarsi esta bien creo
ResponderEliminar