miércoles, 8 de julio de 2015

PERCEPTRON MULTICAPA


Fecha: 16 de Junio del 2015
Tema: Perceptrón Multicapa

INTRODUCCIÓN

En el siguiente documento se dará a saber una de las clases de redes de neuronas, como lo es el Perceptrón Multicapa.
El Perceptrón Multicapa es una descendencia del Perceptrón Simple, cuenta con la habilidad de aprender a partir de un conjunto de ejemplos, aproximar, filtra ruidos en  los datos, esto es lo que lo hace que sea un modelo conveniente para poder resolver problemas reales.
En la actualidad el Perceptrón Multicapa está desempeñando un rol muy importante  con respecto a la resolución de problemas, esto sin duda alguna se debe a su capacidad como aproximador universal, así como su fácil uso  y su aplicabilidad.
MARCO TEÓRICO

ARQUITECTURA  DEL PERCEPTRÓN
La arquitectura del Perceptrón , llamada mapeo de patrones (pattern-mapping), aprende a clasificar modelos mediante un aprendizaje supervisado. Los modelos que clasifica suelen ser generalmente vectores con valores binarios (0,1) y las categorías de la clasificación se expresan mediante vectores binarios.

ARQUITECTURA DEL PERCEPTRÓN MULTICAPA

El perceptrón multicapa se identifica porque este tiene sus neuronas agrupadas entre sí, cada capa la conforma un conjunto de neuronas entre ellas se tienen 3 capas deferentes:
- Capa de Entrada
- Capas Ocultas 
- Capa de Salida

En el caso de las neuronas de entrada solo se encargan exclusivamente  de recibir las señales y extender dichas señales a las demás neuronas de la capa siguiente.
Las neuronas de las capas ocultas cumplen un procesamiento no lineal de los patrones recibidos.
Las conexiones de Perceptrón Multicapa siempre van hacia adelante nunca hacia atrás, es decir las neuronas de una capa constantemente se conectan con las neuronas de la siguiente capa.
La última capa funciona como la salida de la red, aportando al exterior la respuesta de la red hacia cada modelo de entrada. Las conexiones entre las neuronas tienen un peso y también un umbral, en este caso el umbral se le trata como  una conexión más a la neurona, esta entrada es constante e igual a 1.
CARACTERÍSTICAS
Una de sus características es que posee una arquitectura para la resolución de problemas reales.
Tienen una capa de entrada y una capa de unidades procesadoras que constituyen la capa de salida.

APRENDIZAJE EN EL PERCEPTRÓN MULTICAPA
El objetivo principal del  aprendizaje del perceptrón multicapa es ajustar los parámetros de red: Pesos y Umbrales ya que se quiere que la entradas produzcan las salidas deseadas.
Se evalúa el error cuadrático.
Se implementa las reglas para  la modificación de pesos y umbrales:
Se calculan los valores para todas las neuronas de la capa de salida.
Se calcula para el resto de neuronas, empezando por la última capa oculta y terminando en la capa de entrada.
Se modifica los pesos y umbrales.

CONCLUSIONES

El perceptrón tiene una capa de datos, dándole paso a la siguiente capa para de esa manera dar respuestas acertadas con respecto a las variables de entrada en base al aprendizaje.
El perceptrón multicapa a pesar de ser una de las redes más utilizadas, no necesariamente es una de las más potentes ya que posee ciertas limitaciones como es el caso del proceso de aprendizaje para problemas complejos.


BIBLIOGRAFÍA

Basogian, X. 2010. Redes neuronales Artificiales y sus Aplicaciones. Tesis. Escuela Superior de Ingeniería de Bilbao. (En Línea). Consultado el 22 de Junio, 2015. Formato PDF. Disponible en: http://www.ciberesquina.una.edu.ve:8080/2014_2/350_E.pdf

Viñuela, P y Galván, I. 2004. Redes de Neuronas artificiales. Un enfoque práctico. Pearson Education. Madrid. p 1-5.




1 comentario: