viernes, 19 de junio de 2015

PERCEPTRON MULTICAPA


Fecha: 02/06/2015
Tema: Perceptron multicapa

INTRODUCCIÓN


A continuación se estudiará una de las clases de redes, conocida como redes multicapas, el cual ha sido ideado con bases del perceptron simple, surgiendo como consecuencia de las limitaciones que presentaba el antes mencionado. Minsky y Papert fueron los que en el año 1960 combinaron preceptrones simples que podrían solucionar algunos problemas no lineales.
Sin embargo la idea de combinar varios perceptrones sirvió para estudios posteriores que fueron realizados por Rummelhart, Hinton y Wilians en 1986, donde se presentó una forma de retroprogramar los errores en la salida de la red, dando lugar a la regla delta.

DESARROLLO
PERCEPTRON MULTICAPA
El interés por la investigación en redes multicapa parte de los trabajos de Rosenblatt (1962) sobre Perceptrones y los de Widrow y sus alumnos sobre Madalines (1962). Los Madalines estaban constituidos por varias unidades de entrada y varios elementos Adalides en la primera capa, y con varios dispositivos lógicos (AND, OR,…) en la segunda capa. 

El Perceptrón simple es capaz de resolver problemas de clasificación e implementar funciones lógicas, como por ejemplo, la función OR, pero es incapaz de implementar funciones como la función lógica XOR (función de paridad). Sobre estas limitaciones, Minsky y Papert (1969) publicaron un libro titulado “Perceptrons” que supuso el abandono por parte de muchos científicos de la investigación en redes neuronales, pues no se encontraba un algoritmo de aprendizaje capaz de implementar funciones de cualquier tipo. Las limitaciones de las redes de una sola capa hicieron que se plantease la necesidad de implementar redes en las que se aumentase el número de capas, es decir, introducir capas intermediarias o capas ocultas entre la capa de entrada y la capa de salida de manera que se pudiese implementar cualquier función con el grado de precisión deseado, es decir, que las redes multicapa fuesen aproximadores universales. Por ejemplo, con un Perceptrón con dos capas se puede implementar la función lógica XOR.
TOPOLOGÍA. 
El Perceptrón multicapa es una red de alimentación hacia adelante (feedforward) compuesta por una capa de unidades de entrada (sensores), otra capa de unidades de salida y un número determinado de capas intermedias de unidades de proceso, también llamadas capas ocultas porque no se ven las salidas de dichas neuronas y no tienen conexiones con el exterior. Cada sensor de entrada está conectado con las unidades de la segunda capa, y cada unidad de proceso de la segunda capa está conectada con las unidades de la primera capa y con las unidades de la tercera capa, así sucesivamente. Las unidades de salida están conectadas solamente con las unidades de la última capa oculta.
 


Para implementar dicha relación, la primera capa (sensores de entrada) tendrá tantos sensores como componentes tenga el patrón de entrada, es decir, N; la capa de salida tendrá tantas unidades de proceso como componentes tengan las salidas deseadas, es decir, M, y el número de capas ocultas y su tamaño dependerán de la dificultad de la correspondencia a implementar
DINÁMICA DE LA COMPUTACIÓN
Como las entradas a las unidades de proceso de una capa son las salidas de las unidades de proceso de la capa precedente, el Perceptrón multicapa con sólo una capa oculta implementa la siguiente función: donde wij es el peso sináptico de la conexión entre la unidad de salida i y la unidad de proceso j de la capa oculta; L es el número de unidades de proceso de la capa oculta; g1 es la función de transferencia de las unidades de salida, que puede ser una función logística, una función tangente hiperbólica o la función identidad; tjr es el peso sináptico que conecta la unidad de proceso j de la capa oculta con el sensor de entrada r y g2 es la función de transferencia de las unidades de la capa oculta, que puede ser también una función logística, una función tangente hiperbólica o la función identidad.
Una vez que hemos establecido la topología de la red, y su dinámica de la computación, la determinación de los pesos sinápticos nos llevará al diseño completo de la red. Para ello vamos a seguir un proceso de entrenamiento, mediante el cual vamos introduciendo cada uno de los patrones y evaluando el error que se comete entre las salidas obtenidas por la red y las salidas deseadas; entonces se irán modificando los pesos sinápticos según el error cometido.
CONCLUSIÓN

La red o perceptron multicapa fue creado para resolver los problemas o limitaciones que surgieron en el perceptron simple, que luego sirvieron para estudios posteriores

BIBLIOGRAFÍA
Milone, D; Rufiner, L. 2011. Perceptron Multicapa. (En línea). AR. Consultado, 20 de jun. 2015. Formato PDF. Disponible en http://infofich.unl.edu.ar/

Isassi, R; Galván, I  2013. Redes neuronales artificiales. 2ed. Pearson. p 5-10.

Mejías, Y; Carrasco,R; Ochoa, I; Moreno,E. 2013. Funciones de transferencia en el perceptrón multicapa: efecto de su combinación en entrenamiento local y distribuido. La Habana. CU. Revista Scielo. Vol. 5. p 2
 

No hay comentarios:

Publicar un comentario