SlideShare a Scribd company logo
1 of 18
INSTITUTO POLITÉCNICO NACIONAL




   PROFESOR : M. en C. Edmundo René Durán Camarillo.


           MATERIA : Sistemas Neurodifusos II.




EQUIPO :
            • Maldonado Orduño Jessie.
            • Munguía Solache Martha.
            • Ruíz Hidalgo Héctor Alejandro.


               FECHA : 2 de abril de 2002.
INDICE :

           Pág.
TEORIA DE RESONANCIA ADAPTATIVA
1.INTRODUCCIÓN :

   El hecho que condujo a la concepción de las redes ART fue lo que se conoce
como el dilema de la estabilidad y plasticidad del aprendizaje. Este dilema
surge a partir de dos ideas:
   • Una red neuronal debe poder aprender nuevos patrones, es decir, debe tener
      cierta plasticidad de aprendizaje.
   • Una red neuronal debe poder recordar los patrones ya aprendidos, es decir,
      ser estable aún cuando se le introduzcan datos que no sea capaz de
      reconocer.

    Sin embargo estas dos características son difíciles de implementar juntas, pues
al aprender nuevos patrones, se corre el riesgo de perder los ya memorizados,
igualmente, si se mantienen firmemente memorizados unos patrones iniciales, se
dificulta el aprendizaje de nuevos patrones, comprometiendo su capacidad de
adaptarse a condiciones nuevas.

   Grossberg, Carpenter y un grupo de colaboradores desarrollaron su teoría de
resonancia adaptativa para resolver este dilema, la cual se aplica a redes con
aprendizaje competitivo, en las cuales solo una neurona o una neurona de un
grupo, después de competir con otras, reacciona con su máximo nivel de respuesta
al presentarse determinado patrón de entrada. Se dice que esta neurona es la
vencedora, de esta manera la red busca crear categorías (clusters), según los datos
que se le introduzca. La red debe decidir a que categoría pertenece cada dato que
se le presente según su parecido con alguna categoría definida, y si no hay un
grado de similitud lo suficientemente grande, la red creará una categoría nueva
tomando como modelo el nuevo patrón.        Se deduce de esto que el aprendizaje
en las redes ART es no supervisado.

    A estas redes se les ha agregado un mecanismo especial de realimentación entre
las neuronas de la capa de salida (competitivas) y las de la capa de entrada; lo cual
contribuye a mantener la plasticidad y la estabilidad de la red.

    La teoría de resonancia adaptativa se basa en el hecho de que la información de
alguna de las categorías almacenadas en la red debe “resonar” si se presenta una
información similar en la entrada. Si es este el caso, la red reconocerá la
información y adaptará su modelo para que se parezca mas al patrón de entrada.
De lo contrario, la red creará una nueva categoría tomando como modelo el patrón
de entrada presentado.

   Grossberg, Carpenter et al. propusieron dos redes basadas en este modelo :
   • ART o ART1 (1986) a la cual se presentan patrones de entrada binarios y;
   • ART2 (1987) para trabajar con información analógica.
2. TIPOS DE REDES ART :

      Hay dos grandes ramas de redes ART: las ART1 que trabajan con vectores de
información binaria y las redes ART2, que procesan información analógica. Sin
embargo con el desarrollo de las redes neuronales, de la computación y de las
nuevas aplicaciones han surgido varios subgrupos de redes ART:
       ♠ ART-2ª : Es una versión más rápida del algoritmo de redes ART2.
       ♠ ART-3 : Extensión de red ART que incorpora transmisores químicos para
          controlar el proceso de búsqueda de categorías dentro de la red.
       ♠ ARTMAP : Es una versión supervisada de ART que puede aprender
          mapas de patrones binarios.
       ♠ Fuzzy ART : Síntesis de lógica difusa y redes ART.
       ♠ Fuzzy ARTMAP : Es una red Fuzzy ART supervisada


3. ADAPTACIONES DE REDES ART:

      ♠ ARTMAP-IC : Sistema ARTMAP con la adición de predicción distribuida y
          conteo de instancia de categoría.
      ♠   Gaussian ARTMAP : Una red ART con aprendizaje supervisado que
          emplea campos receptivos (Gauss).
      ♠   Modelos ART jerárquicos (modulares) : Estas redes modulares
          basadas en ART aprenden categorías jerárquicas de secuencias arbitrarias
          de patrones de entrada.
      ♠   ArboART : En esa red los prototipos de cada capa se emplean como
          entradas de la capa siguiente. Este método se conoce como método
          aglomerativo. La arquitectura s similar a las redes HART-J, descritas mas
          abajo. Se ha aplicado en la generación de reglas automáticas de los
          sistemas expertos de Kansei Engineering.
      ♠   Cascade Fuzzy ART : Como su nombre lo indica, es una serie de redes
          FuzzyART conectadas en cascada que generan jerarquías de patrones
          análogos y binarias mediante un aprendizaje de "arriba a abajo" pero con
          un proceso de búsqueda de "abajo hacia arriba". Se ha aplicado en el
          reconocimiento de objetos tridimensionales.
      ♠   HART(-J), HART-S : Modelos ART jerárquicos y modulares. HART-J
          emplea el método de categorización aglomerativa. HART-S emplea un
          método de categorización divisiva, con cada capa ART aprendiendo las
          diferencias entre la entrada y el prototipo semejante de la capa previa.
      ♠   SMART : Self-consistent Modular ART (ART modular autoconsistente). Es
          capaz de aprender jerarquías de categorías autoconsistentes a través de
          enlaces explícitos y un mecanismo interno de realimentación.
      ♠   LAPART : Arquitectura basada en ART para la verificación de secuencias
          de patrones a través de inferencia.
      ♠   MART : ART multicanal, para la clasificación adaptativa de patrones a
          través de múltiples canales de entrada.
      ♠   PROBART : Una modificación de una red Fuzzy ARTMAP por la
          construcción de información probabilística mediante asociaciones entre
nodos de capas distintas, lo que le permite aprender con cierta
         aproximación mapas ruidosos.
       ♠ R2MAP : Red basada en ARTMAO capaz de aprender tareas de
         clasificación complejas mediante la creación iterativa de características
         relacionales de las entradas para representar el mismo problema con
         menos categorías de entradas. Se motiva en la hipótesis de redescripción
         representacional, de las ciencias cognitivas.
       ♠ TD-ART : Red ART con retardos en el tiempo para el aprendizaje de
         patrones espacio-temporales.


4. ARQUITECTURA :

        Una red ART esta compuesta por una capa de entrada con N neuronas y
una de salida con M neuronas. Entre ambas se presentan conexiones feedback y
feedforward. Las neuronas de la capa de salida se encuentran interconectadas y
presentan conexiones autorrecurrentes.




     En la capa de salida los pesos son fijos, siendo 1 los de las conexiones
autorecurrentes y -    en las conexiones laterales. Este valor negativo contribuye a
la competitividad entre las neuronas de esta capa, y debe ser menor que 1/M. En
los pesos de las conexiones feedforward y feedback, definidos como wji y vij, se va
a almacenar la información de la red.

     Sin embargo una red ART no puede ser descrita con un modelo sencillo de red
de dos capas, como en la figura anterior. El modo de funcionamiento de la red
determina la existencia de dos subsistemas: el de atención y el de orientación.
Una red ART tiene 4 componentes:
 Una memoria de corto plazo (STM) para evaluar patrones de entrada.
 Una memoria de largo plazo (LTM) para almacenar categorías.
 Un subsistema de atención para centrarse en rasgos importantes de los patrones
  de entrada.
 Uno subsistema de orientación para impedir que la LTM aprenda patrones sin
  importancia.
4.1. El Subsistema de Atención :

        El subsistema de atención consiste básicamente en el reconocimiento y
clasificación de las informaciones aprendidas. En este subsistema se localiza la
memoria a largo plazo de la red (LTM)(Long Term Memory), compuesta por los
pesos Wji y Vij de las conexiones entre las neuronas de las capas de entrada y
salida, que confieren a la red su característica de estabilidad, en el sentido de
retener las informaciones aprendidas. Como complemento a la anterior, existe
también una memoria a corto plazo (STM)(Short Term Memory), localizada en la
entrada y en la salida de la red, que se refiere a la capacidad de recordar aspectos
más inmediatos mediante la retención temporal de los valores de entrada en las
neuronas que componen las capas de entrada y salida.

       Otra parte del subsistema de atención, es el control de ganancia de
atención, que actúa sobre las neuronas de entrada (STM(ne)) para estabilizar el
funcionamiento de la red, aumentando la sensibilidad o grado de atención de estas
neuronas, evitando una posible anticipación respecto a la llegada de la información
del siguiente patrón a través de las conexiones feedback (Vij).

       Aunque no lo consideramos, puede existir otro control de ganancia que, en
función de las salidas de las neuronas de la capa de entrada, actúe sobre las de
salida para mejorar su reacción ante los patrones de entrada.

4.2. El Subsistema de Orientación :

       El subsistema de orientación se utiliza para detectar si la información de
entrada pertenece o no a una determinada categoría conocida por la red, para lo
cual se calcula el porcentaje de semejanza entre dicha información y el
representante (prototipo) de cada categoría almacenada en los pesos Vij (LTM), que
deberá ser superior al valor de un parámetro p, denominado parámetro de
vigilancia. Si no es así este subsistema resetea la neurona vencedora de la capa de
salida y prueba con otra categoría. Si ninguna es suficientemente parecida se crea
una nueva clase, de la que será prototipo la información de entrada. Por tanto, el
subsistema de atención realiza la tarea de reconocimiento (búsqueda de la salida a
la que pertenece la entrada), mientras que el subsistema de orientación actúa sobre
el primero, permitiéndole responder a entradas no pertenecientes a ninguna
categoría, creando para ellas nuevas clases.

      Entonces la arquitectura simplificada, debería ser completada añadiendo dos
neuronas que permitan implementar las funciones de control de ganancia y del
subsistema de atención. La estructura completa de la red sería la indicada en la
siguiente gráfica:
Aquí, el nodo reset (R) tiene un funcionamiento especial: su misión es recibir
las salidas de las neuronas de entrada a través de conexiones con peso -1 junto con
los valores del patrón de entrada a la red a través de conexiones con pesos iguales
al parámetro de vigilancia de la red, para compararlo, y si no son suficientemente
parecidos, activar la salida correspondiente para, a través de una conexión de
inhibición con peso negativo de gran valor (-N), conseguir anular el efecto de las
neuronas que se ha comprobado que no representan la categoría adecuada para el
patrón de entrada.


       La neurona G es la que permite el control de ganancia de atención. Para ello
recibe como entrada los valores de las neuronas de las capas de salida a través de
conexiones con pesos -N y los del patrón de entrada mediante conexiones con peso
igual a la unidad, generando, mediante una función de activación escalón, una
salida que se aplicará a las neuronas de la capa de entrada de la red para ayudar a
la activación de las neuronas de esta capa en función de la cantidad de neuronas de
salida activadas. De esta forma se puede aplicar la regla de activación denominada
Regla 2/3, que indica que una neurona de la capa de entrada se activará (salida 1)
cuando 2 de las 3 entradas que recibe (patrones de entrada, neurona G y
conexiones Vij) esté activa (tenga valor 1).




.
La salida generada por la neurona G, que va a tener un umbral de valor ½
es:




                                                         N             M

                                                      ∑e             − N∑s
                                                               k
                                   1                                                     ≥ 0.5
                                                     i =1
                                                               i
                                                                        j =1
                                                                                   ns j
                              sG =                     N                M
                                   0                 ∑e             − N∑ s
                                                                k
                                                                                          < 0.5
                                   
                                                      i =1
                                                               i
                                                                        j =1
                                                                                   ns j

      La entrada neta de cada neurona de la capa de entrada es:

                                                              M
                                                   = ei + ∑ vij s
                                                      k
                                      net ne   i
                                                              j =1
                                                                        ns j
                                                                                   + sG

     Por tanto, la salida general por cada neurona de entrada, considerando un
umbral de 1.5 es:




                                           1
                                                                  net ne ≥ 1.5
                                      snei 0
                                          =
                                                                   net ne < 1.5
                                                                               i



                                                                              i




     Pero al trabajar con valores binarios (1/0) y con los umbrales indicados
queda:
                         k

                       ei                 Si ninguna salida esta activada (s                            =0   ∀j)
        snei = ek ⋅ ∑ v s
                     M                                                                            sn j
                i          ij ns j                                         En otro caso
                    j =1



      En cuanto al nodo de reset (R), este va a tener M salidas, una por neurona de
la capa de salida de la red, de las cuales se podrá activar una cada vez, la
correspondiente a la neurona a resetear.
Su función de activación será:
                                                             N

                                                            ∑  ρ e − sne  > 0
                                                                        k
                                                                         
                         Reset de ns j                                i
                                                                          
                      sR  0
                        =
                                                                                  i
                                                             i =1
                                                              N

                                                            ∑  ρ e − sne  ≤ 0
                                                                        k
                                                                         
                                                              
                                                             i =1
                                                                        i
                                                                                 i


siendo ρ el parámetro de vigilancia:
                                               N  s 
                                             ∑  nei  < ρ
                                                   k 
                                             i =1
                                                   ei 
       Este nodo R se podría implementar como un conjunto de M neuronas
(R1....RM)que reciben las mismas entradas. Las salidas de cada una de estas
neuronas (Rj) se conectaría a la entrada de la correspondiente neurona de la capa
de salida de la red (nsj) a través de conexiones con un peso negativo de un gran
valor con una función de transferencia de tipo escalón, pero con un umbral
dependiente del valor de salida de la neurona de la red a la que esta conectada, de
tal forma que si es la neurona ganadora, se podrá producir el reset, lo que consigue
mediante la activación de la neurona Rj, se inhiba a nsj. El resto de las neuronas de
r generarán una salida de valor 0. Puede comprobarse que esto se consigue si el
umbral dela función de activación de cada neurona Rj fuese θ j = N 1 − s nsj .                 (   )

5.FUNCIONAMIENTO:

El funcionamiento de una red ART puede describirse deforma simplificada a través
de la siguiente secuencia de pasos:

1) Se presenta una información (vector) de entrada a la red:

                                            E k = (e1k ,..., e Nk ) )
                                                               (




2) Cada neurona (nei) de la capa de entrada recibe el valor del componente
   correspondiente (ei^k) del vector y lo envía a todas las neuronas de la capa de
   salida a través de las conexiones correspondientes (wji).

3) Cada neurona (nsj) de la capa de salida compite con las demás de esta capa
   hasta que solo una permanece activa. Las conexiones laterales son las que
   permiten realizar esta competición, y tienen un peso con un valor fijo –épsilon
   que debe ser menor que 1/M, siendo M él numero de neuronas de la capa de
   salida, para que la competición funcione correctamente:

                                                          N               N               
                     S ns j (t + 1) = f  s ns j (t ) + ε ∑ s ns p (t ) + ∑ w ji s nei (t )
                                                         p =1            i =1             

   Siendo f la función de transferencia de tipo escalón de las neuronas de salida.
Después de cierto numero de iteraciones, se llega a una situación de estabilidad
   en que una de las neuronas resulta vencedora, generando una salida de valor 1,
   mientras que en las demás salidas la salida es 0. Como los pesos de las
   conexiones laterales de inhibición tienen el mismo valor (-épsilon), así como las
   autorrecurrentes (+1), es evidente que el factor a tener en cuenta para saber
   cual es la neurona vencedora será la entrada que recibe cada neurona a través
   de las conexiones feedforward con pesos wji provenientes de la capa de entrada.
   Así los valores de salida al final de la competición se pueden obtener más
   fácilmente mediante la siguiente expresión:

                                                        n              
                                   s ns j = 1 ____ MAX  ∑ w ji ei( k ) 
                                                        I =1           

                                             s ns j = 0 ____ resto

4) La neurona vencedora (nsj), envía su salida (1) a través de las conexiones hacia
   atrás (vij). Cada neurona i-ésima de la capa de entrada recibe el valor:

                         M
                   xi = ∑ vij s ns j = vij                                    s ns j = 1 ___ j = j *
                                                    porque
                         j =1
                                                                              s ns j = 0 ___ j ≠ j *

   Por tanto, al no influir el resto de las neuronas de salida por estar inactivas (0),
   en la capa de entrada se reciben los valores de los pesos de las conexiones
   correspondientes.

5) Se compara la información de entrada

                                                     (
                                             E k = e1( k ) ,..., e Nk )
                                                                   (
                                                                          )
   Con la información

                                                          (                    )
                                X = ( x1 ,..., x N ) = v1 j * ,..., v Nj * = V j *

   Recibida en la capa de entrada desde la salida a través de las conexiones hacia
   atrás. Hay que resaltar que el valor X (y por tanto vj)es en realidad el
   representante o prototipo de la clase o categoría j-ésima si la neurona que se ha
   activado , la vencedora, ha sido la neurona de salida nsj. Esta comparación se
   hace valorando la siguiente relación de semejanza:

                                                                || E k ⋅ X || || E k ⋅ V j ||
                     Re lacion _ de _ semejanza =                            =
                                                                   || E k ||     || E k ||
N
                                || E k ⋅ X ||= ∑ ei( k ) xi
                                                i =1



                                               N
                                   || E k ||= ∑ ei( k )
                                               i =1




  Al trabajar con valores binarios (0/1), el producto aritmético equivale al lógico
  (operación AND), y por tanto, lo que representa ||EkX|| es él numero de
  componentes binarios (bits) con valor 1 que coinciden en los vectores Ek y X. En
  caso de que fueran exactamente iguales, este valor coincidiría con ||Ek||, y la
  relación de semejanza seria la unidad (el parecido es del 100%). Si Ek y X no
  coinciden en ningún bit, entonces ||EkX||=0 y el parecido seria del 0%.

6) Se compara la relación de semejanza entre ambas informaciones con un
  parámetro de vigilancia (ρ) cuyo valor será fijado por el usuario en un rango de
  0 a 1 y que influirá en él numero de clases que establecerá la red, ya que cuanto
  mayor sea su valor, se esta pidiendo al sistema que discrimine con mayor
  precisión, de tal forma que si ρ=1 se estará indicando que a una clase solo
  pueden pertenecer patrones que sean exactamente iguales.

  Si se cumple que:

                                    || E k ⋅ X ||
                                                  <ρ
                                       || E k ||
  Entonces la neurona vencedora nsj, no representa la apropiada categoría a la
  que pertenece la información de entrada Ek y es desestimada, se resetea o
  elimina del conjunto de posibles neuronas vencedoras. Esto puede hacerse como
  se indico en el apartado anterior mediante un nodo adicional (R) que actúe sobre
  nsj, a través de una conexión de fuerte inhibición, con peso negativo de gran
  valor absoluto.

  En este punto se pueden dar dos situaciones:

  a) Si todavía quedan neuronas de salida que no hayan sido desestimadas, se
     repite el proceso de búsqueda de la categoría a la que pertenece la entrada
     (paso 2) anulando (reseteando) temporalmente la neurona vencedora para
     que no influya en la repetición del proceso de competición.

  b) Si no queda ninguna neurona candidata por que ya se ha repetido el proceso,
     considerando como vencedoras cada una de las neuronas de salida, entonces
     se produce una situación de saturación de la red, ya que no se puede crear
     una nueva categoría para el patrón , al no existir ninguna neurona de salida
     que pueda asociarse a la nueva clase. Podría solucionarse el problema
     ampliando el numero de neuronas de salida de la red de forma dinámica, ya
que los nuevos pesos no afectarían representantes ya almacenados en el
      resto de conexiones (wji, vij) que componen la memoria a largo plazo de la
      red. En este caso si se amplia en una unidad se inicializan los pesos de las
      nuevas conexiones, y se repite el proceso desde el paso 4. Como inicialmente
      los pesos tienen el valor 1, la relación de semejanza será del 100% con lo
      que se estaría en la situación prevista en el paso 7 que se describe a
      continuación.

7) Si la semejanza evaluada es igual o mayor que el parámetro de vigilancia,
   entonces
   se asume que la neurona que se ha activado a la salida es la que representa la
   categoría mas apropiada para la información de entrada Ek, procediéndose a
   ajustar los pesos vij y wji de la red (memoria a largo plazo) para que el nuevo
   prototipo almacenado para representar dicha categoría incorpore algunas
   características del dato de entrada. Como la red descrita trabaja con datos
   binarios, esto consiste en una operación lógica AND entre los bits del prototipo
   (vij) y los del patrón de entrada (ei^k). Por este motivo inicialmente los pesos
   vij se inicializan a 1, para que cuando se almacene el primer representante de
   cada clase, el prototipo coincida exactamente con el patrón de entrada.

En realidad la secuencia de pasos descrita viene a decir que cuando entra en
funcionamiento una red ART se produce una búsqueda a través de los prototipos
almacenados y asociados a cada clase o categoría, con la pretensión de encontrar
uno lo suficientemente parecido a la información presentada a la entrada de la red.
Si esta categoría no existe, se crea una nueva, la cual es prototipo de dicha
información.

       La red ART por lo tanto permite establecer clases de datos. Recibiendo datos
de entrada y activando la salida que indique la categoría o clase a la que pertenece.
Si en la capa de salida hay N neuronas, el numero de categorías que se establecen
es N. Los prototipos o representantes de las clases son los pesos vij de las
conexiones. Para extraerlos de la red, se puede añadir una nueva capa de neuronas
a la salida con un numero de neuronas igual al de la capa de entrada, y con pesos
iguales a los anteriores (vij).
                                S1         ......   Si         ......
                                SN



                                     .......         .......
                                     .               .


                     V11                                                VNM


                               RED ART




                                 e1 . . . . . .     ei    ........
                           .     eN
Ampliación de la red ART para la extracción de prototipos.

6. APRENDIZAJE :

       El aprendizaje en el modelo ART es de tipo ON LINE, por lo que no se
distingue entre etapa de entrenamiento y de funcionamiento. Los pesos varían
durante el funcionamiento de la red cuando se aplica una información de entrada a
la misma.

      La red ART utiliza un aprendizaje no supervisado de tipo competitivo. Las
neuronas de la capa de salida compiten por activarse y solo una de ellas permanece
activa ante una determinada entrada a la red. Los pesos de las conexiones se
ajustan en función de la neurona que haya resultado ganadora.

      En este tipo de redes se pueden dar dos tipos de aprendizaje, denominados
aprendizaje lento y aprendizaje rápido. El aprendizaje lento ocurre cuando una
información de entrada es asociada a una de las categorías existentes. Entonces se
debe proceder a ajustar los pesos para que el representante de dicha clase se
adapte a las características del dato de entrada. El aprendizaje rápido se da cuando
se establece una nueva categoría, y consiste en representar de forma inmediata la
información de entrada, que será el prototipo de la nueva clase, en los pesos de la
red.
      Inicialmente, cuando la red no ha aprendido todavía ninguna información, se
asigna el valor 1 a los pesos de las conexiones hacia atrás (vij).

      En estos pesos se distribuyen los M prototipos de las M diferentes clases que
es capaz de diferenciar la red. Los pesos de las conexiones hacia delante (wji)
tienen el mismo valor que los vij pero normalizado:

                                               vij
                                   w ji =          N
                                            γ + ∑ vij
                                                i =1


γ es un valor pequeño , normalmente se utiliza 0.5, aunque en la inicialización de
los pesos se recomienda como valor la unidad. Por tanto, inicialmente el valor de
pesos es:

                                     vij (t = 0) = 1

                                                     1
                                  w ji (t = 0) =
                                                   1+ N
Después, cada vez que se presente una información

                                      E k = (e1( k ) ,..., e Nk ) )
                                                             (




       A la red, se realiza el aprendizaje o ajuste de los pesos de las conexiones vij,
de la neurona vencedora con cada una de las N de la capa de entrada, en función de
la diferencia entre esta información y la del representante o prototipo de la clase a
la que se ha asociado. En general la variación de los pesos vij se realiza según la
siguiente ecuación diferencial:

                                     dvij
                                      dt
                                                      (
                                            = s ns j s nei − vij        )
       Si la neurona de salida nsj no es la vencedora, el valor de su salida es cero
(Snsj=0), con lo que no debe producirse variación en el peso correspondiente
(dv/dt=0). Por el contrario, si la neurona es la vencedora, su salida es 1 (Snsj=1),
con lo que la variación del peso vij, seria

                                     dvij
                                      /
                                      dt
                                               (
                                            = vij * ei( k ) − vij *      )
      Según esta expresión, el nuevo valor del peso se obtendría como:


                                    vij * (t + 1) = vij* (t )ei( k )
      Siendo ei^k el valor del componente i-ésimo de la información de entrada.
      Los pesos wji se obtienen normalizando los anteriores:

                                                          vij * (t )ei( k )
                               w j *i (t + 1) =             N
                                                   γ + ∑ vij* (t )ei( k )
                                                           i =1


      Donde γ suele tener el valor de 0.5.

7. LIMITACIONES DE LA RED ART :

       Aunque la red ART es una de los más potentes modelos con capacidad
autoorganizativa, sin supervisión, existen algunas limitaciones importantes a tener
en cuenta que dificultan la tarea de clasificación realizada por la red. Estas
limitaciones se refieren, sobre todo, a su dependencia del respecto del tipo y orden
de las informaciones aprendidas y a la influencia del parámetro de vigilancia en él
numero de categorías creadas por la red, ya que pequeños cambios de este
parámetro pueden originar un gran numero de categorías.

      Se trata de una red con gran sensibilidad ante el ruido o distorsión, también
ante el desplazamiento de los datos de entrada, que pueden dar lugar a una gradual
degradación de los prototipos correspondientes, debido al carácter destructivo
(operación AND de una dato de entrada y el prototipo) de la regla de aprendizaje
que realiza la adaptación de los pesos. Sin embargo, si estos datos de entrada son
sometidos a un adecuado procesamiento, la red ART puede ser útil para realizar una
posterior tarea de clasificación o categorización.

      También este modelo presenta el problema de la ineficiencia en cuanto a las
necesidades requeridas para el almacenamiento de los pesos de las conexiones
entre neuronas. Hay que tener en cuenta que se precisan 2*N para representar
cada categoría de N bits, además de las conexiones laterales y autorrecurrentes de
la capa de salida y las de las neuronas espaciales de orientación (R) y control de
ganancia (G).

      Además otra evidente limitación del modelo original es su carácter discreto,
obligando a trabajar con informaciones binarias. Este problema fue rápidamente
solventado por sus creadores a través de una extensión continua del modelo, al que
denominaron ART2 para diferenciarlo del original, que suele ser conocido como
ART1.

8. LA RED ART2 :

       La red ART2 es una versión continua del modelo de resonancia adaptativa
propuesta por Carpenter y Grossberg en 1987. Esta red puede clasificar vectores
de entrada reales (o es calas de grises), además de componentes binarios. Esta
capacidad implica una mejora del sistema. Esta nueva red tiene la misma
arquitectura que la original ART, pero en este caso los pesos de las conexiones
feedforward y feedback son iguales (Wji=Vij).también su funcionamiento es
diferente en algunos aspectos.




                           Estructura de una red ART-2
Esta red se diferencia de la ART(ART1) en la capacidad para tratar tramas
analógicas. Aparte del hecho evidente en que las tramas binarias y las analógicas
difieren en la naturaleza de sus componentes respectivos, la ART2 debe enfrentarse
a complicaciones adicionales; debe ser capaz de reconocer la similitud subyacente
de tramas idénticas que se superpongan a fondos constantes que posean distintos
niveles. Comparadas en un sentido absoluto, dos tramas como éstas pueden tener
un aspecto completamente distinto, aun cuando lo cierto es que deberían ser
clasificadas como una misma trama. El precio de esta capacidad adicional es sobre
todo un aumento de complejidad en el nivel de procesamiento de la capa de
entrada, es decir que el nivel de la capa de entrada consta ahora de varios
subniveles y varios sistemas de control de ganancia.


9. APLICACIONES :

   Las redes ART se han utilizado, entre otras, en las siguientes aplicaciones:

       •   Reconocimiento de imágenes: Para este fin, se divide la imagen en
           pixeles y se crea con ellos una matriz que alimentara la entrada de la red.
           La gran capacidad de categorización de las redes ART hacen que
           aplicaciones concretas en este campo, como son el reconocimiento de
           caracteres sean de gran efectividad.

       •   Reconocimiento de señales análogas: Para este fin se emplean redes
           ART2 (entradas y salidas análogas). Las aplicaciones concretas en este
           campo son el reconocimiento de voz y el reconocimiento de señales de
           electrocardiogramas para el diagnostico de enfermedades cardiacas,
           entre otras.

       •   Reconocimiento de olores ("nariz electrónica"): A simple vista esto
           puede parecer una broma, pero los investigadores Paul E. Keller, Lars J.
           Kangas, Lars H. Liden, Sherif Hashem y Richard T. Kouzes han realizado
           investigaciones en este campo y han obtenido un prototipo de "nariz
           electrónica":     Este tipo de dispositivos se ha desarrollado para el
           reconocimiento de olores, gases y vapores presentes en el aire. Esta
           compuesto por un sensor químico y un sistema de reconocimiento de
           patrones (red neuronal artificial, por supuesto). Se han empleado redes
           backpropagation y fuzzy ARTmap. Las aplicaciones de este tipo de
           dispositivos no son pocas:
             • En el campo ambiental, se están utilizando para la detección
                 sustancias tóxicas, emisiones de fabricas, monitoreo de la calidad
                 del aire, detección de derrames etc.
             • En la medicina se puede emplear en el diagnostico de enfermedades
                 mediante el análisis del aire exhalado, y emanaciones provenientes
                 de fluidos corporales como la sangre u orines.
             • En la industria alimenticia esta empleando este dispositivo para la
                 inspección de la calidad de los alimentos según su olor, control de
                 fermentación, etc.
10. BIBLIOGRAFÍA:

  •   http://maxwell.univalle. edu.co/proyectos/rna/
  •   http://maxwell.univalle.edu.co/proyectos/rna/ART1/
  •   http://maxwell.univalle.edu.co/proyectos/rna/ART1/
  •   http://maxwell.univalle.edu.co/proyectos/rna/ART1/
  •   http://maxwell.univalle.edu.co/proyectos/rna/ART2/
  •   http://maxwell.univalle.edu.co/proyectos/rna/ART2/texto_arqART1.html
  •   http://maxwell.univalle.edu.co/proyectos/rna/ART2/1.2._subsistema_de_orie
      ntacion1.html
  •   http://maxwell.univalle.edu.co/proyectos/rna/ART2/funcionamiento.html
  •   http://maxwell.univalle.edu.co/proyectos/rna/ART2/aplicacion.html
  •   http://www.wi.leidenuniv.nl/art/
  •   http://www.nd.com/appcornr/purpose.htm
  •   http://www.emsl.pnl.gov:2080/proj/neuron/neural/
  •   http://www.ism.ac.ru/nn/doc/nbdoc/koi8/art1.htm
  •   http://www.mcs.vuw.ac.nz/comp/Publications/CS-TR-94-1.abs.html
  •   http://www.ie.inf.uc3m.es/Tesis/Documentos/ProcesosSoftware/RedesNeuron
      ales/MejoraRedesNeuronales.html

More Related Content

What's hot

RED De Retro-propagación Neuronal
RED De Retro-propagación NeuronalRED De Retro-propagación Neuronal
RED De Retro-propagación NeuronalESCOM
 
Regla de aprendizaje del perceptrón simple
Regla de aprendizaje del perceptrón simpleRegla de aprendizaje del perceptrón simple
Regla de aprendizaje del perceptrón simpleAndrea Lezcano
 
Aprendizaje Supervisado | Redes Neuronales Perceptron | Jose Luis Bugarin
Aprendizaje Supervisado | Redes Neuronales Perceptron | Jose Luis BugarinAprendizaje Supervisado | Redes Neuronales Perceptron | Jose Luis Bugarin
Aprendizaje Supervisado | Redes Neuronales Perceptron | Jose Luis BugarinJose Luis Bugarin Peche
 
Redes neuronales multicapa y monocapa
Redes neuronales multicapa y monocapaRedes neuronales multicapa y monocapa
Redes neuronales multicapa y monocapaLevy GT
 
48690471 redes-neuronales
48690471 redes-neuronales48690471 redes-neuronales
48690471 redes-neuronalesjcbenitezp
 
REDES NEURONALES COMPETITIVAS HAMMING
REDES NEURONALES COMPETITIVAS HAMMINGREDES NEURONALES COMPETITIVAS HAMMING
REDES NEURONALES COMPETITIVAS HAMMINGESCOM
 
Redes Neuronales Como Memorias Asociativas Difusas
Redes Neuronales Como Memorias Asociativas DifusasRedes Neuronales Como Memorias Asociativas Difusas
Redes Neuronales Como Memorias Asociativas DifusasESCOM
 
Algoritmo de Retropropagación
Algoritmo de RetropropagaciónAlgoritmo de Retropropagación
Algoritmo de RetropropagaciónESCOM
 
RNN & LSTM: Neural Network for Sequential Data
RNN & LSTM: Neural Network for Sequential DataRNN & LSTM: Neural Network for Sequential Data
RNN & LSTM: Neural Network for Sequential DataYao-Chieh Hu
 
backpropagation in neural networks
backpropagation in neural networksbackpropagation in neural networks
backpropagation in neural networksAkash Goel
 
Las Redes de Hopfield
Las Redes de HopfieldLas Redes de Hopfield
Las Redes de HopfieldSpacetoshare
 
Redes neuronales tipo Art
Redes neuronales tipo ArtRedes neuronales tipo Art
Redes neuronales tipo ArtESCOM
 
Características de las Redes Neuronales
Características de las Redes NeuronalesCaracterísticas de las Redes Neuronales
Características de las Redes NeuronalesESCOM
 
Recurrent Neural Networks, LSTM and GRU
Recurrent Neural Networks, LSTM and GRURecurrent Neural Networks, LSTM and GRU
Recurrent Neural Networks, LSTM and GRUananth
 
Recurrent Neural Network (RNN) | RNN LSTM Tutorial | Deep Learning Course | S...
Recurrent Neural Network (RNN) | RNN LSTM Tutorial | Deep Learning Course | S...Recurrent Neural Network (RNN) | RNN LSTM Tutorial | Deep Learning Course | S...
Recurrent Neural Network (RNN) | RNN LSTM Tutorial | Deep Learning Course | S...Simplilearn
 
REDES NEURONALES Aprendizaje Competitivo Cooperativo
REDES NEURONALES Aprendizaje Competitivo CooperativoREDES NEURONALES Aprendizaje Competitivo Cooperativo
REDES NEURONALES Aprendizaje Competitivo CooperativoESCOM
 
Deep Learning - Overview of my work II
Deep Learning - Overview of my work IIDeep Learning - Overview of my work II
Deep Learning - Overview of my work IIMohamed Loey
 
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALESINTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALESESCOM
 

What's hot (20)

RED De Retro-propagación Neuronal
RED De Retro-propagación NeuronalRED De Retro-propagación Neuronal
RED De Retro-propagación Neuronal
 
Regla de aprendizaje del perceptrón simple
Regla de aprendizaje del perceptrón simpleRegla de aprendizaje del perceptrón simple
Regla de aprendizaje del perceptrón simple
 
Aprendizaje Supervisado | Redes Neuronales Perceptron | Jose Luis Bugarin
Aprendizaje Supervisado | Redes Neuronales Perceptron | Jose Luis BugarinAprendizaje Supervisado | Redes Neuronales Perceptron | Jose Luis Bugarin
Aprendizaje Supervisado | Redes Neuronales Perceptron | Jose Luis Bugarin
 
Redes neuronales multicapa y monocapa
Redes neuronales multicapa y monocapaRedes neuronales multicapa y monocapa
Redes neuronales multicapa y monocapa
 
48690471 redes-neuronales
48690471 redes-neuronales48690471 redes-neuronales
48690471 redes-neuronales
 
REDES NEURONALES COMPETITIVAS HAMMING
REDES NEURONALES COMPETITIVAS HAMMINGREDES NEURONALES COMPETITIVAS HAMMING
REDES NEURONALES COMPETITIVAS HAMMING
 
Redes Neuronales Como Memorias Asociativas Difusas
Redes Neuronales Como Memorias Asociativas DifusasRedes Neuronales Como Memorias Asociativas Difusas
Redes Neuronales Como Memorias Asociativas Difusas
 
Algoritmo de Retropropagación
Algoritmo de RetropropagaciónAlgoritmo de Retropropagación
Algoritmo de Retropropagación
 
RNN & LSTM: Neural Network for Sequential Data
RNN & LSTM: Neural Network for Sequential DataRNN & LSTM: Neural Network for Sequential Data
RNN & LSTM: Neural Network for Sequential Data
 
backpropagation in neural networks
backpropagation in neural networksbackpropagation in neural networks
backpropagation in neural networks
 
Las Redes de Hopfield
Las Redes de HopfieldLas Redes de Hopfield
Las Redes de Hopfield
 
Redes neuronales tipo Art
Redes neuronales tipo ArtRedes neuronales tipo Art
Redes neuronales tipo Art
 
Características de las Redes Neuronales
Características de las Redes NeuronalesCaracterísticas de las Redes Neuronales
Características de las Redes Neuronales
 
Recurrent Neural Networks, LSTM and GRU
Recurrent Neural Networks, LSTM and GRURecurrent Neural Networks, LSTM and GRU
Recurrent Neural Networks, LSTM and GRU
 
Recurrent Neural Network (RNN) | RNN LSTM Tutorial | Deep Learning Course | S...
Recurrent Neural Network (RNN) | RNN LSTM Tutorial | Deep Learning Course | S...Recurrent Neural Network (RNN) | RNN LSTM Tutorial | Deep Learning Course | S...
Recurrent Neural Network (RNN) | RNN LSTM Tutorial | Deep Learning Course | S...
 
Art network
Art networkArt network
Art network
 
REDES NEURONALES Aprendizaje Competitivo Cooperativo
REDES NEURONALES Aprendizaje Competitivo CooperativoREDES NEURONALES Aprendizaje Competitivo Cooperativo
REDES NEURONALES Aprendizaje Competitivo Cooperativo
 
Perceptron parte 1
Perceptron parte 1Perceptron parte 1
Perceptron parte 1
 
Deep Learning - Overview of my work II
Deep Learning - Overview of my work IIDeep Learning - Overview of my work II
Deep Learning - Overview of my work II
 
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALESINTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
 

Viewers also liked

redes neuronales Som
redes neuronales Somredes neuronales Som
redes neuronales SomESCOM
 
redes neuronales tipo Som
redes neuronales tipo Somredes neuronales tipo Som
redes neuronales tipo SomESCOM
 
Teoría de Resonancia Adaptativa Art2 ARTMAP
Teoría de Resonancia Adaptativa Art2 ARTMAPTeoría de Resonancia Adaptativa Art2 ARTMAP
Teoría de Resonancia Adaptativa Art2 ARTMAPESCOM
 
Combining LEARNING FOR Multilayer Nets CO
Combining LEARNING FOR Multilayer Nets COCombining LEARNING FOR Multilayer Nets CO
Combining LEARNING FOR Multilayer Nets COESCOM
 
GAlib: A C++ Library of Genetic Algorithm Components
GAlib: A C++ Library of Genetic Algorithm ComponentsGAlib: A C++ Library of Genetic Algorithm Components
GAlib: A C++ Library of Genetic Algorithm ComponentsESCOM
 
Two algorithms to accelerate training of back-propagation neural networks
Two algorithms to accelerate training of back-propagation neural networksTwo algorithms to accelerate training of back-propagation neural networks
Two algorithms to accelerate training of back-propagation neural networksESCOM
 
red neuronal Som Net
red neuronal Som Netred neuronal Som Net
red neuronal Som NetESCOM
 
redes neuronales Kohonen
redes neuronales Kohonenredes neuronales Kohonen
redes neuronales KohonenESCOM
 
Funciones De Matlab En Redes Hopfield
Funciones De Matlab En Redes HopfieldFunciones De Matlab En Redes Hopfield
Funciones De Matlab En Redes HopfieldESCOM
 
Self Organinising neural networks
Self Organinising  neural networksSelf Organinising  neural networks
Self Organinising neural networksESCOM
 
Introduccion a las redes neuronales
Introduccion a las redes neuronalesIntroduccion a las redes neuronales
Introduccion a las redes neuronalesHALCONPEREGRINO2
 
Neocognitron
NeocognitronNeocognitron
NeocognitronESCOM
 
Construccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
Construccion , Diseño y Entrenamiento de Redes Neuronales ArtificialesConstruccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
Construccion , Diseño y Entrenamiento de Redes Neuronales ArtificialesESCOM
 

Viewers also liked (13)

redes neuronales Som
redes neuronales Somredes neuronales Som
redes neuronales Som
 
redes neuronales tipo Som
redes neuronales tipo Somredes neuronales tipo Som
redes neuronales tipo Som
 
Teoría de Resonancia Adaptativa Art2 ARTMAP
Teoría de Resonancia Adaptativa Art2 ARTMAPTeoría de Resonancia Adaptativa Art2 ARTMAP
Teoría de Resonancia Adaptativa Art2 ARTMAP
 
Combining LEARNING FOR Multilayer Nets CO
Combining LEARNING FOR Multilayer Nets COCombining LEARNING FOR Multilayer Nets CO
Combining LEARNING FOR Multilayer Nets CO
 
GAlib: A C++ Library of Genetic Algorithm Components
GAlib: A C++ Library of Genetic Algorithm ComponentsGAlib: A C++ Library of Genetic Algorithm Components
GAlib: A C++ Library of Genetic Algorithm Components
 
Two algorithms to accelerate training of back-propagation neural networks
Two algorithms to accelerate training of back-propagation neural networksTwo algorithms to accelerate training of back-propagation neural networks
Two algorithms to accelerate training of back-propagation neural networks
 
red neuronal Som Net
red neuronal Som Netred neuronal Som Net
red neuronal Som Net
 
redes neuronales Kohonen
redes neuronales Kohonenredes neuronales Kohonen
redes neuronales Kohonen
 
Funciones De Matlab En Redes Hopfield
Funciones De Matlab En Redes HopfieldFunciones De Matlab En Redes Hopfield
Funciones De Matlab En Redes Hopfield
 
Self Organinising neural networks
Self Organinising  neural networksSelf Organinising  neural networks
Self Organinising neural networks
 
Introduccion a las redes neuronales
Introduccion a las redes neuronalesIntroduccion a las redes neuronales
Introduccion a las redes neuronales
 
Neocognitron
NeocognitronNeocognitron
Neocognitron
 
Construccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
Construccion , Diseño y Entrenamiento de Redes Neuronales ArtificialesConstruccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
Construccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
 

Similar to IPN-Sistemas Neurodifusos

Teoria Resonancia Adaptativa
Teoria Resonancia AdaptativaTeoria Resonancia Adaptativa
Teoria Resonancia AdaptativaESCOM
 
Presentacion Art Gal
Presentacion Art GalPresentacion Art Gal
Presentacion Art GalESCOM
 
ART - Pequeña presentacion
ART - Pequeña presentacionART - Pequeña presentacion
ART - Pequeña presentacionnaruto3098
 
Función de transferencia compet
Función de transferencia competFunción de transferencia compet
Función de transferencia competRichar León
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronalesLiz3113
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronalesLiz3113
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronaleseyyc
 
Cap 3 redes neuronales
Cap 3 redes neuronalesCap 3 redes neuronales
Cap 3 redes neuronalesLevy GT
 
Cap 3 redes neuronales
Cap 3 redes neuronalesCap 3 redes neuronales
Cap 3 redes neuronalesLevy GT
 
Redes neuronales funciones de activación logsig y tansig
Redes neuronales funciones de activación logsig y tansigRedes neuronales funciones de activación logsig y tansig
Redes neuronales funciones de activación logsig y tansigJefferson Sarmiento
 

Similar to IPN-Sistemas Neurodifusos (20)

Teoria Resonancia Adaptativa
Teoria Resonancia AdaptativaTeoria Resonancia Adaptativa
Teoria Resonancia Adaptativa
 
Presentacion Art Gal
Presentacion Art GalPresentacion Art Gal
Presentacion Art Gal
 
ART - Pequeña presentacion
ART - Pequeña presentacionART - Pequeña presentacion
ART - Pequeña presentacion
 
Función de transferencia compet
Función de transferencia competFunción de transferencia compet
Función de transferencia compet
 
redes competitivas
redes competitivasredes competitivas
redes competitivas
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
2º asignacion redes neuronales
2º asignacion redes neuronales2º asignacion redes neuronales
2º asignacion redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
redes neuronales
redes neuronalesredes neuronales
redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Cap 3 redes neuronales
Cap 3 redes neuronalesCap 3 redes neuronales
Cap 3 redes neuronales
 
Ap acompet
Ap acompetAp acompet
Ap acompet
 
Cap 3 redes neuronales
Cap 3 redes neuronalesCap 3 redes neuronales
Cap 3 redes neuronales
 
Redes neuronales funciones de activación logsig y tansig
Redes neuronales funciones de activación logsig y tansigRedes neuronales funciones de activación logsig y tansig
Redes neuronales funciones de activación logsig y tansig
 

More from ESCOM

redes neuronales Som Slides
redes neuronales Som Slidesredes neuronales Som Slides
redes neuronales Som SlidesESCOM
 
ejemplo red neuronal Art1
ejemplo red neuronal Art1ejemplo red neuronal Art1
ejemplo red neuronal Art1ESCOM
 
redes neuronales tipo Art3
redes neuronales tipo Art3redes neuronales tipo Art3
redes neuronales tipo Art3ESCOM
 
Art2
Art2Art2
Art2ESCOM
 
Neocognitron
NeocognitronNeocognitron
NeocognitronESCOM
 
Neocognitron
NeocognitronNeocognitron
NeocognitronESCOM
 
Fukushima Cognitron
Fukushima CognitronFukushima Cognitron
Fukushima CognitronESCOM
 
Counterpropagation NETWORK
Counterpropagation NETWORKCounterpropagation NETWORK
Counterpropagation NETWORKESCOM
 
Counterpropagation NETWORK
Counterpropagation NETWORKCounterpropagation NETWORK
Counterpropagation NETWORKESCOM
 
Counterpropagation
CounterpropagationCounterpropagation
CounterpropagationESCOM
 
Teoría de Resonancia Adaptativa ART1
Teoría de Resonancia Adaptativa ART1Teoría de Resonancia Adaptativa ART1
Teoría de Resonancia Adaptativa ART1ESCOM
 
learning Vector Quantization LVQ2 LVQ3
learning Vector Quantization LVQ2 LVQ3learning Vector Quantization LVQ2 LVQ3
learning Vector Quantization LVQ2 LVQ3ESCOM
 
Learning Vector Quantization LVQ
Learning Vector Quantization LVQLearning Vector Quantization LVQ
Learning Vector Quantization LVQESCOM
 
Learning Vector Quantization LVQ
Learning Vector Quantization LVQLearning Vector Quantization LVQ
Learning Vector Quantization LVQESCOM
 
REDES NEURONALES Mapas con Características Autoorganizativas Som
REDES NEURONALES Mapas   con Características Autoorganizativas  SomREDES NEURONALES Mapas   con Características Autoorganizativas  Som
REDES NEURONALES Mapas con Características Autoorganizativas SomESCOM
 
Unsupervised Slides
Unsupervised SlidesUnsupervised Slides
Unsupervised SlidesESCOM
 
REDES NEURONALES APRENDIZAJE Supervised Vs Unsupervised
REDES NEURONALES APRENDIZAJE Supervised Vs UnsupervisedREDES NEURONALES APRENDIZAJE Supervised Vs Unsupervised
REDES NEURONALES APRENDIZAJE Supervised Vs UnsupervisedESCOM
 
REDES NEURONALES APRENDIZAJE Supervised Vs No Supervised
REDES NEURONALES APRENDIZAJE Supervised Vs No SupervisedREDES NEURONALES APRENDIZAJE Supervised Vs No Supervised
REDES NEURONALES APRENDIZAJE Supervised Vs No SupervisedESCOM
 
REDES NEURONALES Aprendizaje Asociativo
REDES NEURONALES Aprendizaje  AsociativoREDES NEURONALES Aprendizaje  Asociativo
REDES NEURONALES Aprendizaje AsociativoESCOM
 

More from ESCOM (19)

redes neuronales Som Slides
redes neuronales Som Slidesredes neuronales Som Slides
redes neuronales Som Slides
 
ejemplo red neuronal Art1
ejemplo red neuronal Art1ejemplo red neuronal Art1
ejemplo red neuronal Art1
 
redes neuronales tipo Art3
redes neuronales tipo Art3redes neuronales tipo Art3
redes neuronales tipo Art3
 
Art2
Art2Art2
Art2
 
Neocognitron
NeocognitronNeocognitron
Neocognitron
 
Neocognitron
NeocognitronNeocognitron
Neocognitron
 
Fukushima Cognitron
Fukushima CognitronFukushima Cognitron
Fukushima Cognitron
 
Counterpropagation NETWORK
Counterpropagation NETWORKCounterpropagation NETWORK
Counterpropagation NETWORK
 
Counterpropagation NETWORK
Counterpropagation NETWORKCounterpropagation NETWORK
Counterpropagation NETWORK
 
Counterpropagation
CounterpropagationCounterpropagation
Counterpropagation
 
Teoría de Resonancia Adaptativa ART1
Teoría de Resonancia Adaptativa ART1Teoría de Resonancia Adaptativa ART1
Teoría de Resonancia Adaptativa ART1
 
learning Vector Quantization LVQ2 LVQ3
learning Vector Quantization LVQ2 LVQ3learning Vector Quantization LVQ2 LVQ3
learning Vector Quantization LVQ2 LVQ3
 
Learning Vector Quantization LVQ
Learning Vector Quantization LVQLearning Vector Quantization LVQ
Learning Vector Quantization LVQ
 
Learning Vector Quantization LVQ
Learning Vector Quantization LVQLearning Vector Quantization LVQ
Learning Vector Quantization LVQ
 
REDES NEURONALES Mapas con Características Autoorganizativas Som
REDES NEURONALES Mapas   con Características Autoorganizativas  SomREDES NEURONALES Mapas   con Características Autoorganizativas  Som
REDES NEURONALES Mapas con Características Autoorganizativas Som
 
Unsupervised Slides
Unsupervised SlidesUnsupervised Slides
Unsupervised Slides
 
REDES NEURONALES APRENDIZAJE Supervised Vs Unsupervised
REDES NEURONALES APRENDIZAJE Supervised Vs UnsupervisedREDES NEURONALES APRENDIZAJE Supervised Vs Unsupervised
REDES NEURONALES APRENDIZAJE Supervised Vs Unsupervised
 
REDES NEURONALES APRENDIZAJE Supervised Vs No Supervised
REDES NEURONALES APRENDIZAJE Supervised Vs No SupervisedREDES NEURONALES APRENDIZAJE Supervised Vs No Supervised
REDES NEURONALES APRENDIZAJE Supervised Vs No Supervised
 
REDES NEURONALES Aprendizaje Asociativo
REDES NEURONALES Aprendizaje  AsociativoREDES NEURONALES Aprendizaje  Asociativo
REDES NEURONALES Aprendizaje Asociativo
 

Recently uploaded

DETALLES EN EL DISEÑO DE INTERIOR
DETALLES EN EL DISEÑO DE INTERIORDETALLES EN EL DISEÑO DE INTERIOR
DETALLES EN EL DISEÑO DE INTERIORGonella
 
Tarea 5_ Foro _Selección de herramientas digitales_Manuel.pdf
Tarea 5_ Foro _Selección de herramientas digitales_Manuel.pdfTarea 5_ Foro _Selección de herramientas digitales_Manuel.pdf
Tarea 5_ Foro _Selección de herramientas digitales_Manuel.pdfManuel Molina
 
Contextualización y aproximación al objeto de estudio de investigación cualit...
Contextualización y aproximación al objeto de estudio de investigación cualit...Contextualización y aproximación al objeto de estudio de investigación cualit...
Contextualización y aproximación al objeto de estudio de investigación cualit...Angélica Soledad Vega Ramírez
 
Secuencia didáctica.DOÑA CLEMENTINA.2024.docx
Secuencia didáctica.DOÑA CLEMENTINA.2024.docxSecuencia didáctica.DOÑA CLEMENTINA.2024.docx
Secuencia didáctica.DOÑA CLEMENTINA.2024.docxNataliaGonzalez619348
 
Actividad transversal 2-bloque 2. Actualización 2024
Actividad transversal 2-bloque 2. Actualización 2024Actividad transversal 2-bloque 2. Actualización 2024
Actividad transversal 2-bloque 2. Actualización 2024Rosabel UA
 
c3.hu3.p1.p2.El ser humano y el sentido de su existencia.pptx
c3.hu3.p1.p2.El ser humano y el sentido de su existencia.pptxc3.hu3.p1.p2.El ser humano y el sentido de su existencia.pptx
c3.hu3.p1.p2.El ser humano y el sentido de su existencia.pptxMartín Ramírez
 
Fichas de Matemática TERCERO DE SECUNDARIA.pdf
Fichas de Matemática TERCERO DE SECUNDARIA.pdfFichas de Matemática TERCERO DE SECUNDARIA.pdf
Fichas de Matemática TERCERO DE SECUNDARIA.pdfssuser50d1252
 
PLAN DE TUTORIA- PARA NIVEL PRIMARIA CUARTO GRADO
PLAN DE TUTORIA- PARA NIVEL PRIMARIA CUARTO GRADOPLAN DE TUTORIA- PARA NIVEL PRIMARIA CUARTO GRADO
PLAN DE TUTORIA- PARA NIVEL PRIMARIA CUARTO GRADOMARIBEL DIAZ
 
EDUCACION FISICA 1° PROGRAMACIÓN ANUAL 2023.docx
EDUCACION FISICA 1°  PROGRAMACIÓN ANUAL 2023.docxEDUCACION FISICA 1°  PROGRAMACIÓN ANUAL 2023.docx
EDUCACION FISICA 1° PROGRAMACIÓN ANUAL 2023.docxLuisAndersonPachasto
 
TUTORIA II - CIRCULO DORADO UNIVERSIDAD CESAR VALLEJO
TUTORIA II - CIRCULO DORADO UNIVERSIDAD CESAR VALLEJOTUTORIA II - CIRCULO DORADO UNIVERSIDAD CESAR VALLEJO
TUTORIA II - CIRCULO DORADO UNIVERSIDAD CESAR VALLEJOweislaco
 
SIMULACROS Y SIMULACIONES DE SISMO 2024.docx
SIMULACROS Y SIMULACIONES DE SISMO 2024.docxSIMULACROS Y SIMULACIONES DE SISMO 2024.docx
SIMULACROS Y SIMULACIONES DE SISMO 2024.docxLudy Ventocilla Napanga
 
Uses of simple past and time expressions
Uses of simple past and time expressionsUses of simple past and time expressions
Uses of simple past and time expressionsConsueloSantana3
 
Concurso José María Arguedas nacional.pptx
Concurso José María Arguedas nacional.pptxConcurso José María Arguedas nacional.pptx
Concurso José María Arguedas nacional.pptxkeithgiancarloroquef
 
Presentacion minimalista aesthetic simple beige_20240415_224856_0000.pdf
Presentacion minimalista aesthetic simple beige_20240415_224856_0000.pdfPresentacion minimalista aesthetic simple beige_20240415_224856_0000.pdf
Presentacion minimalista aesthetic simple beige_20240415_224856_0000.pdfSarayLuciaSnchezFigu
 
05 Fenomenos fisicos y quimicos de la materia.pdf
05 Fenomenos fisicos y quimicos de la materia.pdf05 Fenomenos fisicos y quimicos de la materia.pdf
05 Fenomenos fisicos y quimicos de la materia.pdfRAMON EUSTAQUIO CARO BAYONA
 
Presentación Bloque 3 Actividad 2 transversal.pptx
Presentación Bloque 3 Actividad 2 transversal.pptxPresentación Bloque 3 Actividad 2 transversal.pptx
Presentación Bloque 3 Actividad 2 transversal.pptxRosabel UA
 

Recently uploaded (20)

DETALLES EN EL DISEÑO DE INTERIOR
DETALLES EN EL DISEÑO DE INTERIORDETALLES EN EL DISEÑO DE INTERIOR
DETALLES EN EL DISEÑO DE INTERIOR
 
PPTX: La luz brilla en la oscuridad.pptx
PPTX: La luz brilla en la oscuridad.pptxPPTX: La luz brilla en la oscuridad.pptx
PPTX: La luz brilla en la oscuridad.pptx
 
VISITA À PROTEÇÃO CIVIL _
VISITA À PROTEÇÃO CIVIL                  _VISITA À PROTEÇÃO CIVIL                  _
VISITA À PROTEÇÃO CIVIL _
 
Tarea 5_ Foro _Selección de herramientas digitales_Manuel.pdf
Tarea 5_ Foro _Selección de herramientas digitales_Manuel.pdfTarea 5_ Foro _Selección de herramientas digitales_Manuel.pdf
Tarea 5_ Foro _Selección de herramientas digitales_Manuel.pdf
 
Contextualización y aproximación al objeto de estudio de investigación cualit...
Contextualización y aproximación al objeto de estudio de investigación cualit...Contextualización y aproximación al objeto de estudio de investigación cualit...
Contextualización y aproximación al objeto de estudio de investigación cualit...
 
Secuencia didáctica.DOÑA CLEMENTINA.2024.docx
Secuencia didáctica.DOÑA CLEMENTINA.2024.docxSecuencia didáctica.DOÑA CLEMENTINA.2024.docx
Secuencia didáctica.DOÑA CLEMENTINA.2024.docx
 
Actividad transversal 2-bloque 2. Actualización 2024
Actividad transversal 2-bloque 2. Actualización 2024Actividad transversal 2-bloque 2. Actualización 2024
Actividad transversal 2-bloque 2. Actualización 2024
 
Aedes aegypti + Intro to Coquies EE.pptx
Aedes aegypti + Intro to Coquies EE.pptxAedes aegypti + Intro to Coquies EE.pptx
Aedes aegypti + Intro to Coquies EE.pptx
 
c3.hu3.p1.p2.El ser humano y el sentido de su existencia.pptx
c3.hu3.p1.p2.El ser humano y el sentido de su existencia.pptxc3.hu3.p1.p2.El ser humano y el sentido de su existencia.pptx
c3.hu3.p1.p2.El ser humano y el sentido de su existencia.pptx
 
Fichas de Matemática TERCERO DE SECUNDARIA.pdf
Fichas de Matemática TERCERO DE SECUNDARIA.pdfFichas de Matemática TERCERO DE SECUNDARIA.pdf
Fichas de Matemática TERCERO DE SECUNDARIA.pdf
 
PLAN DE TUTORIA- PARA NIVEL PRIMARIA CUARTO GRADO
PLAN DE TUTORIA- PARA NIVEL PRIMARIA CUARTO GRADOPLAN DE TUTORIA- PARA NIVEL PRIMARIA CUARTO GRADO
PLAN DE TUTORIA- PARA NIVEL PRIMARIA CUARTO GRADO
 
TL/CNL – 2.ª FASE .
TL/CNL – 2.ª FASE                       .TL/CNL – 2.ª FASE                       .
TL/CNL – 2.ª FASE .
 
EDUCACION FISICA 1° PROGRAMACIÓN ANUAL 2023.docx
EDUCACION FISICA 1°  PROGRAMACIÓN ANUAL 2023.docxEDUCACION FISICA 1°  PROGRAMACIÓN ANUAL 2023.docx
EDUCACION FISICA 1° PROGRAMACIÓN ANUAL 2023.docx
 
TUTORIA II - CIRCULO DORADO UNIVERSIDAD CESAR VALLEJO
TUTORIA II - CIRCULO DORADO UNIVERSIDAD CESAR VALLEJOTUTORIA II - CIRCULO DORADO UNIVERSIDAD CESAR VALLEJO
TUTORIA II - CIRCULO DORADO UNIVERSIDAD CESAR VALLEJO
 
SIMULACROS Y SIMULACIONES DE SISMO 2024.docx
SIMULACROS Y SIMULACIONES DE SISMO 2024.docxSIMULACROS Y SIMULACIONES DE SISMO 2024.docx
SIMULACROS Y SIMULACIONES DE SISMO 2024.docx
 
Uses of simple past and time expressions
Uses of simple past and time expressionsUses of simple past and time expressions
Uses of simple past and time expressions
 
Concurso José María Arguedas nacional.pptx
Concurso José María Arguedas nacional.pptxConcurso José María Arguedas nacional.pptx
Concurso José María Arguedas nacional.pptx
 
Presentacion minimalista aesthetic simple beige_20240415_224856_0000.pdf
Presentacion minimalista aesthetic simple beige_20240415_224856_0000.pdfPresentacion minimalista aesthetic simple beige_20240415_224856_0000.pdf
Presentacion minimalista aesthetic simple beige_20240415_224856_0000.pdf
 
05 Fenomenos fisicos y quimicos de la materia.pdf
05 Fenomenos fisicos y quimicos de la materia.pdf05 Fenomenos fisicos y quimicos de la materia.pdf
05 Fenomenos fisicos y quimicos de la materia.pdf
 
Presentación Bloque 3 Actividad 2 transversal.pptx
Presentación Bloque 3 Actividad 2 transversal.pptxPresentación Bloque 3 Actividad 2 transversal.pptx
Presentación Bloque 3 Actividad 2 transversal.pptx
 

IPN-Sistemas Neurodifusos

  • 1. INSTITUTO POLITÉCNICO NACIONAL PROFESOR : M. en C. Edmundo René Durán Camarillo. MATERIA : Sistemas Neurodifusos II. EQUIPO : • Maldonado Orduño Jessie. • Munguía Solache Martha. • Ruíz Hidalgo Héctor Alejandro. FECHA : 2 de abril de 2002.
  • 2. INDICE : Pág.
  • 3. TEORIA DE RESONANCIA ADAPTATIVA 1.INTRODUCCIÓN : El hecho que condujo a la concepción de las redes ART fue lo que se conoce como el dilema de la estabilidad y plasticidad del aprendizaje. Este dilema surge a partir de dos ideas: • Una red neuronal debe poder aprender nuevos patrones, es decir, debe tener cierta plasticidad de aprendizaje. • Una red neuronal debe poder recordar los patrones ya aprendidos, es decir, ser estable aún cuando se le introduzcan datos que no sea capaz de reconocer. Sin embargo estas dos características son difíciles de implementar juntas, pues al aprender nuevos patrones, se corre el riesgo de perder los ya memorizados, igualmente, si se mantienen firmemente memorizados unos patrones iniciales, se dificulta el aprendizaje de nuevos patrones, comprometiendo su capacidad de adaptarse a condiciones nuevas. Grossberg, Carpenter y un grupo de colaboradores desarrollaron su teoría de resonancia adaptativa para resolver este dilema, la cual se aplica a redes con aprendizaje competitivo, en las cuales solo una neurona o una neurona de un grupo, después de competir con otras, reacciona con su máximo nivel de respuesta al presentarse determinado patrón de entrada. Se dice que esta neurona es la vencedora, de esta manera la red busca crear categorías (clusters), según los datos que se le introduzca. La red debe decidir a que categoría pertenece cada dato que se le presente según su parecido con alguna categoría definida, y si no hay un grado de similitud lo suficientemente grande, la red creará una categoría nueva tomando como modelo el nuevo patrón. Se deduce de esto que el aprendizaje en las redes ART es no supervisado. A estas redes se les ha agregado un mecanismo especial de realimentación entre las neuronas de la capa de salida (competitivas) y las de la capa de entrada; lo cual contribuye a mantener la plasticidad y la estabilidad de la red. La teoría de resonancia adaptativa se basa en el hecho de que la información de alguna de las categorías almacenadas en la red debe “resonar” si se presenta una información similar en la entrada. Si es este el caso, la red reconocerá la información y adaptará su modelo para que se parezca mas al patrón de entrada. De lo contrario, la red creará una nueva categoría tomando como modelo el patrón de entrada presentado. Grossberg, Carpenter et al. propusieron dos redes basadas en este modelo : • ART o ART1 (1986) a la cual se presentan patrones de entrada binarios y; • ART2 (1987) para trabajar con información analógica.
  • 4. 2. TIPOS DE REDES ART : Hay dos grandes ramas de redes ART: las ART1 que trabajan con vectores de información binaria y las redes ART2, que procesan información analógica. Sin embargo con el desarrollo de las redes neuronales, de la computación y de las nuevas aplicaciones han surgido varios subgrupos de redes ART: ♠ ART-2ª : Es una versión más rápida del algoritmo de redes ART2. ♠ ART-3 : Extensión de red ART que incorpora transmisores químicos para controlar el proceso de búsqueda de categorías dentro de la red. ♠ ARTMAP : Es una versión supervisada de ART que puede aprender mapas de patrones binarios. ♠ Fuzzy ART : Síntesis de lógica difusa y redes ART. ♠ Fuzzy ARTMAP : Es una red Fuzzy ART supervisada 3. ADAPTACIONES DE REDES ART: ♠ ARTMAP-IC : Sistema ARTMAP con la adición de predicción distribuida y conteo de instancia de categoría. ♠ Gaussian ARTMAP : Una red ART con aprendizaje supervisado que emplea campos receptivos (Gauss). ♠ Modelos ART jerárquicos (modulares) : Estas redes modulares basadas en ART aprenden categorías jerárquicas de secuencias arbitrarias de patrones de entrada. ♠ ArboART : En esa red los prototipos de cada capa se emplean como entradas de la capa siguiente. Este método se conoce como método aglomerativo. La arquitectura s similar a las redes HART-J, descritas mas abajo. Se ha aplicado en la generación de reglas automáticas de los sistemas expertos de Kansei Engineering. ♠ Cascade Fuzzy ART : Como su nombre lo indica, es una serie de redes FuzzyART conectadas en cascada que generan jerarquías de patrones análogos y binarias mediante un aprendizaje de "arriba a abajo" pero con un proceso de búsqueda de "abajo hacia arriba". Se ha aplicado en el reconocimiento de objetos tridimensionales. ♠ HART(-J), HART-S : Modelos ART jerárquicos y modulares. HART-J emplea el método de categorización aglomerativa. HART-S emplea un método de categorización divisiva, con cada capa ART aprendiendo las diferencias entre la entrada y el prototipo semejante de la capa previa. ♠ SMART : Self-consistent Modular ART (ART modular autoconsistente). Es capaz de aprender jerarquías de categorías autoconsistentes a través de enlaces explícitos y un mecanismo interno de realimentación. ♠ LAPART : Arquitectura basada en ART para la verificación de secuencias de patrones a través de inferencia. ♠ MART : ART multicanal, para la clasificación adaptativa de patrones a través de múltiples canales de entrada. ♠ PROBART : Una modificación de una red Fuzzy ARTMAP por la construcción de información probabilística mediante asociaciones entre
  • 5. nodos de capas distintas, lo que le permite aprender con cierta aproximación mapas ruidosos. ♠ R2MAP : Red basada en ARTMAO capaz de aprender tareas de clasificación complejas mediante la creación iterativa de características relacionales de las entradas para representar el mismo problema con menos categorías de entradas. Se motiva en la hipótesis de redescripción representacional, de las ciencias cognitivas. ♠ TD-ART : Red ART con retardos en el tiempo para el aprendizaje de patrones espacio-temporales. 4. ARQUITECTURA : Una red ART esta compuesta por una capa de entrada con N neuronas y una de salida con M neuronas. Entre ambas se presentan conexiones feedback y feedforward. Las neuronas de la capa de salida se encuentran interconectadas y presentan conexiones autorrecurrentes. En la capa de salida los pesos son fijos, siendo 1 los de las conexiones autorecurrentes y - en las conexiones laterales. Este valor negativo contribuye a la competitividad entre las neuronas de esta capa, y debe ser menor que 1/M. En los pesos de las conexiones feedforward y feedback, definidos como wji y vij, se va a almacenar la información de la red. Sin embargo una red ART no puede ser descrita con un modelo sencillo de red de dos capas, como en la figura anterior. El modo de funcionamiento de la red determina la existencia de dos subsistemas: el de atención y el de orientación.
  • 6. Una red ART tiene 4 componentes:  Una memoria de corto plazo (STM) para evaluar patrones de entrada.  Una memoria de largo plazo (LTM) para almacenar categorías.  Un subsistema de atención para centrarse en rasgos importantes de los patrones de entrada.  Uno subsistema de orientación para impedir que la LTM aprenda patrones sin importancia.
  • 7. 4.1. El Subsistema de Atención : El subsistema de atención consiste básicamente en el reconocimiento y clasificación de las informaciones aprendidas. En este subsistema se localiza la memoria a largo plazo de la red (LTM)(Long Term Memory), compuesta por los pesos Wji y Vij de las conexiones entre las neuronas de las capas de entrada y salida, que confieren a la red su característica de estabilidad, en el sentido de retener las informaciones aprendidas. Como complemento a la anterior, existe también una memoria a corto plazo (STM)(Short Term Memory), localizada en la entrada y en la salida de la red, que se refiere a la capacidad de recordar aspectos más inmediatos mediante la retención temporal de los valores de entrada en las neuronas que componen las capas de entrada y salida. Otra parte del subsistema de atención, es el control de ganancia de atención, que actúa sobre las neuronas de entrada (STM(ne)) para estabilizar el funcionamiento de la red, aumentando la sensibilidad o grado de atención de estas neuronas, evitando una posible anticipación respecto a la llegada de la información del siguiente patrón a través de las conexiones feedback (Vij). Aunque no lo consideramos, puede existir otro control de ganancia que, en función de las salidas de las neuronas de la capa de entrada, actúe sobre las de salida para mejorar su reacción ante los patrones de entrada. 4.2. El Subsistema de Orientación : El subsistema de orientación se utiliza para detectar si la información de entrada pertenece o no a una determinada categoría conocida por la red, para lo cual se calcula el porcentaje de semejanza entre dicha información y el representante (prototipo) de cada categoría almacenada en los pesos Vij (LTM), que deberá ser superior al valor de un parámetro p, denominado parámetro de vigilancia. Si no es así este subsistema resetea la neurona vencedora de la capa de salida y prueba con otra categoría. Si ninguna es suficientemente parecida se crea una nueva clase, de la que será prototipo la información de entrada. Por tanto, el subsistema de atención realiza la tarea de reconocimiento (búsqueda de la salida a la que pertenece la entrada), mientras que el subsistema de orientación actúa sobre el primero, permitiéndole responder a entradas no pertenecientes a ninguna categoría, creando para ellas nuevas clases. Entonces la arquitectura simplificada, debería ser completada añadiendo dos neuronas que permitan implementar las funciones de control de ganancia y del subsistema de atención. La estructura completa de la red sería la indicada en la siguiente gráfica:
  • 8. Aquí, el nodo reset (R) tiene un funcionamiento especial: su misión es recibir las salidas de las neuronas de entrada a través de conexiones con peso -1 junto con los valores del patrón de entrada a la red a través de conexiones con pesos iguales al parámetro de vigilancia de la red, para compararlo, y si no son suficientemente parecidos, activar la salida correspondiente para, a través de una conexión de inhibición con peso negativo de gran valor (-N), conseguir anular el efecto de las neuronas que se ha comprobado que no representan la categoría adecuada para el patrón de entrada. La neurona G es la que permite el control de ganancia de atención. Para ello recibe como entrada los valores de las neuronas de las capas de salida a través de conexiones con pesos -N y los del patrón de entrada mediante conexiones con peso igual a la unidad, generando, mediante una función de activación escalón, una salida que se aplicará a las neuronas de la capa de entrada de la red para ayudar a la activación de las neuronas de esta capa en función de la cantidad de neuronas de salida activadas. De esta forma se puede aplicar la regla de activación denominada Regla 2/3, que indica que una neurona de la capa de entrada se activará (salida 1) cuando 2 de las 3 entradas que recibe (patrones de entrada, neurona G y conexiones Vij) esté activa (tenga valor 1). .
  • 9. La salida generada por la neurona G, que va a tener un umbral de valor ½ es:  N M ∑e − N∑s k 1 ≥ 0.5  i =1 i j =1 ns j sG =  N M 0 ∑e − N∑ s k < 0.5   i =1 i j =1 ns j La entrada neta de cada neurona de la capa de entrada es: M = ei + ∑ vij s k net ne i j =1 ns j + sG Por tanto, la salida general por cada neurona de entrada, considerando un umbral de 1.5 es: 1  net ne ≥ 1.5 snei 0 = net ne < 1.5 i  i Pero al trabajar con valores binarios (1/0) y con los umbrales indicados queda:  k  ei Si ninguna salida esta activada (s =0 ∀j) snei = ek ⋅ ∑ v s M sn j  i ij ns j En otro caso  j =1 En cuanto al nodo de reset (R), este va a tener M salidas, una por neurona de la capa de salida de la red, de las cuales se podrá activar una cada vez, la correspondiente a la neurona a resetear.
  • 10. Su función de activación será: N ∑  ρ e − sne  > 0 k   Reset de ns j  i  sR  0 = i i =1 N ∑  ρ e − sne  ≤ 0 k    i =1 i  i siendo ρ el parámetro de vigilancia: N s  ∑  nei  < ρ  k  i =1  ei  Este nodo R se podría implementar como un conjunto de M neuronas (R1....RM)que reciben las mismas entradas. Las salidas de cada una de estas neuronas (Rj) se conectaría a la entrada de la correspondiente neurona de la capa de salida de la red (nsj) a través de conexiones con un peso negativo de un gran valor con una función de transferencia de tipo escalón, pero con un umbral dependiente del valor de salida de la neurona de la red a la que esta conectada, de tal forma que si es la neurona ganadora, se podrá producir el reset, lo que consigue mediante la activación de la neurona Rj, se inhiba a nsj. El resto de las neuronas de r generarán una salida de valor 0. Puede comprobarse que esto se consigue si el umbral dela función de activación de cada neurona Rj fuese θ j = N 1 − s nsj . ( ) 5.FUNCIONAMIENTO: El funcionamiento de una red ART puede describirse deforma simplificada a través de la siguiente secuencia de pasos: 1) Se presenta una información (vector) de entrada a la red: E k = (e1k ,..., e Nk ) ) ( 2) Cada neurona (nei) de la capa de entrada recibe el valor del componente correspondiente (ei^k) del vector y lo envía a todas las neuronas de la capa de salida a través de las conexiones correspondientes (wji). 3) Cada neurona (nsj) de la capa de salida compite con las demás de esta capa hasta que solo una permanece activa. Las conexiones laterales son las que permiten realizar esta competición, y tienen un peso con un valor fijo –épsilon que debe ser menor que 1/M, siendo M él numero de neuronas de la capa de salida, para que la competición funcione correctamente:  N N  S ns j (t + 1) = f  s ns j (t ) + ε ∑ s ns p (t ) + ∑ w ji s nei (t )  p =1 i =1  Siendo f la función de transferencia de tipo escalón de las neuronas de salida.
  • 11. Después de cierto numero de iteraciones, se llega a una situación de estabilidad en que una de las neuronas resulta vencedora, generando una salida de valor 1, mientras que en las demás salidas la salida es 0. Como los pesos de las conexiones laterales de inhibición tienen el mismo valor (-épsilon), así como las autorrecurrentes (+1), es evidente que el factor a tener en cuenta para saber cual es la neurona vencedora será la entrada que recibe cada neurona a través de las conexiones feedforward con pesos wji provenientes de la capa de entrada. Así los valores de salida al final de la competición se pueden obtener más fácilmente mediante la siguiente expresión:  n  s ns j = 1 ____ MAX  ∑ w ji ei( k )   I =1  s ns j = 0 ____ resto 4) La neurona vencedora (nsj), envía su salida (1) a través de las conexiones hacia atrás (vij). Cada neurona i-ésima de la capa de entrada recibe el valor: M xi = ∑ vij s ns j = vij s ns j = 1 ___ j = j * porque j =1 s ns j = 0 ___ j ≠ j * Por tanto, al no influir el resto de las neuronas de salida por estar inactivas (0), en la capa de entrada se reciben los valores de los pesos de las conexiones correspondientes. 5) Se compara la información de entrada ( E k = e1( k ) ,..., e Nk ) ( ) Con la información ( ) X = ( x1 ,..., x N ) = v1 j * ,..., v Nj * = V j * Recibida en la capa de entrada desde la salida a través de las conexiones hacia atrás. Hay que resaltar que el valor X (y por tanto vj)es en realidad el representante o prototipo de la clase o categoría j-ésima si la neurona que se ha activado , la vencedora, ha sido la neurona de salida nsj. Esta comparación se hace valorando la siguiente relación de semejanza: || E k ⋅ X || || E k ⋅ V j || Re lacion _ de _ semejanza = = || E k || || E k ||
  • 12. N || E k ⋅ X ||= ∑ ei( k ) xi i =1 N || E k ||= ∑ ei( k ) i =1 Al trabajar con valores binarios (0/1), el producto aritmético equivale al lógico (operación AND), y por tanto, lo que representa ||EkX|| es él numero de componentes binarios (bits) con valor 1 que coinciden en los vectores Ek y X. En caso de que fueran exactamente iguales, este valor coincidiría con ||Ek||, y la relación de semejanza seria la unidad (el parecido es del 100%). Si Ek y X no coinciden en ningún bit, entonces ||EkX||=0 y el parecido seria del 0%. 6) Se compara la relación de semejanza entre ambas informaciones con un parámetro de vigilancia (ρ) cuyo valor será fijado por el usuario en un rango de 0 a 1 y que influirá en él numero de clases que establecerá la red, ya que cuanto mayor sea su valor, se esta pidiendo al sistema que discrimine con mayor precisión, de tal forma que si ρ=1 se estará indicando que a una clase solo pueden pertenecer patrones que sean exactamente iguales. Si se cumple que: || E k ⋅ X || <ρ || E k || Entonces la neurona vencedora nsj, no representa la apropiada categoría a la que pertenece la información de entrada Ek y es desestimada, se resetea o elimina del conjunto de posibles neuronas vencedoras. Esto puede hacerse como se indico en el apartado anterior mediante un nodo adicional (R) que actúe sobre nsj, a través de una conexión de fuerte inhibición, con peso negativo de gran valor absoluto. En este punto se pueden dar dos situaciones: a) Si todavía quedan neuronas de salida que no hayan sido desestimadas, se repite el proceso de búsqueda de la categoría a la que pertenece la entrada (paso 2) anulando (reseteando) temporalmente la neurona vencedora para que no influya en la repetición del proceso de competición. b) Si no queda ninguna neurona candidata por que ya se ha repetido el proceso, considerando como vencedoras cada una de las neuronas de salida, entonces se produce una situación de saturación de la red, ya que no se puede crear una nueva categoría para el patrón , al no existir ninguna neurona de salida que pueda asociarse a la nueva clase. Podría solucionarse el problema ampliando el numero de neuronas de salida de la red de forma dinámica, ya
  • 13. que los nuevos pesos no afectarían representantes ya almacenados en el resto de conexiones (wji, vij) que componen la memoria a largo plazo de la red. En este caso si se amplia en una unidad se inicializan los pesos de las nuevas conexiones, y se repite el proceso desde el paso 4. Como inicialmente los pesos tienen el valor 1, la relación de semejanza será del 100% con lo que se estaría en la situación prevista en el paso 7 que se describe a continuación. 7) Si la semejanza evaluada es igual o mayor que el parámetro de vigilancia, entonces se asume que la neurona que se ha activado a la salida es la que representa la categoría mas apropiada para la información de entrada Ek, procediéndose a ajustar los pesos vij y wji de la red (memoria a largo plazo) para que el nuevo prototipo almacenado para representar dicha categoría incorpore algunas características del dato de entrada. Como la red descrita trabaja con datos binarios, esto consiste en una operación lógica AND entre los bits del prototipo (vij) y los del patrón de entrada (ei^k). Por este motivo inicialmente los pesos vij se inicializan a 1, para que cuando se almacene el primer representante de cada clase, el prototipo coincida exactamente con el patrón de entrada. En realidad la secuencia de pasos descrita viene a decir que cuando entra en funcionamiento una red ART se produce una búsqueda a través de los prototipos almacenados y asociados a cada clase o categoría, con la pretensión de encontrar uno lo suficientemente parecido a la información presentada a la entrada de la red. Si esta categoría no existe, se crea una nueva, la cual es prototipo de dicha información. La red ART por lo tanto permite establecer clases de datos. Recibiendo datos de entrada y activando la salida que indique la categoría o clase a la que pertenece. Si en la capa de salida hay N neuronas, el numero de categorías que se establecen es N. Los prototipos o representantes de las clases son los pesos vij de las conexiones. Para extraerlos de la red, se puede añadir una nueva capa de neuronas a la salida con un numero de neuronas igual al de la capa de entrada, y con pesos iguales a los anteriores (vij). S1 ...... Si ...... SN ....... ....... . . V11 VNM RED ART e1 . . . . . . ei ........ . eN
  • 14. Ampliación de la red ART para la extracción de prototipos. 6. APRENDIZAJE : El aprendizaje en el modelo ART es de tipo ON LINE, por lo que no se distingue entre etapa de entrenamiento y de funcionamiento. Los pesos varían durante el funcionamiento de la red cuando se aplica una información de entrada a la misma. La red ART utiliza un aprendizaje no supervisado de tipo competitivo. Las neuronas de la capa de salida compiten por activarse y solo una de ellas permanece activa ante una determinada entrada a la red. Los pesos de las conexiones se ajustan en función de la neurona que haya resultado ganadora. En este tipo de redes se pueden dar dos tipos de aprendizaje, denominados aprendizaje lento y aprendizaje rápido. El aprendizaje lento ocurre cuando una información de entrada es asociada a una de las categorías existentes. Entonces se debe proceder a ajustar los pesos para que el representante de dicha clase se adapte a las características del dato de entrada. El aprendizaje rápido se da cuando se establece una nueva categoría, y consiste en representar de forma inmediata la información de entrada, que será el prototipo de la nueva clase, en los pesos de la red. Inicialmente, cuando la red no ha aprendido todavía ninguna información, se asigna el valor 1 a los pesos de las conexiones hacia atrás (vij). En estos pesos se distribuyen los M prototipos de las M diferentes clases que es capaz de diferenciar la red. Los pesos de las conexiones hacia delante (wji) tienen el mismo valor que los vij pero normalizado: vij w ji = N γ + ∑ vij i =1 γ es un valor pequeño , normalmente se utiliza 0.5, aunque en la inicialización de los pesos se recomienda como valor la unidad. Por tanto, inicialmente el valor de pesos es: vij (t = 0) = 1 1 w ji (t = 0) = 1+ N
  • 15. Después, cada vez que se presente una información E k = (e1( k ) ,..., e Nk ) ) ( A la red, se realiza el aprendizaje o ajuste de los pesos de las conexiones vij, de la neurona vencedora con cada una de las N de la capa de entrada, en función de la diferencia entre esta información y la del representante o prototipo de la clase a la que se ha asociado. En general la variación de los pesos vij se realiza según la siguiente ecuación diferencial: dvij dt ( = s ns j s nei − vij ) Si la neurona de salida nsj no es la vencedora, el valor de su salida es cero (Snsj=0), con lo que no debe producirse variación en el peso correspondiente (dv/dt=0). Por el contrario, si la neurona es la vencedora, su salida es 1 (Snsj=1), con lo que la variación del peso vij, seria dvij / dt ( = vij * ei( k ) − vij * ) Según esta expresión, el nuevo valor del peso se obtendría como: vij * (t + 1) = vij* (t )ei( k ) Siendo ei^k el valor del componente i-ésimo de la información de entrada. Los pesos wji se obtienen normalizando los anteriores: vij * (t )ei( k ) w j *i (t + 1) = N γ + ∑ vij* (t )ei( k ) i =1 Donde γ suele tener el valor de 0.5. 7. LIMITACIONES DE LA RED ART : Aunque la red ART es una de los más potentes modelos con capacidad autoorganizativa, sin supervisión, existen algunas limitaciones importantes a tener en cuenta que dificultan la tarea de clasificación realizada por la red. Estas limitaciones se refieren, sobre todo, a su dependencia del respecto del tipo y orden de las informaciones aprendidas y a la influencia del parámetro de vigilancia en él numero de categorías creadas por la red, ya que pequeños cambios de este parámetro pueden originar un gran numero de categorías. Se trata de una red con gran sensibilidad ante el ruido o distorsión, también ante el desplazamiento de los datos de entrada, que pueden dar lugar a una gradual
  • 16. degradación de los prototipos correspondientes, debido al carácter destructivo (operación AND de una dato de entrada y el prototipo) de la regla de aprendizaje que realiza la adaptación de los pesos. Sin embargo, si estos datos de entrada son sometidos a un adecuado procesamiento, la red ART puede ser útil para realizar una posterior tarea de clasificación o categorización. También este modelo presenta el problema de la ineficiencia en cuanto a las necesidades requeridas para el almacenamiento de los pesos de las conexiones entre neuronas. Hay que tener en cuenta que se precisan 2*N para representar cada categoría de N bits, además de las conexiones laterales y autorrecurrentes de la capa de salida y las de las neuronas espaciales de orientación (R) y control de ganancia (G). Además otra evidente limitación del modelo original es su carácter discreto, obligando a trabajar con informaciones binarias. Este problema fue rápidamente solventado por sus creadores a través de una extensión continua del modelo, al que denominaron ART2 para diferenciarlo del original, que suele ser conocido como ART1. 8. LA RED ART2 : La red ART2 es una versión continua del modelo de resonancia adaptativa propuesta por Carpenter y Grossberg en 1987. Esta red puede clasificar vectores de entrada reales (o es calas de grises), además de componentes binarios. Esta capacidad implica una mejora del sistema. Esta nueva red tiene la misma arquitectura que la original ART, pero en este caso los pesos de las conexiones feedforward y feedback son iguales (Wji=Vij).también su funcionamiento es diferente en algunos aspectos. Estructura de una red ART-2
  • 17. Esta red se diferencia de la ART(ART1) en la capacidad para tratar tramas analógicas. Aparte del hecho evidente en que las tramas binarias y las analógicas difieren en la naturaleza de sus componentes respectivos, la ART2 debe enfrentarse a complicaciones adicionales; debe ser capaz de reconocer la similitud subyacente de tramas idénticas que se superpongan a fondos constantes que posean distintos niveles. Comparadas en un sentido absoluto, dos tramas como éstas pueden tener un aspecto completamente distinto, aun cuando lo cierto es que deberían ser clasificadas como una misma trama. El precio de esta capacidad adicional es sobre todo un aumento de complejidad en el nivel de procesamiento de la capa de entrada, es decir que el nivel de la capa de entrada consta ahora de varios subniveles y varios sistemas de control de ganancia. 9. APLICACIONES : Las redes ART se han utilizado, entre otras, en las siguientes aplicaciones: • Reconocimiento de imágenes: Para este fin, se divide la imagen en pixeles y se crea con ellos una matriz que alimentara la entrada de la red. La gran capacidad de categorización de las redes ART hacen que aplicaciones concretas en este campo, como son el reconocimiento de caracteres sean de gran efectividad. • Reconocimiento de señales análogas: Para este fin se emplean redes ART2 (entradas y salidas análogas). Las aplicaciones concretas en este campo son el reconocimiento de voz y el reconocimiento de señales de electrocardiogramas para el diagnostico de enfermedades cardiacas, entre otras. • Reconocimiento de olores ("nariz electrónica"): A simple vista esto puede parecer una broma, pero los investigadores Paul E. Keller, Lars J. Kangas, Lars H. Liden, Sherif Hashem y Richard T. Kouzes han realizado investigaciones en este campo y han obtenido un prototipo de "nariz electrónica": Este tipo de dispositivos se ha desarrollado para el reconocimiento de olores, gases y vapores presentes en el aire. Esta compuesto por un sensor químico y un sistema de reconocimiento de patrones (red neuronal artificial, por supuesto). Se han empleado redes backpropagation y fuzzy ARTmap. Las aplicaciones de este tipo de dispositivos no son pocas: • En el campo ambiental, se están utilizando para la detección sustancias tóxicas, emisiones de fabricas, monitoreo de la calidad del aire, detección de derrames etc. • En la medicina se puede emplear en el diagnostico de enfermedades mediante el análisis del aire exhalado, y emanaciones provenientes de fluidos corporales como la sangre u orines. • En la industria alimenticia esta empleando este dispositivo para la inspección de la calidad de los alimentos según su olor, control de fermentación, etc.
  • 18. 10. BIBLIOGRAFÍA: • http://maxwell.univalle. edu.co/proyectos/rna/ • http://maxwell.univalle.edu.co/proyectos/rna/ART1/ • http://maxwell.univalle.edu.co/proyectos/rna/ART1/ • http://maxwell.univalle.edu.co/proyectos/rna/ART1/ • http://maxwell.univalle.edu.co/proyectos/rna/ART2/ • http://maxwell.univalle.edu.co/proyectos/rna/ART2/texto_arqART1.html • http://maxwell.univalle.edu.co/proyectos/rna/ART2/1.2._subsistema_de_orie ntacion1.html • http://maxwell.univalle.edu.co/proyectos/rna/ART2/funcionamiento.html • http://maxwell.univalle.edu.co/proyectos/rna/ART2/aplicacion.html • http://www.wi.leidenuniv.nl/art/ • http://www.nd.com/appcornr/purpose.htm • http://www.emsl.pnl.gov:2080/proj/neuron/neural/ • http://www.ism.ac.ru/nn/doc/nbdoc/koi8/art1.htm • http://www.mcs.vuw.ac.nz/comp/Publications/CS-TR-94-1.abs.html • http://www.ie.inf.uc3m.es/Tesis/Documentos/ProcesosSoftware/RedesNeuron ales/MejoraRedesNeuronales.html