Red de función de base radial - Radial basis function network

En el campo del modelado matemático , una red de función de base radial es una red neuronal artificial que utiliza funciones de base radial como funciones de activación . La salida de la red es una combinación lineal de funciones de base radial de las entradas y los parámetros neuronales. Las redes de funciones de base radial tienen muchos usos, incluida la aproximación de funciones , la predicción de series de tiempo , la clasificación y el control del sistema . Fueron formulados por primera vez en un artículo de 1988 por Broomhead y Lowe, ambos investigadores de Royal Signals y Radar Establishment .

Red de arquitectura

Arquitectura de una red de funciones de base radial. Un vector de entrada se utiliza como entrada para todas las funciones de base radial, cada una con diferentes parámetros. La salida de la red es una combinación lineal de las salidas de las funciones de base radial.

Las redes de función de base radial (RBF) suelen tener tres capas: una capa de entrada, una capa oculta con una función de activación de RBF no lineal y una capa de salida lineal. La entrada se puede modelar como un vector de números reales . La salida de la red es entonces una función escalar del vector de entrada , y viene dada por

donde es el número de neuronas en la capa oculta, es el vector central de la neurona y es el peso de la neurona en la neurona de salida lineal. Las funciones que dependen solo de la distancia desde un vector central son radialmente simétricas con respecto a ese vector, de ahí el nombre de función de base radial. En la forma básica, todas las entradas están conectadas a cada neurona oculta. Por lo general, se considera que la norma es la distancia euclidiana (aunque la distancia de Mahalanobis parece funcionar mejor con el reconocimiento de patrones) y la función de base radial se considera comúnmente gaussiana.

.

Las funciones de base de Gauss son locales al vector central en el sentido de que

es decir, cambiar los parámetros de una neurona sólo tiene un pequeño efecto para los valores de entrada que están lejos del centro de esa neurona.

Dadas ciertas condiciones suaves en la forma de la función de activación, las redes RBF son aproximadores universales en un subconjunto compacto de . Esto significa que una red RBF con suficientes neuronas ocultas puede aproximarse a cualquier función continua en un conjunto cerrado y acotado con precisión arbitraria.

Los parámetros , y se determinan de una manera que optimiza el ajuste entre y los datos.

Dos funciones de base radial no normalizadas en una dimensión de entrada. Los centros de funciones básicos se encuentran en y .

Normalizado

Dos funciones de base radial normalizadas en una dimensión de entrada ( sigmoides ). Los centros de funciones básicos se encuentran en y .
Tres funciones de base radial normalizadas en una dimensión de entrada. La función de base adicional tiene el centro en
Cuatro funciones de base radial normalizadas en una dimensión de entrada. La cuarta función de base tiene centro en . Tenga en cuenta que la primera función de base (azul oscuro) se ha localizado.

Arquitectura normalizada

Además de la arquitectura no normalizada anterior , las redes RBF se pueden normalizar . En este caso, el mapeo es

dónde

se conoce como función de base radial normalizada .

Motivación teórica para la normalización

Existe una justificación teórica para esta arquitectura en el caso del flujo de datos estocástico. Suponga una aproximación de kernel estocástica para la densidad de probabilidad conjunta

donde los pesos y son ejemplos de los datos y requerimos que los núcleos estén normalizados

y

.

Las densidades de probabilidad en los espacios de entrada y salida son

y

La expectativa de y dada una entrada es

dónde

es la probabilidad condicional de y dada . La probabilidad condicional está relacionada con la probabilidad conjunta a través del teorema de Bayes.

cuyos rendimientos

.

Esto se convierte en

cuando se realizan las integraciones.

Modelos lineales locales

A veces es conveniente expandir la arquitectura para incluir modelos lineales locales . En ese caso las arquitecturas se vuelven, de primer orden,

y

en los casos normalizados y no normalizados, respectivamente. Aquí están los pesos por determinar. También son posibles términos lineales de orden superior.

Este resultado se puede escribir

dónde

y

en el caso no normalizado y

en el caso normalizado.

Aquí hay una función delta de Kronecker definida como

.

Capacitación

Las redes RBF generalmente se entrenan a partir de pares de valores de entrada y de destino , mediante un algoritmo de dos pasos.

En el primer paso, se eligen los vectores centrales de las funciones RBF en la capa oculta. Este paso se puede realizar de varias formas; los centros se pueden muestrear aleatoriamente a partir de algún conjunto de ejemplos, o se pueden determinar mediante la agrupación de k-medias . Tenga en cuenta que este paso no está supervisado .

El segundo paso simplemente ajusta un modelo lineal con coeficientes a las salidas de la capa oculta con respecto a alguna función objetivo. Una función objetivo común, al menos para la estimación de regresión / función, es la función de mínimos cuadrados:

dónde

.

Hemos incluido explícitamente la dependencia de los pesos. La minimización de la función objetivo de mínimos cuadrados mediante la elección óptima de pesos optimiza la precisión del ajuste.

Hay ocasiones en las que se deben optimizar múltiples objetivos, como la suavidad y la precisión. En ese caso, es útil optimizar una función objetivo regularizada como

dónde

y

donde la optimización de S maximiza la suavidad y se conoce como parámetro de regularización .

Se puede realizar un tercer paso de retropropagación opcional para ajustar todos los parámetros de la red RBF.

Interpolación

Redes RBF se pueden utilizar para interpolar una función cuando se conocen los valores de esa función en número finito de puntos: . Tomando los puntos conocidos como los centros de las funciones de base radial y evaluando los valores de las funciones de base en los mismos puntos, los pesos se pueden resolver a partir de la ecuación

Se puede demostrar que la matriz de interpolación en la ecuación anterior no es singular, si los puntos son distintos y, por lo tanto, los pesos se pueden resolver mediante álgebra lineal simple:

donde .

Aproximación de funciones

Si el propósito no es realizar una interpolación estricta, sino una aproximación o clasificación de funciones más generales , la optimización es algo más compleja porque no hay una opción obvia para los centros. El entrenamiento generalmente se realiza en dos fases, primero fijando el ancho y los centros y luego los pesos. Esto puede justificarse considerando la naturaleza diferente de las neuronas ocultas no lineales frente a la neurona de salida lineal.

Formación de los centros de funciones base

Los centros de función básica se pueden muestrear aleatoriamente entre las instancias de entrada o se pueden obtener mediante el algoritmo de aprendizaje de mínimos cuadrados ortogonales o se pueden encontrar agrupando las muestras y eligiendo las medias del grupo como centros.

Los anchos de RBF generalmente se fijan todos al mismo valor que es proporcional a la distancia máxima entre los centros elegidos.

Solución pseudoinversa para los pesos lineales

Una vez que se han fijado los centros , las ponderaciones que minimizan el error en la salida se pueden calcular con una solución lineal pseudoinversa :

,

donde las entradas de G son los valores de las funciones de base radial evaluados en los puntos de : .

La existencia de esta solución lineal significa que, a diferencia de las redes de perceptrones multicapa (MLP), las redes RBF tienen un minimizador explícito (cuando los centros son fijos).

Entrenamiento de descenso de gradiente de los pesos lineales

Otro posible algoritmo de entrenamiento es el descenso de gradientes . En el entrenamiento de descenso de gradiente, los pesos se ajustan en cada paso de tiempo moviéndolos en una dirección opuesta al gradiente de la función objetivo (permitiendo así encontrar el mínimo de la función objetivo),

donde es un "parámetro de aprendizaje".

Para el caso de entrenar los pesos lineales , el algoritmo se convierte en

en el caso no normalizado y

en el caso normalizado.

Para arquitecturas lineales locales, el entrenamiento de descenso de gradientes es

Entrenamiento del operador de proyección de los pesos lineales

Para el caso de entrenar los pesos lineales, y , el algoritmo se convierte en

en el caso no normalizado y

en el caso normalizado y

en el caso local-lineal.

Para una función básica, el entrenamiento del operador de proyección se reduce al método de Newton .

Figura 6: Serie temporal del mapa logístico. La iteración repetida del mapa logístico genera una serie de tiempo caótica. Los valores se encuentran entre cero y uno. Aquí se muestran los 100 puntos de entrenamiento utilizados para entrenar los ejemplos de esta sección. Los pesos c son los primeros cinco puntos de esta serie de tiempo.

Ejemplos de

Mapa logístico

Las propiedades básicas de las funciones de base radial se pueden ilustrar con un mapa matemático simple, el mapa logístico , que mapea el intervalo unitario sobre sí mismo. Se puede utilizar para generar un prototipo de flujo de datos conveniente. El mapa logístico se puede utilizar para explorar la aproximación de funciones , la predicción de series de tiempo y la teoría de control . El mapa se originó en el campo de la dinámica de poblaciones y se convirtió en el prototipo de series de tiempo caóticas . El mapa, en el régimen completamente caótico, está dado por

donde t es un índice de tiempo. El valor de x en el tiempo t + 1 es una función parabólica de x en el tiempo t. Esta ecuación representa la geometría subyacente de la caótica serie temporal generada por el mapa logístico.

La generación de la serie de tiempo a partir de esta ecuación es el problema hacia adelante . Los ejemplos aquí ilustran el problema inverso ; identificación de la dinámica subyacente, o ecuación fundamental, del mapa logístico a partir de ejemplos de la serie temporal. El objetivo es encontrar una estimación

para f.

Aproximación de funciones

Funciones de base radial no normalizadas

La arquitectura es

Figura 7: Funciones de base no normalizadas. El mapa logístico (azul) y la aproximación al mapa logístico (rojo) después de una pasada por el conjunto de entrenamiento.

dónde

.

Dado que la entrada es un escalar en lugar de un vector , la dimensión de entrada es uno. Elegimos el número de funciones de base como N = 5 y el tamaño del conjunto de entrenamiento para ser 100 ejemplos generados por la serie de tiempo caótica. El peso se considera una constante igual a 5. Los pesos son cinco ejemplos de la serie de tiempo. Los pesos se entrenan con la formación del operador de proyección:

donde la tasa de aprendizaje se considera 0,3. El entrenamiento se realiza con una pasada por los 100 puntos de entrenamiento. El error rms es 0,15.

Figura 8: Funciones de base normalizadas. El mapa logístico (azul) y la aproximación al mapa logístico (rojo) después de una pasada por el conjunto de entrenamiento. Tenga en cuenta la mejora con respecto al caso no normalizado.

Funciones de base radial normalizadas

La arquitectura RBF normalizada es

dónde

.

De nuevo:

.

Nuevamente, elegimos el número de funciones base como cinco y el tamaño del conjunto de entrenamiento para ser 100 ejemplos generados por la serie de tiempo caótica. El peso se considera una constante igual a 6. Los pesos son cinco ejemplos de la serie temporal. Los pesos se entrenan con la formación del operador de proyección:

donde la tasa de aprendizaje se toma nuevamente como 0.3. El entrenamiento se realiza con una pasada por los 100 puntos de entrenamiento. El error rms en un conjunto de prueba de 100 ejemplares es 0.084, menor que el error no normalizado. La normalización produce una mejora de la precisión. Normalmente, la precisión con funciones de base normalizadas aumenta aún más que las funciones no normalizadas a medida que aumenta la dimensionalidad de entrada.

Figura 9: Funciones de base normalizadas. El mapa logístico (azul) y la aproximación al mapa logístico (rojo) en función del tiempo. Tenga en cuenta que la aproximación es válida solo para unos pocos pasos de tiempo. Ésta es una característica general de las series temporales caóticas.

Predicción de series de tiempo

Una vez que se estima la geometría subyacente de la serie de tiempo como en los ejemplos anteriores, se puede hacer una predicción para la serie de tiempo por iteración:

.

En la figura se muestra una comparación de las series de tiempo real y estimada. La serie de tiempos estimada comienza en el tiempo cero con un conocimiento exacto de x (0). A continuación, utiliza la estimación de la dinámica para actualizar la estimación de la serie de tiempo para varios pasos de tiempo.

Tenga en cuenta que la estimación es precisa solo para unos pocos pasos de tiempo. Ésta es una característica general de las series temporales caóticas. Ésta es una propiedad de la dependencia sensible de las condiciones iniciales comunes a las series de tiempo caóticas. Un pequeño error inicial se amplifica con el tiempo. Una medida de la divergencia de series de tiempo con condiciones iniciales casi idénticas se conoce como exponente de Lyapunov .

Control de una serie temporal caótica

Figura 10: Control del mapa logístico. Se permite que el sistema evolucione de forma natural durante 49 pasos de tiempo. En el momento 50 se enciende el control. La trayectoria deseada para la serie temporal es roja. El sistema bajo control aprende la dinámica subyacente y conduce la serie de tiempo a la salida deseada. La arquitectura es la misma que para el ejemplo de predicción de series de tiempo.

Suponemos que la salida del mapa logístico se puede manipular a través de un parámetro de control tal que

.

El objetivo es elegir el parámetro de control de tal manera que lleve la serie de tiempo a una salida deseada . Esto se puede hacer si elegimos el parámetro de control para ser

dónde

es una aproximación a la dinámica natural subyacente del sistema.

El algoritmo de aprendizaje viene dado por

dónde

.

Ver también

Referencias

Otras lecturas