Aumento de gradiente - Gradient boosting

El aumento de gradiente es una técnica de aprendizaje automático para regresión , clasificación y otras tareas, que produce un modelo de predicción en forma de un conjunto de modelos de predicción débiles, generalmente árboles de decisión . Cuando un árbol de decisión es el alumno débil, el algoritmo resultante se denomina árboles potenciados por gradiente, que generalmente supera al bosque aleatorio . Construye el modelo por etapas como lo hacen otros métodos de impulso , y los generaliza al permitir la optimización de una función de pérdida diferenciable arbitraria .

Historia

La idea del aumento de gradiente se originó en la observación de Leo Breiman de que el impulso se puede interpretar como un algoritmo de optimización en una función de costo adecuada. Jerome H. Friedman desarrolló posteriormente algoritmos de impulso de gradiente de regresión explícita , simultáneamente con la perspectiva más general de impulso de gradiente funcional de Llew Mason, Jonathan Baxter, Peter Bartlett y Marcus Frean. Los dos últimos artículos introdujeron la visión de impulsar los algoritmos como algoritmos iterativos de descenso de gradientes funcionales . Es decir, algoritmos que optimizan una función de costo sobre el espacio funcional eligiendo iterativamente una función (hipótesis débil) que apunta en la dirección del gradiente negativo. Esta vista de gradiente funcional del impulso ha llevado al desarrollo de algoritmos de impulso en muchas áreas del aprendizaje automático y las estadísticas más allá de la regresión y la clasificación.

Introducción informal

(Esta sección sigue la exposición del aumento de gradiente por Li).

Al igual que otros métodos de refuerzo, el refuerzo de gradiente combina "aprendices" débiles en un único alumno fuerte de forma iterativa. Es más fácil de explicar en la configuración de regresión de mínimos cuadrados , donde el objetivo es "enseñar" a un modelo a predecir los valores de la forma minimizando el error cuadrático medio , donde los índices sobre algún conjunto de entrenamiento del tamaño de los valores reales de la salida variable :

  • el valor predicho
  • el valor observado
  • el número de muestras en

Ahora, consideremos un algoritmo de aumento de gradiente con etapas. En cada etapa ( ) de aumento de gradiente, suponga algún modelo imperfecto (para bajo , este modelo simplemente puede regresar , donde el RHS es la media de ). Con el fin de mejorar , nuestro algoritmo debe agregar algo nuevo estimador, . Por lo tanto,

o equivalente,

.

Por lo tanto, el aumento de gradiente ajustará h al residual . Como en otras variantes de impulso, cada uno intenta corregir los errores de su predecesor . Una generalización de esta idea a las funciones de pérdida distintas del error cuadrático y a los problemas de clasificación y clasificación se deriva de la observación de que los residuos de un modelo dado son proporcionales equivalentes a los gradientes negativos de la función de pérdida del error cuadrático medio (MSE) (con respecto a a ):

.

Por lo tanto, el aumento de gradiente podría especializarse en un algoritmo de descenso de gradiente , y generalizarlo implica "conectar" una pérdida diferente y su gradiente.

Algoritmo

En muchos problemas de aprendizaje supervisado hay una variable de salida y y un vector de variables de entrada x , relacionados entre sí con alguna distribución probabilística. El objetivo es encontrar alguna función que se aproxime mejor a la variable de salida a partir de los valores de las variables de entrada. Esto se formaliza introduciendo alguna función de pérdida y minimizándola:

.

El método del gradiente impulsar asume un valor real- Y y busca una aproximación en forma de una suma ponderada de las funciones de alguna clase , llamada base (o débil ) alumnos:

.

Por lo general, se nos proporciona un conjunto de entrenamiento de valores muestrales conocidos de x y los valores correspondientes de y . De acuerdo con el principio de minimización del riesgo empírico , el método intenta encontrar una aproximación que minimice el valor promedio de la función de pérdida en el conjunto de entrenamiento, es decir, minimice el riesgo empírico. Lo hace comenzando con un modelo, que consta de una función constante , y lo expande incrementalmente de una manera codiciosa :

,
,

donde es una función de aprendizaje base.

Desafortunadamente, elegir la mejor función h en cada paso para una función de pérdida arbitraria L es un problema de optimización computacionalmente inviable en general. Por lo tanto, restringimos nuestro enfoque a una versión simplificada del problema.

La idea es aplicar un paso de descenso más pronunciado a este problema de minimización (descenso funcional del gradiente).

La idea básica detrás del descenso más empinado es encontrar un mínimo local de la función de pérdida iterando en . De hecho, se puede demostrar que la dirección de descenso máximo (derivada negativa más fuerte) de la función de pérdida al mínimo local a lo largo de es la función en sí misma sustraída por el gradiente de la función de pérdida en sí. Por eso:



Donde . Esto implica: .


Además, podemos optimizar encontrando el valor para el cual la Función de Pérdida tiene un mínimo:


Si consideráramos el caso continuo, es decir, dónde está el conjunto de funciones diferenciables arbitrarias , actualizaríamos el modelo de acuerdo con las siguientes ecuaciones

Dónde:

donde las derivadas se toman con respecto a las funciones para , y es la longitud del paso. Sin embargo, en el caso discreto, es decir, cuando el conjunto es finito, elegimos la función candidata h más cercana al gradiente de L para la cual el coeficiente γ puede calcularse con la ayuda de la búsqueda de líneas en las ecuaciones anteriores. Tenga en cuenta que este enfoque es heurístico y, por lo tanto, no produce una solución exacta al problema dado, sino más bien una aproximación. En pseudocódigo, el método genérico de aumento de gradiente es:

Entrada: formación establece una función de pérdida diferenciable número de iteraciones M .

Algoritmo:

  1. Inicialice el modelo con un valor constante:
  2. Para m = 1 a M :
    1. Calcule los llamados pseudo-residuales :
    2. Ajuste un alumno base (o un alumno débil, por ejemplo, un árbol) cerrado bajo escala a pseudo-residuales, es decir, entrénelo usando el conjunto de entrenamiento .
    3. Calcule el multiplicador resolviendo el siguiente problema de optimización unidimensional :
    4. Actualiza el modelo:
  3. Producción

Aumento del árbol de degradado

El aumento de gradiente se usa típicamente con árboles de decisión (especialmente árboles CART ) de un tamaño fijo como aprendices base. Para este caso especial, Friedman propone una modificación al método de aumento de gradiente que mejora la calidad de ajuste de cada alumno base.

El aumento de gradiente genérico en el m -ésimo paso encajaría un árbol de decisión en pseudo-residuales. Sea el número de sus hojas. El árbol divide el espacio de entrada en regiones separadas y predice un valor constante en cada región. Usando la notación del indicador , la salida de para la entrada x se puede escribir como la suma:

donde es el valor predicho en la región .

Luego, los coeficientes se multiplican por algún valor , elegido mediante la búsqueda de líneas para minimizar la función de pérdida, y el modelo se actualiza de la siguiente manera:

Friedman propone modificar este algoritmo para que elija un valor óptimo separado para cada una de las regiones del árbol, en lugar de uno solo para todo el árbol. Él llama al algoritmo modificado "TreeBoost". Los coeficientes del procedimiento de ajuste de árbol pueden simplemente descartarse y la regla de actualización del modelo se convierte en:

Tamaño de los árboles

, el número de nodos terminales en los árboles, es el parámetro del método que se puede ajustar para un conjunto de datos disponible. Controla el nivel máximo permitido de interacción entre variables en el modelo. Con ( tocones de decisión ), no se permite la interacción entre variables. Con el modelo se pueden incluir efectos de la interacción entre hasta dos variables, etc.

Hastie y col. comentario que normalmente funciona bien para impulsar y los resultados son bastante insensibles a la elección de este rango, es insuficiente para muchas aplicaciones y es poco probable que sea necesario.

Regularización

Ajustar el conjunto de entrenamiento demasiado de cerca puede conducir a la degradación de la capacidad de generalización del modelo. Varias de las denominadas técnicas de regularización reducen este efecto de sobreajuste al restringir el procedimiento de ajuste.

Un parámetro de regularización natural es el número de iteraciones de aumento de gradiente M (es decir, el número de árboles en el modelo cuando el alumno base es un árbol de decisiones). Aumentar M reduce el error en el conjunto de entrenamiento, pero establecerlo demasiado alto puede provocar un sobreajuste. A menudo, se selecciona un valor óptimo de M supervisando el error de predicción en un conjunto de datos de validación separado. Además de controlar M , se utilizan varias otras técnicas de regularización.

Otro parámetro de regularización es la profundidad de los árboles. Cuanto mayor sea este valor, más probable es que el modelo se sobreajuste a los datos de entrenamiento.

Contracción

Una parte importante del método de aumento de gradiente es la regularización por contracción, que consiste en modificar la regla de actualización de la siguiente manera:

donde el parámetro se denomina "tasa de aprendizaje".

Empíricamente se ha encontrado que el uso de pequeñas tasas de aprendizaje (como ) produce mejoras dramáticas en la capacidad de generalización de los modelos sobre el aumento de gradiente sin contraerse ( ). Sin embargo, tiene el precio de aumentar el tiempo de cálculo tanto durante el entrenamiento como durante las consultas : una tasa de aprendizaje más baja requiere más iteraciones.

Impulso del gradiente estocástico

Poco después de la introducción de gradiente de impulsar, Friedman propuso una modificación menor para el algoritmo, motivado por Breiman 's agregación bootstrap método ( 'ensacado'). Específicamente, propuso que en cada iteración del algoritmo, un alumno base debería encajar en una submuestra del conjunto de entrenamiento extraído al azar sin reemplazo. Friedman observó una mejora sustancial en la precisión del aumento de gradiente con esta modificación.

El tamaño de la submuestra es una fracción constante del tamaño del conjunto de entrenamiento. Cuando , el algoritmo es determinista e idéntico al descrito anteriormente. Los valores más pequeños de introducen aleatoriedad en el algoritmo y ayudan a prevenir el sobreajuste , actuando como una especie de regularización . El algoritmo también se vuelve más rápido, porque los árboles de regresión deben ajustarse a conjuntos de datos más pequeños en cada iteración. Friedman obtuvo que conduce a buenos resultados para series de entrenamiento de tamaño pequeño y moderado. Por lo tanto, generalmente se establece en 0.5, lo que significa que la mitad del conjunto de capacitación se usa para construir cada alumno base.

Además, al igual que en el ensacado, el submuestreo permite definir un error fuera de bolsa de la mejora del rendimiento de la predicción al evaluar las predicciones en aquellas observaciones que no se utilizaron en la construcción del siguiente alumno base. Las estimaciones listas para usar ayudan a evitar la necesidad de un conjunto de datos de validación independiente, pero a menudo subestiman la mejora del rendimiento real y el número óptimo de iteraciones.

Número de observaciones en hojas

Las implementaciones de refuerzo de árboles de gradiente a menudo también utilizan la regularización al limitar el número mínimo de observaciones en los nodos terminales de los árboles. Se utiliza en el proceso de construcción del árbol al ignorar cualquier división que conduzca a nodos que contengan menos instancias de conjuntos de entrenamiento que esta cantidad.

La imposición de este límite ayuda a reducir la variación en las predicciones en las hojas.

Penalizar la complejidad del árbol

Otra técnica de regularización útil para árboles potenciados por gradientes es penalizar la complejidad del modelo aprendido. La complejidad del modelo se puede definir como el número proporcional de hojas en los árboles aprendidos. La optimización conjunta de la pérdida y la complejidad del modelo corresponde a un algoritmo posterior a la poda para eliminar las ramas que no logran reducir la pérdida en un umbral. También se pueden agregar otros tipos de regularización, como una penalización en los valores de la hoja, para evitar el sobreajuste .

Uso

El aumento de gradiente se puede utilizar en el campo de aprender a clasificar . Los motores de búsqueda web comerciales Yahoo y Yandex utilizan variantes de aumento de gradiente en sus motores de clasificación de aprendizaje automático. El aumento de gradiente también se utiliza en Física de Altas Energías en el análisis de datos. En el Gran Colisionador de Hadrones (LHC), las variantes de redes neuronales profundas (DNN) de impulso de gradiente lograron reproducir los resultados de métodos de análisis sin aprendizaje automático en conjuntos de datos utilizados para descubrir el bosón de Higgs .

Nombres

El método tiene una variedad de nombres. Friedman introdujo su técnica de regresión como una "máquina de aumento de gradiente" (GBM). Mason, Baxter y col. describió la clase abstracta generalizada de algoritmos como "aumento funcional del gradiente". Friedman y col. describir un avance de los modelos impulsados ​​por gradientes como Árboles de regresión aditiva múltiple (MART); Elith y col. describen ese enfoque como "árboles de regresión potenciados" (BRT).

Una implementación popular de código abierto para R lo llama un "Modelo de impulso generalizado", sin embargo, los paquetes que amplían este trabajo utilizan BRT. Otro nombre más es TreeNet, después de una implementación comercial temprana de Dan Steinberg de Salford System, uno de los investigadores que fueron pioneros en el uso de métodos basados ​​en árboles. XGBoost es otra implementación moderna popular del método con algunas extensiones, como la optimización de segundo orden.

Desventajas

Si bien el impulso puede aumentar la precisión de un alumno básico, como un árbol de decisiones o una regresión lineal, sacrifica la inteligibilidad y la interpretabilidad . Además, su implementación puede resultar más difícil debido a la mayor demanda computacional.

Ver también

Referencias

Otras lecturas

  • Boehmke, Bradley; Greenwell, Brandon (2019). "Aumento de gradiente". El aprendizaje práctico de la máquina con R . Chapman y Hall. págs. 221–245. ISBN 978-1-138-49568-5.

enlaces externos