Teoría del aprendizaje computacional - Computational learning theory

En informática , la teoría del aprendizaje computacional (o simplemente la teoría del aprendizaje ) es un subcampo de la inteligencia artificial dedicado al estudio del diseño y análisis de algoritmos de aprendizaje automático .

Descripción general

Los resultados teóricos en el aprendizaje automático se refieren principalmente a un tipo de aprendizaje inductivo llamado aprendizaje supervisado . En el aprendizaje supervisado, un algoritmo recibe muestras que están etiquetadas de alguna manera útil. Por ejemplo, las muestras pueden ser descripciones de hongos y las etiquetas pueden indicar si los hongos son comestibles o no. El algoritmo toma estas muestras previamente etiquetadas y las usa para inducir un clasificador. Este clasificador es una función que asigna etiquetas a las muestras, incluidas las muestras que el algoritmo no ha visto anteriormente. El objetivo del algoritmo de aprendizaje supervisado es optimizar alguna medida de rendimiento, como minimizar el número de errores cometidos en nuevas muestras.

Además de los límites de rendimiento, la teoría del aprendizaje computacional estudia la complejidad del tiempo y la viabilidad del aprendizaje. En la teoría del aprendizaje computacional, un cálculo se considera factible si se puede realizar en tiempo polinomial . Hay dos tipos de resultados de complejidad temporal:

  • Resultados positivos: muestran que una determinada clase de funciones se puede aprender en tiempo polinomial.
  • Resultados negativos: muestran que ciertas clases no se pueden aprender en tiempo polinomial.

Los resultados negativos a menudo se basan en suposiciones comúnmente creídas, pero aún no probadas, como:

Hay varios enfoques diferentes de la teoría del aprendizaje computacional que se basan en hacer diferentes suposiciones sobre los principios de inferencia utilizados para generalizar a partir de datos limitados. Esto incluye diferentes definiciones de probabilidad (ver probabilidad de frecuencia , probabilidad bayesiana ) y diferentes supuestos sobre la generación de muestras. Los diferentes enfoques incluyen:

Si bien su objetivo principal es comprender el aprendizaje de manera abstracta, la teoría del aprendizaje computacional ha llevado al desarrollo de algoritmos prácticos. Por ejemplo, la teoría PAC inspiró el impulso , la teoría VC condujo a máquinas de vectores de soporte y la inferencia bayesiana condujo a redes de creencias .

Ver también

Referencias

Encuestas

  • Angluin, D. 1992. Teoría del aprendizaje computacional: Encuesta y bibliografía seleccionada. En Actas del Vigésimo Cuarto Simposio Anual de ACM sobre Teoría de la Computación (mayo de 1992), páginas 351–369. http://portal.acm.org/citation.cfm?id=129712.129746
  • D. Haussler. Probablemente un aprendizaje aproximadamente correcto. En AAAI-90 Proceedings of the Eight National Conference on Artificial Intelligence, Boston, MA, páginas 1101–1108. Asociación Estadounidense de Inteligencia Artificial, 1990. http://citeseer.ist.psu.edu/haussler90probably.html

Dimensión VC

Selección de características

Inferencia inductiva

Aprendizaje óptimo de la notación O

Resultados negativos

Impulso (aprendizaje automático)

Aprendizaje Occam

Probablemente aprendizaje aproximadamente correcto

Tolerancia a errores

Equivalencia

Se ofrece una descripción de algunas de estas publicaciones en publicaciones importantes sobre aprendizaje automático .

Teoría del aprendizaje de la distribución

enlaces externos