Manta Markov - Markov blanket

En una red bayesiana, el límite de Markov del nodo A incluye a sus padres, hijos y otros padres de todos sus hijos.

En estadística y aprendizaje automático , cuando se quiere inferir una variable aleatoria con un conjunto de variables, normalmente un subconjunto es suficiente y otras variables son inútiles. Este subconjunto que contiene toda la información útil se denomina manta de Markov . Si una manta de Markov es mínima, lo que significa que no puede eliminar ninguna variable sin perder información, se denomina límite de Markov . Identificar una manta de Markov o un límite de Markov ayuda a extraer características útiles. Los términos de la manta de Markov y el límite de Markov fueron acuñados por Judea Pearl en 1988.

Manta de markov

Un manto de Markov de una variable aleatoria en un conjunto de variables aleatorias es cualquier subconjunto de , condicionado a que otras variables sean independientes con :

Significa que contiene al menos toda la información que se necesita inferir , donde las variables en son redundantes.

En general, una manta de Markov determinada no es única. Cualquier conjunto que contenga una manta de Markov es también una manta de Markov en sí misma. Específicamente, es una manta de Markov de in .

Límite de Markov

Un límite de Markov de in es un subconjunto de , que en sí mismo es un manto de Markov , pero cualquier subconjunto propio de no es un manto de Markov de . En otras palabras, un límite de Markov es una manta mínima de Markov.

El límite de Markov de un nodo en una red bayesiana es el conjunto de nodos compuesto por los padres, los hijos y los otros padres de los hijos. En un campo aleatorio de Markov , el límite de Markov para un nodo es el conjunto de sus nodos vecinos. En una red de dependencia , el límite de Markov para un nodo es el conjunto de sus padres.

Unicidad del límite de Markov

El límite de Markov siempre existe. En algunas condiciones suaves, el límite de Markov es único. Sin embargo, para la mayoría de los escenarios prácticos y teóricos, los límites de Markov múltiples pueden proporcionar soluciones alternativas. Cuando hay varios límites de Markov, las cantidades que miden el efecto causal podrían fallar.

Ver también

Notas

  1. ^ Perla, Judea (1988). Razonamiento probabilístico en sistemas inteligentes: redes de inferencia plausible . Serie de representación y razonamiento. San Mateo CA: Morgan Kaufmann. ISBN   0-934613-73-7 . CS1 maint: parámetro desalentado ( enlace )
  2. Statnikov, Alexander; Lytkin, Nikita I .; Lemeire, Jan; Aliferis, Constantin F. (2013). "Algoritmos para el descubrimiento de múltiples fronteras de Markov" (PDF) . Revista de investigación sobre aprendizaje automático . 14 : 499–566.
  3. ^ Wang, Yue; Wang, Linbo (2020). "Inferencia causal en sistemas degenerados: un resultado de imposibilidad" . Actas de la 23ª Conferencia Internacional sobre Inteligencia Artificial y Estadística : 3383–3392.