Independencia condicional - Conditional independence

En la teoría de la probabilidad , la independencia condicional describe situaciones en las que una observación es irrelevante o redundante al evaluar la certeza de una hipótesis. La independencia condicional se suele formular en términos de probabilidad condicional , como un caso especial en el que la probabilidad de la hipótesis dada la observación no informativa es igual a la probabilidad sin. Si es la hipótesis y son observaciones, la independencia condicional se puede establecer como una igualdad:

donde es la probabilidad de que se den ambos y . Dado que la probabilidad de dado es la misma que la probabilidad de dado ambos y , esta igualdad expresa que no aporta nada a la certeza de . En este caso, y se dice que son condicionalmente independientes dado , escrito simbólicamente como: .

El concepto de independencia condicional es esencial para las teorías de inferencia estadística basadas en gráficos, ya que establece una relación matemática entre una colección de enunciados condicionales y un grafoide .

Independencia condicional de eventos

Dejemos que , y sean eventos . y se dice que son condicionalmente independientes dado si y solo si y:

Esta propiedad se escribe a menudo: .

De manera equivalente, la independencia condicional puede expresarse como:

donde es la probabilidad conjunta de y dado . Esta formulación alternativa establece que y son eventos independientes , dados .

Prueba de la definición equivalente

iff      (definición de probabilidad condicional )
iff       (multiplica ambos lados por )
iff       (divide ambos lados por )
iff       (definición de probabilidad condicional)

Ejemplos de

La discusión sobre StackExchange proporciona un par de ejemplos útiles. Vea abajo.

Cajas de colores

Cada celda representa un posible resultado. Los eventos , y están representados por las áreas sombreadas en rojo , azul y amarillo, respectivamente. La superposición entre los eventos y está sombreada en violeta .

Estos son dos ejemplos que ilustran la independencia condicional.

Las probabilidades de estos eventos son áreas sombreadas con respecto al área total. En ambos ejemplos y son condicionalmente independientes dado porque:

pero no condicionalmente independiente dado porque:

Clima y retrasos

Supongamos que los dos eventos son las probabilidades de que las personas A y B lleguen a casa a tiempo para cenar, y el tercer evento es el hecho de que una tormenta de nieve azotó la ciudad. Si bien tanto A como B tienen una probabilidad más baja de llegar a casa a tiempo para la cena, las probabilidades más bajas seguirán siendo independientes entre sí. Es decir, el conocimiento de que A llega tarde no le dice si B llegará tarde. (Pueden estar viviendo en diferentes vecindarios, viajando diferentes distancias y usando diferentes medios de transporte). Sin embargo, si tiene información de que viven en el mismo vecindario, usan el mismo transporte y trabajan en el mismo lugar, entonces los dos los eventos NO son condicionalmente independientes.

Rodando dados

La independencia condicional depende de la naturaleza del tercer evento. Si tira dos dados, se puede suponer que los dos dados se comportan de forma independiente. Mirar los resultados de un dado no le dirá sobre el resultado del segundo dado. (Es decir, los dos dados son independientes). Sin embargo, si el resultado del primer dado es un 3 y alguien le informa sobre un tercer evento, que la suma de los dos resultados es par, entonces esta unidad adicional de información restringe la opciones para el segundo resultado a un número impar. En otras palabras, dos eventos pueden ser independientes, pero NO condicionalmente independientes.

Altura y vocabulario

La altura y el vocabulario son dependientes ya que las personas muy pequeñas tienden a ser niños, conocidos por sus vocabularios más básicos. Pero sabiendo que dos personas tienen 19 años (es decir, condicionado por la edad), no hay razón para pensar que el vocabulario de una persona es más grande si se nos dice que es más alto.

Independencia condicional de variables aleatorias

Dos variables aleatorias y son condicionalmente independientes dada una tercera variable aleatoria discreta si y solo si son independientes en su distribución de probabilidad condicional dada . Es decir, y son condicionalmente independientes dados si y solo si, dado cualquier valor de , la distribución de probabilidad de es la misma para todos los valores de y la distribución de probabilidad de es la misma para todos los valores de . Formalmente:

 

 

 

 

( Ecuación 2 )

donde es la función de distribución acumulativa condicional de y dado .

Dos eventos y son condicionalmente independientes dada una σ-álgebra si

donde denota la expectativa condicional de la función indicadora del evento , dado el álgebra sigma . Es decir,

Dos variables aleatorias y son condicionalmente independientes dada una σ-álgebra si la ecuación anterior se cumple para todos en y en .

Dos variables aleatorias y son condicionalmente independientes dada una variable aleatoria si son independientes dada σ ( W ): la σ-álgebra generada por . Esto se escribe comúnmente:

o

Esto se lee " es independiente de , dado "; el condicionamiento se aplica a todo el enunciado: "( es independiente de ) dado ".

Si asume un conjunto de valores contables, esto equivale a la independencia condicional de X e Y para los eventos de la forma . La independencia condicional de más de dos eventos, o de más de dos variables aleatorias, se define de forma análoga.

Los dos ejemplos siguientes muestran que ni implica ni está implícito por . Primero, suponga que es 0 con probabilidad 0.5 y 1 en caso contrario. Cuando W  = 0 tome y sea ​​independiente, cada uno con el valor 0 con probabilidad 0,99 y el valor 1 en caso contrario. Cuando , y vuelven a ser independientes, pero esta vez toman el valor 1 con probabilidad de 0,99. Entonces . Pero y son dependientes, porque Pr ( X  = 0) <Pr ( X  = 0 | Y  = 0). Esto se debe a que Pr ( X  = 0) = 0.5, pero si Y  = 0, entonces es muy probable que W  = 0 y, por lo tanto, X  = 0 también, por lo que Pr ( X  = 0 | Y  = 0)> 0.5. Para el segundo ejemplo, suponga que cada uno toma los valores 0 y 1 con probabilidad 0.5. Sea el producto . Entonces , cuando , Pr ( X  = 0) = 2/3, pero Pr ( X  = 0 | Y  = 0) = 1/2, entonces es falso. Este es también un ejemplo de Explicación. Vea el tutorial de Kevin Murphy dónde y tome los valores "inteligente" y "deportivo".

Independencia condicional de vectores aleatorios

Dos vectores aleatorios y son condicionalmente independientes dado un tercer vector aleatorio si y solo si son independientes en su distribución acumulativa condicional dada . Formalmente:

 

 

 

 

( Ecuación 3 )

donde , y y las distribuciones acumulativas condicionales se definen como sigue.

Usos en inferencia bayesiana

Sea p la proporción de votantes que votarán "sí" en un próximo referéndum . Al realizar una encuesta de opinión , uno elige n votantes al azar de la población. Para i  = 1,…,  n , sea X i  = 1 o 0 correspondiente, respectivamente, a si el i- ésimo votante elegido votará "sí" o no.

En un enfoque frecuentista de la inferencia estadística, uno no atribuiría ninguna distribución de probabilidad ap (a menos que las probabilidades pudieran interpretarse de alguna manera como frecuencias relativas de ocurrencia de algún evento o como proporciones de alguna población) y uno diría que X 1 , ..., X n son variables aleatorias independientes .

Por el contrario, en un bayesiano enfoque de la inferencia estadística, se podría asignar una distribución de probabilidad de p , independientemente de la no existencia de tal interpretación "frecuencia", y uno podría interpretar las probabilidades como grados de creencia de que p es en cualquier intervalo de a la que se le asigna una probabilidad. En ese modelo, las variables aleatorias X 1 ,…,  X n no son independientes, pero son condicionalmente independientes dado el valor de p . En particular, si se observa que un gran número de X es igual a 1, eso implicaría una alta probabilidad condicional , dada esa observación, de que p está cerca de 1 y, por lo tanto, una alta probabilidad condicional , dada esa observación, que el la siguiente X a observar será igual a 1.

Reglas de independencia condicional

A partir de la definición básica se ha derivado un conjunto de reglas que gobiernan las declaraciones de independencia condicional.

Estas reglas fueron denominadas " Axiomas grafoides " por Pearl y Paz, porque se mantienen en los gráficos, donde se interpreta que significa: "Todos los caminos de X a A son interceptados por el conjunto B ".

Simetría

Descomposición

Prueba

  •      (significado de )
  •      (ignore la variable B integrándola)
  •     

Una prueba similares demuestra la independencia de X y B .

Unión débil

Prueba

  • Por supuesto, .
  • Debido a la propiedad de la descomposición , .
  • La combinación de las dos igualdades anteriores da , lo que establece .

La segunda condición se puede probar de manera similar.

Contracción

Prueba

Esta propiedad se puede probar notando , cada igualdad de las cuales se afirma mediante y , respectivamente.

Intersección

Para distribuciones de probabilidad estrictamente positivas, lo siguiente también es válido:

Prueba

Por supuesto:

Utilizando esta igualdad, junto con la Ley de probabilidad total aplicada a :

Desde y , sigue eso .


Nota técnica: ya que estos tienen implicaciones para cualquier espacio de probabilidad, que todavía llevará a cabo si se considera una sub-universo acondicionando todo en otra variable, por ejemplo  K . Por ejemplo, también significaría eso .

Ver también

Referencias

enlaces externos