Independencia por parejas - Pairwise independence

En la teoría de la probabilidad , una colección independiente por pares de variables aleatorias es un conjunto de variables aleatorias de las cuales dos son independientes . Cualquier colección de variables aleatorias independientes entre sí es independiente por pares, pero algunas colecciones independientes por parejas no son independientes entre sí. Las variables aleatorias independientes por pares con varianza finita no están correlacionadas .

Un par de variables aleatorias X e Y son independientes si y solo si el vector aleatorio ( X , Y ) con la función de distribución acumulativa conjunta (CDF) satisface

o equivalentemente, su densidad conjunta satisface

Es decir, la distribución conjunta es igual al producto de las distribuciones marginales.

A menos que no esté claro en el contexto, en la práctica el modificador "mutuo" generalmente se elimina de modo que independencia significa independencia mutua . Una declaración como " X , Y , Z son variables aleatorias independientes" significa que X , Y , Z son mutuamente independientes.

Ejemplo

La independencia por pares no implica independencia mutua, como se muestra en el siguiente ejemplo atribuido a S. Bernstein.

Suponga que X e Y son dos lanzamientos independientes de una moneda justa, donde designamos 1 para cara y 0 para cruz. Deje que la tercera variable aleatoria Z sea ​​igual a 1 si exactamente uno de esos lanzamientos de moneda resultó en "cara", y 0 en caso contrario. Entonces, en conjunto, el triple ( X , Y , Z ) tiene la siguiente distribución de probabilidad :

Aquí las distribuciones de probabilidad marginal son idénticas: y Las distribuciones bivariadas también concuerdan: donde

Dado que cada una de las distribuciones conjuntas por pares es igual al producto de sus respectivas distribuciones marginales, las variables son independientes por pares:

  • X e Y son independientes y
  • X y Z son independientes y
  • Y y Z son independientes.

Sin embargo, X , Y y Z no son mutuamente independientes , ya que el lado izquierdo es igual, por ejemplo, a 1/4 para ( x , y , z ) = (0, 0, 0) mientras que el lado derecho es igual a 1/8 para ( x , y , z ) = (0, 0, 0). De hecho, cualquiera de está completamente determinado por los otros dos (cualquiera de X , Y , Z es la suma (módulo 2) de los otros). Eso está tan lejos de la independencia como pueden llegar las variables aleatorias.

Probabilidad de la unión de eventos independientes por pares

Los límites de la probabilidad de que la suma de las variables aleatorias de Bernoulli sea ​​al menos una, comúnmente conocido como límite de unión , son proporcionados por las desigualdades de Boole-Fréchet . Si bien estos límites suponen solo información univariante , también se han propuesto varios límites con conocimiento de probabilidades bivariadas generales . Denote por un conjunto de eventos de Bernoulli con probabilidad de ocurrencia para cada uno . Suponga que las probabilidades bivariadas están dadas por para cada par de índices . Kounias derivó el siguiente límite superior :


que resta el peso máximo de un árbol de expansión de estrellas en un gráfico completo con nodos (donde los pesos de los bordes vienen dados por ) de la suma de las probabilidades marginales . Hunter-Worsley ajustó este límite superior optimizando de la siguiente manera:

donde es el conjunto de todos los árboles de expansión en el gráfico. Estos límites no son los más estrechos posibles con bivariados generales incluso cuando la viabilidad está garantizada como se muestra en Boros et.al. Sin embargo, cuando las variables son independientes por pares ( ), Ramachandra-Natarajan mostró que el límite de Kounias-Hunter-Worsley es estrecho al demostrar que la probabilidad máxima de la unión de eventos admite una expresión de forma cerrada dada como:

 

 

 

 

( 1 )

donde las probabilidades se ordenan en orden creciente como . Es interesante notar que el límite estrecho en la ecuación. 1 depende solo de la suma de las probabilidades más pequeñas y la probabilidad más grande . Por lo tanto, mientras que el orden de las probabilidades juega un papel en la derivación del límite, el orden entre las probabilidades más pequeñas es intrascendente ya que solo se usa su suma.

Comparación con el límite de unión de Boole-Fréchet

Es útil comparar los límites más pequeños de la probabilidad de unión con dependencia arbitraria e independencia por pares, respectivamente. El límite de unión superior de Boole-Fréchet más ajustado (asumiendo solo información univariante ) se da como:

 

 

 

 

( 2 )

Como se muestra en Ramachandra-Natarajan, se puede verificar fácilmente que la razón de los dos límites estrechos en la Ec. 2 y Eq. 1 está delimitado por arriba por donde se alcanza el valor máximo de cuando

,

donde las probabilidades se ordenan en orden creciente como . En otras palabras, en el mejor de los casos, el límite de independencia por pares en la ecuación. 1 proporciona una mejora sobre el límite univariante en la ecuación. 2 .

Generalización

De manera más general, podemos hablar de k independencia -wise, para cualquier k  ≥ 2. La idea es similar: un conjunto de variables aleatorias es k -wise independiente si cada subconjunto de tamaño k de esas variables es independiente. La independencia en sentido k se ha utilizado en informática teórica, donde se utilizó para probar un teorema sobre el problema MAXEkSAT .

La independencia de k -wise se usa en la prueba de que las funciones de hash independientes de k son códigos de autenticación de mensajes seguros e imposibles de falsificar .

Ver también

Referencias