Propiedad de Markov - Markov property

Una sola realización del movimiento browniano tridimensional para tiempos 0 ≤ t ≤ 2. El movimiento browniano tiene la propiedad de Markov, ya que el desplazamiento de la partícula no depende de sus desplazamientos pasados.

En teoría de probabilidad y estadística , el término propiedad de Markov se refiere a la propiedad sin memoria de un proceso estocástico . Lleva el nombre del matemático ruso Andrey Markov . El término propiedad fuerte de Markov es similar a la propiedad de Markov, excepto que el significado de "presente" se define en términos de una variable aleatoria conocida como tiempo de parada .

El término supuesto de Markov se utiliza para describir un modelo en el que se supone que se cumple la propiedad de Markov, como un modelo de Markov oculto .

Un campo aleatorio de Markov extiende esta propiedad a dos o más dimensiones o variables aleatorias definidas para una red interconectada de elementos. Un ejemplo de modelo para tal campo es el modelo Ising .

Un proceso estocástico de tiempo discreto que satisface la propiedad de Markov se conoce como cadena de Markov .

Introducción

Un proceso estocástico tiene la propiedad de Markov si la distribución de probabilidad condicional de los estados futuros del proceso (condicionada a los valores pasados ​​y presentes) depende sólo del estado presente; es decir, dado el presente, el futuro no depende del pasado. Se dice que un proceso con esta propiedad es de Markov o un proceso de Markov . El proceso de Markov más famoso es una cadena de Markov . El movimiento browniano es otro proceso de Markov bien conocido.

Historia

Definición

Sea un espacio de probabilidad con una filtración , para algún conjunto de índices ( totalmente ordenado ) ; y sea ​​un espacio medible . Se dice que un proceso estocástico valorado y adaptado a la filtración posee la propiedad de Markov si, para todos y cada uno con ,

En el caso de que sea ​​un conjunto discreto con el álgebra sigma discreta y , este se puede reformular de la siguiente manera:

Formulaciones alternativas

Alternativamente, la propiedad de Markov se puede formular como sigue.

para todos y acotado y medible.

Fuerte propiedad de Markov

Suponga que es un proceso estocástico en un espacio de probabilidad con filtración natural . Entonces, para cualquier tiempo de parada en , podemos definir

.

Entonces se dice que tiene la propiedad de Markov fuerte si, para cada tiempo de parada , condicionado al evento , tenemos que para cada uno , es independiente de dado .

La propiedad fuerte de Markov implica la propiedad ordinaria de Markov, ya que tomando el tiempo de parada , se puede deducir la propiedad ordinaria de Markov.


En la previsión

En los campos del modelado predictivo y el pronóstico probabilístico , la propiedad de Markov se considera deseable ya que puede permitir el razonamiento y la resolución del problema que de otro modo no sería posible resolver debido a su intratabilidad . Este modelo se conoce como modelo de Markov .

Ejemplos

Suponga que una urna contiene dos bolas rojas y una verde. Ayer se extrajo una bola, hoy se extrajo una bola y mañana se sacará la bola final. Todos los sorteos son "sin reemplazo".

Suponga que sabe que la bola de hoy era roja, pero no tiene información sobre la bola de ayer. La probabilidad de que la bola de mañana sea roja es 1/2. Eso es porque los únicos dos resultados restantes de este experimento aleatorio son:

Día Resultado 1 Resultado 2
Ayer rojo Verde
Hoy rojo rojo
mañana Verde rojo

Por otro lado, si sabe que tanto las bolas de hoy como las de ayer fueron rojas, entonces tiene la garantía de obtener una bola verde mañana.

Esta discrepancia muestra que la distribución de probabilidad para el color de mañana depende no solo del valor presente, sino que también se ve afectada por la información sobre el pasado. Este proceso estocástico de colores observados no tiene la propiedad de Markov. Usando el mismo experimento anterior, si el muestreo "sin reemplazo" se cambia por el muestreo "con reemplazo", el proceso de colores observados tendrá la propiedad de Markov.

Una aplicación de la propiedad de Markov en una forma generalizada es en los cálculos de Monte Carlo de la cadena de Markov en el contexto de las estadísticas bayesianas .

Ver también

Referencias