Svoboda | Graniru | BBC Russia | Golosameriki | Facebook
Ir al contenido

Convergencia de variables aleatorias

De Wikipedia, la enciclopedia libre

En teoría de la probabilidad, existen diferentes nociones de convergencia de variables aleatorias. La convergencia de sucesiones de variables aleatorias a una variable aleatoria límite es un concepto importante en teoría de la probabilidad, y en sus aplicaciones a la estadística y los procesos estocásticos.

Convergencia en distribución

[editar]

Definición

[editar]

Se dice que una sucesión de variables aleatorias reales converge en distribución, o converge en ley, o converge débilmente, a una variable aleatoria si

para todo punto en el que es continua, donde y denotan las funciones de distribución acumulada de las variables aleatorias y , respectivamente.

La convergencia en distribución puede indicarse como:

 

 

 

 

(1)

donde es la ley (distribución de probabilidad) de X. Por ejemplo, si X es una gausiana típica o normal estándar se puede escribir .

Convergencia en probabilidad

[editar]

Definición

[editar]

Una sucesión de variables aleatorias reales converge en probabilidad a una variable aleatoria si para todo

Suele indicarse de alguna de estas maneras:

 

 

 

 

(2)

Convergencia casi segura

[editar]

Definición

[editar]

Una sucesión de variables aleatorias reales converge casi seguramente, o con probabilidad 1, a una variable aleatoria si

Notación:

 

 

 

 

(3)

Convergencia en

[editar]

Definición

[editar]

Dado un número real , se dice que la sucesión de variables aleatorias reales converge en a la variable aleatoria , si los momentos absolutos -ésimos y de y de existen, y

donde el operador denota la esperanza matemática.

Notación:

 

 

 

 

(4)