El Libro Estocastico4

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 20

PROCESOS ESTOCÁSTICOS

PROCESOS ESTOCÁSTICOS
Introducción

Douglas Rivas
Rúben Delgadillo.
Universidad de Los Andes

Clases
CHAPTER 1

PROCESOS ESTOCÁSTICOS

Suerte...
—Douglas

1.1 Objetivos del tema

A continuación se presentan los objetivos que se quiere el estudiante alcance una vez estu-
diado el tema

Definir procesos estocásticos identificando los elementos que componen la definición.

Reconocer cuando un fenómeno o experimento aleatorio es un proceso estocástico.

Caracterizar los distintos procesos estocásticos según su espacio de estados y espacio


de parámetros.

Determinar la distribución y los momentos de un proceso estocástico.

Identificar el tipo de proceso de acuerdo a sus propiedades.

Procesos Estocásticos, Primera Edición. 1


By D. Rivas, R. Delgadillo Copyright ⃝
c 2016 Universidad de Los Andes.
2 PROCESOS ESTOCÁSTICOS

1.2 Introducción

En el estudio de las variables aleatorias realizado hasta el momento se han estudiado las
características aleatorias del fenómeno pero suponiendo que las mismas permanecen con-
stantes a través del tiempo o el espacio. Al incluir en el estudio la presencia de la variable
determinística tiempo (espacio) se está considerando que, de alguna forma, la variable
aleatoria depende del tiempo(espacio). En otras palabras, la variable aleatoria dependerá
del fenómeno probabilístico y del tiempo. En consecuencia, cualquier función que se es-
tablezca en términos de la variable aleatoria, como los son la función de distribución o la
función de densidad, serán también dependientes del tiempo.

Uno de los objetivos de este capítulo es construir un modelo que nos permita explicar la
estructura y preveer la evolución, al menos a corto plazo, de una variable que observamos
a lo largo del tiempo. La variable observada puede ser económica (IPC, demanda de un
producto, el inventario de un almacén, entre otras), física (temperatura de un proceso, ve-
locidad del viento en una central eólica, concentración en la atmósfera de un contaminante,
etc...), social (número de nacimientos, votos de un determinado partido, etc...), salud (), ed-
ucación ().

La teoría de los procesos estocásticos se centra en el estudio y modelización de sistemas


que evolucionan a lo largo del tiempo, o del espacio, de acuerdo a unas leyes no deter-
minísticas, esto es, de carácter aleatorio.

La forma habitual de describir la evolución del sistema es mediante sucesiones o colec-


ciones de variables aleatorias. De esta manera, se puede estudiar como evoluciona una
variable aleatoria a lo largo del tiempo. Por ejemplo, el número de personas que espera
ante una ventanilla de un banco en un instante t de tiempo; el precio de las acciones de una
empresa a los largo de un año; el número de parados en el sector hotelero a lo largo de una
año.

Considere un sistema que puede caracterizarse por estar en cualquier de un conjunto de


valores previamente especificado. Suponga que el sistema evoluciona o cambia de un
estado a otro a lo largo del tiempo de acuerdo con cierta ley de movimiento, y sea X(t)
el valor del sistema en el tiempo t. Si se considera que la forma en la que el sistema
evoluciona no es determinista, sino provocada por algún mecanismo aleatorio, entonces
puede considerarse que X(t) es una variable aleatoria para cada valor de t. Esta colección
de variables aleatorias es la definición de proceso estocástico, y sirve como modelo para
representar la evolución aleatoria de un sistema a lo largo del tiempo. En general, las
variables aleatorias que conforman un proceso no son independientes entre sí, sino que
están relacionadas unas con otras de alguna manera particular. Las distintas formas en que
pueden darse estas dependencias es una de las características que distingue a unos procesos
de otros.

1.3 Definición de Proceso estocástico

La primera idea básica es identificar un proceso estocástico como una sucesión de vari-
ables aleatorias {Xn , n ∈ N} donde el subindice indica el instante de tiempo (o espacio)
DEFINICIÓN DE PROCESO ESTOCÁSTICO 3

correspondiente.

Esta idea inicial se puede generalizar fácilmente, permitiendo que los instantes de tiempo
en los que se definen las variables aleatorias sean continuos. Así, se podrá hablar de una
colección o familia de variables aleatorias {X(t), t ∈ R}, que da una idea mas exacta de
lo que es un proceso estocástico.

Se tenía que una variable aleatoria X(ω) es una función que va desde un espacio muestral
Ω a la recta real, de manera que a cada punto ω ∈ Ω del espacio muestral se le puede
asociar un número de la recta real. (Por supuesto dicha función debe cumplir con una
condición). De igual manera se define el vector aleatorio. (ver figura 1.1).

Variable Aleatoria Vector Aleatorio

W W R2
X X
w R w

x(w)

Figure 1.1

Formalmente,

Definición 1.1 (Variable Aleatoria) X : Ω → R tal que X −1 (I) ∈ A I ⊆ R y además


se cumple que P [X −1 (I)] = P [ω/X(ω) ∈ I]

Definición 1.2 (Vector Aleatorio) X = (X1 , X2 , ..., Xk ) es un vector aleatorio definido


en (Ω, A, P ) si y solo si cada Xi (i = 1, 2, ...) es una variable aleatoria en (Ω, A, P )

De este modo, la probabilidad de cada suceso de Ω se puede trasladar a la probabilidad


de que un valor de X(ω) caiga en un cierto intervalo o conjunto de números reales. Si a
todo esto se le añade una dimensión temporal o espacial, se obtiene un proceso estocástico.

De manera formal, la definición de proceso estocástico toma como base un espacio de


probabilidad (Ω, A, P ). Por lo tanto una definición probabilística y matemática es la sigu-
iente:

Definición 1.3 (Proceso estocástico) Un proceso estocástico sobre (Ω, A, P ), es una fun-
ción X : Ω × T → E tal que a la pareja (ω, t) se le asocia un valor en E representado
por X(ω, t)

Ω representa el espacio muestral de un experimento aleatorio y T representa un conjunto


de valores asociados generalmente con el tiempo o el espacio.

En la figura 1.2 se visualiza gráficamente la definición de un proceso estocástico.


4 PROCESOS ESTOCÁSTICOS

30
X(w1,t)

25
W

20
w1 X(w2,t)

15
w2
w3
10
5

X(w3,t)
0

0 5 10 15 20

Figure 1.2

EJEMPLO 1.1

Supongamos que una línea de taxi de Mérida tiene a su disposición n vehículos. Se


esta interesado en estudiar la velocidad de los vehículos cuando hacen un viaje de
Mérida al vigía. En este caso podemos definir X(ω, t) como la velocidad del vehículo
ω al tiempo t de haber comenzado el recorrido. Por supuesto la velocidad registrada
depende del auto y del instante de tiempo en el que se mida la velocidad. 
Notemos que la parte aleatoria de un proceso estocástico viene dada por Ω. Por lo tanto,
para cada instante t tendremos una variable aleatoria distinta representada por Xt , con lo
que un proceso estocástico puede interpretarse como una sucesión de variables aleatorias
cuyas características pueden variar a lo largo del tiempo, como se ve en la figura 1.3.

Xt

Figure 1.3
DEFINICIÓN DE PROCESO ESTOCÁSTICO 5

En el ejemplo anterior, si fijamos t = 15 min., la variable X(ω, 15) representa la velocidad


del carro ω a los 15 minutos de haber salido de Mérida.

De lo dicho anteriormente, se da a continuación una definición de procesos estocásticos


que es generalmente más usada

Definición 1.4 (Proceso estocástico) Un proceso estocástico sobre (Ω, A, P ) con espacio
de estados E y conjunto de indices T, es una familia de variables aleatorias representada
por {Xt : t ∈ T }.

A los posibles valores que puede tomar la variable aleatoria se le denominan estados, por
lo tanto al conjunto de todos los posibles valores se le denomina espacio de estados. For-
malmente

Definición 1.5 (Espacio de Estados) Es el conjunto de todos los posibles valores de Xt .

El espacio de estados puede ser finito o infinito, tal distinción es muy importante porque la
misma da una tipología de los procesos estocásticos.

El otro elemento importante en la definición de proceso estocástico es el espacio de parámetro


conocido también como conjunto de indices.

Definición 1.6 (Espacio del Parámetro) Es el conjunto de posibles indices, usualmente


es [0, ∞); (−∞, ∞); {1, 2, 3, ...}; etc. Usualmente T representa un conjunto de tiempo.

Al igual que con el espacio de estados, el espacio del parámetro puede ser finito o infinito,
y dicha diferenciación definen una tipología de los procesos estocásticos. En el caso finito,
se acostumbra sustituir t por n.
Notación Es costumbre escribir

{Xt : t ∈ T } ≡ {Xt (ω) : ω ∈ Ω; t ∈ T } ≡ {Xt }t∈T

EJEMPLO 1.2

Sea Xt el número de clientes que se encuentran en una cola en el momento t.


E = {0, 1, 2, ...}
T = {t : t ∈ (−∞, ∞)}


EJEMPLO 1.3

Lanzamiento de un dado muchas veces. Xt es la cara del dado que cae en el momento
t.
E = {1, 2, 3, 4, 5, 6}
T = {t : t ∈ (−∞, ∞)}

6 PROCESOS ESTOCÁSTICOS

Hemos visto que si fijamos el valor de t obtenemos una variable aleatoria. Por otro lado,
si fijamos ω ∈ Ω entonces obtenemos una función X(ω) : T → R sobre el conjunto de
parámetros, es decir, a cada evento ω en el espacio Ω le corresponde una función sobre el
conjunto de parámetros T .
Por lo tanto, para cada valor de t en T , el mapeo ω → Xt (ω) es una variable aleatoria,
mientras que para cada ω en Ω fijo, la función t → Xt (ω) es llamada una trayectoria o
realización del proceso (ósea que en vez de un valor se tiene una función de t). Es decir, a
cada ω del espacio muestral le corresponde una trayectoria del proceso (ver figura 1.4. Es
por ello que a veces se define un proceso estocástico como una función aleatoria.
12
10
8
y1

6
4
2
0

0 5 10 15 20

Figure 1.4 Trayectoria de un Proceso Estocástico

Notación

X.(ω) para ω fijo (ω ∈ Ω) representa una realización del proceso estocástico.

Xt (.) para t fijo (t ∈ T ) es una variable aleatoria.

EJEMPLO 1.4

Consideremos el proceso {Xt : t ≥ 0} que registra el número de llamadas que llegan a


una central telefónica durante un día. Escoger ω ∈ Ω equivale escoger un día del año al
azar. Una vez determinado ω tenemos una función X(ω) : R → R, que corresponde
al número de llamadas telefónicas recibidas hasta el instante t durante el día ω. Si
fijamos t, entonces Xt es una variable aleatoria que representa el número de llamadas
hasta el instante t. Ahora si fijamos un conjunto finito de indices (t1 , t2 , ..., tn ) es un
vector aleatorio n-dimensional. 

EJEMPLO 1.5
DEFINICIÓN DE PROCESO ESTOCÁSTICO 7

Se lanza una moneda varias veces. Supóngase que cada vez que sale cara, un jugador
gana 1 unidad y si sale cruz pierde 1 unidad. Se puede definir un proceso estocástico
que modeliza la evolución del juego. Así, si se denomina Xn al número de unidades
monetarias que quedan después de n lanzamientos, el espacio muestral de Xn es

Ω = {n − uplas de c y s }

de modo que el número de elementos del conjunto es

N (Ω) = 2n

y el sigma-álgebra que se define es A = P(Ω), esto es, las partes de Ω.Si consider-
amos a todas las posibles n − uplas equiprobables entonces P (ω) = 1/2n .
Es un proceso discreto, porque el conjunto paramétrico es T = {1, 2, 3, · · · } y el
posible conjunto d estados es

E = {· · · , −3, −2, −1, 0, 1, 2, 3, · · · }

Fijemos w y construyamos una trayectoria de Xt (ω). Vamos a suponer que n = 6 y


que ω = {c, c, s, s, s, s}, entonces

X1 (ω) = 1; X2 (ω) = 2; X3 (ω) = 1


X4 (ω) = 0; X5 (ω) = −1; X6 (ω) = −2

Fijemos t, por ejemplo t = 3, y calculemos la distribución de X3 . Haciendo el


diagrama de árbol es fácil ver que

X3 = {−3, −1, 1, 3}

P (X3 = −3) = 1
23 = 8
1

P (X3 = −1) = 3 213 = 38


P (X3 = 1) = 3 213 = 38
P (X3 = 3) = 213 = 18


Resumiendo

1. {Xt : t ∈ T } es un punto del espacio T y donde para cada t ∈ T , Xt es un punto en


el espacio E.

2. {Xt : t ∈ T } podemos considerarlo como la trayectoria de una partícula que se


mueve al azar en el espacio E siendo Xt la posición de la partícula en un instante t.

Recordemos E es el espacio de todos los posibles valores de Xt . Los elementos Ej son


los estados del proceso.
8 PROCESOS ESTOCÁSTICOS

1.4 Clasificación de los Procesos estocásticos

De acuerdo con la defunción de procesos estocástico vista anteriormente, existen dos el-
ementos muy importantes que los caracterizan, el espacio del parámetro y el espacio de
estados. Por lo tanto, tenemos distintos procesos de acuerdo a si dichos espacios son dis-
cretos o continuos. Veamos a continuación dicha clasificación

Según T (Espacio del parámetro) 1. Si T es una secuencia finita o infinita numerable,


entonces {Xt : t ∈ T } se dice que es un proceso estocástico de parámetro discreto
(Cadena estadística).
2. Si T es un intervalo entonces se dice que {Xt : t ∈ T } es un proceso de parámetro
continuo.

Según E (Espacio de estado) 1. Si E es un conjunto finito o infinito numerable de esta-


dos, entonces {Xt : t ∈ T } es un proceso estocástico discreto en el espacio de
estado o proceso estocástico de estado discreto.
2. Si E es un conjunto infinito no numerable de estados, entonces se dice que {Xt :
t ∈ T } es un proceso estocástico continuo en el espacio de estado proceso es-
tocástico de estado continuo.

Dicha clasificación no puede verse de manera separada pues un proceso estocástico esta
definido por ambos espacios a la vez, siendo así en la siguiente tabla se muestra dicha
clasificación
```
``` Parámetro
``` Discreto Continuo
Estado ``
Discreto Cadena Proceso Puntual
Continuo secuencia aleatoria Proceso continuo

Table 1.1 Clasificación de los procesos estocásticos.

Es decir,

Una Cadena es un proceso estocástico en el cual el tiempo se mueve en forma discreta


y la variable aleatoria sólo toma valores discretos en el espacio de estados. Un gráfico
típico de este tipo de proceso se muestra en la figura 1.5.

Figure 1.5 Cadena


CLASIFICACIÓN DE LOS PROCESOS ESTOCÁSTICOS 9

Por ejemplo, considere una máquina dentro de una fábrica, los posibles estados de
para la máquina son que esté operando o que esté fuera de funcionamiento y la ver-
ificación de esta característica se realizará al principio de cada día de trabajo. Si
hacemos corresponder el estado ”fuera de funcionamiento” con el valor 0 y el estado
”en operación” con el valor 1, se tiene que el espacio de estado es E = {0, 1} y
el espacio del parámetro es T = {1, 2, ..., 20} correspondientes a los días laborales,
la siguiente figura muestra una posible secuencia de cambios de estado a través del
tiempo para esa máquina.

Figure 1.6 Estado de la máquina al inicio del día

Un Proceso Puntual es un proceso estocástico en el cual los cambios de estados


pueden ocurrir en cualquier momento pero la variable aleatoria sólo toma valores
discretos en el espacio de estados, por ejemplo, unidades producidas hasta el instante
de tiempo t. La representación gráfica común de este tipo de procesos se muestra en
la figura 1.6

Xt

x3

x2

x1

T
t1 t2 t3 t4 t5 t6 t7

Figure 1.7 Proceso Puntual

Por ejemplo consideremos de numero de estudiantes que están solicitando libros en la


biblioteca de la Facultad de Ciencias Económicas y Sociales en un instante de tiempo
al día. El espacio de estados esta representado por E = {0, 1, 2, ..., n}, numero de
estudiantes, el cual es discreto, y el espacio de estados sería T = [0, 480] tomando el
tiempo en minutos, el cual es continuo.

En una secuencia aleatoria los estados cambian dentro de un conjunto continuo de


estados y en momentos determinados de tiempo. La figura 1.5 es un gráfico represen-
tativo de este tipo de procesos pero en este caso la variable aleatoria es continua. Un
ejemplo de este tipo de la cantidad de lluvia en litros que caen diariamente durante un
mes. La cantidad de agua es una variable aleatoria continua, entonces E = [0, ∞), y
el espacio del parámetro sería T = {1, 2, ..., 00} días del mes.
10 PROCESOS ESTOCÁSTICOS

En un proceso continuo los cambios de estados se producen en cualquier instante y


hacia cualquier estado dentro de un espacio continuo de estados. La figura 1.8 muestra
gráficamente un proceso de este tipo.

Figure 1.8 Proceso Continuo

Por ejemplo sea {Xt : t ∈ T } un proceso estocástico donde Xt es el flujo de agua en


un río en un intervalo de tiempo. Según T es de parámetro continuo y según E es un
proceso estocástico continuo.

1.5 Distribución de orden k de un proceso estocástico

Definición 1.7 La Función de Distribución de orden k del proceso estocástico {Xt , t ∈


T }, es la función de distribución conjunta del vector aleatorio (Xt1 , Xt2 , ..., Xtk , es decir

F (x1 , x2 , ..., xk ; t1 , t2 , ..., tk ) = P [Xt1 ≤ x1 , Xt2 ≤ x2 , ..., Xtk ≤ xk ]

Definición 1.8 La Función de de masa de probabilidad y la función de densidad de orden


k del proceso estocástico {Xt , t ∈ T }, están dadas respectivamente por

P (x1 , x2 , ..., xk ; n1 , n2 , ..., nk ) = P [Xn1 = x1 , Xn2 = x2 , ..., Xnk = xk ]

y
∂k
f (x1 , x2 , ..., xk ; t1 , t2 , ..., tk ) = F (x1 , x2 , ..., xk ; t1 , t2 , ..., tk )
∂x1 , ..., xk

EJEMPLO 1.6

Consideremos el lanzamiento de una moneda varias veces. Cada vez que la moneda
cae cara la partícula se mueve una posición hacia atrás, en caso contrario se mueve
una posición hacia adelante. Sea p = P [{sello}]. Sea Xn la posición de la partícula
en el tiempo n = 2. Estamos interesados en hallar la función de masa de probabilidad
de orden j del proceso.

Como n = 2 nos interesa modelar la posición de la partícula una vez que la moneda
ha sido lanzada dos veces. El espacio muestral del experimento aleatorio es

Ω = {ss, sc, cs, cc}


PRIMER Y SEGUNDO MOMENTO DE UN PROCESO ESTOCÁSTICO 11

donde {s} es sello y {c} es cara. La variable aleatoria Xn toma los siguientes valores:

X2 = −2 cuando ocurre ω = {cc},

X2 = 0 cuando ocurre ω = {sc} ó ω = {cs}

X2 = 2 cuando ocurre ω = {ss}

Ahora bien,

P [X2 = −2] = P [{cc}] = (1 − p)(1 − p) = (1 − p)2

P [X2 = 0] = P [{sc}∪{cs}] = P [{sc}]+P [{cs}] = (1−p)p+p(1−p) = 2p(1−p)

P [X2 = 2] = P [{cc}] = (p)(p) = p2

Por lo tanto, 

(1 − p) ,
2
si x = −2;
P [X2 = x] = 2p(1 − p), si x = 0;

 2
p , si x = 2.


1.6 Primer y Segundo Momento de un Proceso Estocástico

Así mismo como la media, la varianza y la covarianza nos permiten caracterizar, al menos
parcialmente, variables y vectores aleatorios, también podemos caracterizar un proceso
estocástico con la ayuda de sus momentos.

Definición 1.9 La media E[Xt ] de un proceso estocástico {Xt , t ∈ T } en el tiempo t se


denota por mX (t). Además la función de autocorrelación y la función de autocovarianza
del proceso en el punto (t1 , t2 ) son definidas respectivamente por

RX (t1 , t2 ) = E[Xt1 , Xt2 ]


CovX (t1 , t2 ) = RX (t1 , t2 ) − mX (t1 )mX (t2 )

Finalmente, el coeficiente de correlación del proceso estocástico en el punto (t1 , t2 ) es

CovX (t1 , t2 )
ρX (t1 , t2 ) =
[CovX (t1 , t1 )CovX (t2 , t2 )]1/2

Se usa el prefijo auto porque la función es calculada para dos valores del mismo proceso
{Xt , t ∈ T }. La función RX,Y (t1 , t2 ) = E[Xt1 Yt2 ] donde {Yt , t ∈ T ∗} es otro proceso
estocástico, es llamada la Función de Correlación Cruzada. De hecho en nuestro caso
podemos omitir el prefijo.

La función RX (t, t) = E[Xt2 ] es llamada la potencia promedio del proceso estocástico.


Además la Varianza del proceso en el tiempo t es

V ar[Xt ] = CovX (t, t)


12 PROCESOS ESTOCÁSTICOS

EJEMPLO 1.7

Sea Y una variable aleatoria que se distribuye U (0, 1). Definamos el proceso estocástico{Xt , t ≥
0} por
Xt = eY t, t ≥ 0
Vamos a calcular la función de densidad de primer proceso, la media y la función de
autocorrelación.

Usando la técnica de la transformación se tiene que la función de densidad de primer


orden del proceso está dada por

d ln(x/t)

f (x, t) = fXt (x) = fY [ln(x/t)] =1
dt


d ln(x/t)
f (x, t) = fXt (x) = fY [ln(x/t)]
dt

1 1 1
= 1 1/t = = , ∀x ∈ (t, te)
x/t x x

La media es
∫ 1 1

E[Xt ] = E[eY t] = tE[eY ] = t ey 1dy = tey
0 0

= t(e − e ) = t(e − 1), t ≥ 0


1 0

o de manera equivalente,
∫ te ∫ te te
1
E[Xt ] = x dx = dx = x
t x t t
= te − t = t(e − 1), t ≥ 0

Finalmente,
Xt Xt+s = eY teY (t + s) = e2y t(t + s)
Por lo tanto,

RX (t, t + s) = E[Xt , Xt+s ] = E[e2y t(t + s)] = t(t + s)E[e2y ]


∫ 1
e2y 1 t(t + s) 2
= t(t + s) e2y dy = t(t + s) = [e − 1], ∀s, t ≥ 0
0 2 0 2

EJEMPLO 1.8

Ensayos independientes para los cuales la probabilidad de éxito es la misma para cada
uno de estos ensayos son llamados ensayos Bernoulli. Por ejemplo, podemos lanzar
un dado independientemente un número indefinido de veces y definir un éxito cuando
cae el ”6”, Un proceso Bernoulli, es una sucesión X1 , X2 , ... de variables aleatorias
PROPIEDADES DE LOS PROCESOS ESTOCÁSTICOS 13

Bernoulli asociadas con ensayos Bernoulli. Esto es, Xk = 1 si el k-esimo ensayo es


un éxito y xk = 0 en otro caso. Podemos fácilmente calcular


1
E[Xk ] = xk P (xk ) = 0(1 − p) + 1(p) = p
xk =0

donde p es la probabilidad de un éxito, y


1 ∑
1
RX (k1 , k2 ) = E[Xk1 Xk2 ] = xk1 xk2 P [xk1 xk2 ]
xk1 =0 xk2 =0


1 ∑
1
= xk1 xk2 P [xk1 ]P [xk2 ]
xk1 =0 xk2 =0

= 0 ∗ 0(1 − p)2 + 0 ∗ 1(1 − p)p + 1 ∗ 0 ∗ p(1 − p) + 1 ∗ 1 + p2 = p2

si k − 1 = k2 = k,


1
RX (k, k) = E[Xk2 ] = x2k P [xk ] = 02 (1 − p) + 1 ∗ p = p
xk =0

Entonces,
{
p2 − p ∗ p = 0, ̸ k2 ;
si k1 =
CovX (k1 , k2 ) =
CovX (k, k) = p − p = p(1 − p), si k1 = k2 = k.
2

1.7 Propiedades de los Procesos Estocásticos

Algunos procesos estocásticos presentan propiedades las cual permiten su estudio de man-
era más fácil pues se simplifican los cálculos en los mismos. En este caso vamos a estudiar
tres de las propiedades más importantes: Procesos estacionarios, procesos Markovianos y
procesos con incrementos independientes.

1.7.1 Procesos Estacionarios


Intuitivamente, un proceso estacionario es aquel que, a lo largo del tiempo, mantiene sus
características estadísticas.

Por ejemplo, si se sintoniza un receptor de FM en un canal libre, se oye un ruido de fondo.


Ese ruido de fondo suena siempre igual . No cambia de volumen ni de sonido con el
tiempo, ni a lo largo del día. Un ejemplo de proceso no estacionario sería la temperatura
ambiente en Mérida. Sabemos bien que la temperatura promedio en en diferentes épocas
del año la temperatura promedio es distinta. Esta correlación entre la época y, en este caso,
el promedio de temperatura, sugiere la no estacionareidad del proceso.
Existen dos clases de procesos estacionarios: Débil y estricto.
14 PROCESOS ESTOCÁSTICOS

Definición 1.10 (Estacionario Débil) Decimos que el proceso estocástico {Xt , t ∈ T }


tal que E[Xt2 ] < ∞ es un proceso estacionario débil o estacionario en sentido amplio si
1. E[Xt ] = m ∀t ∈ T
2. RX (t1 , t2 ) = RX (t2 − t1 )

Esta es la acepción de estacionariedad más utlizada en la práctica.

Observaciones:

1. Debe existir el momento de orden 2 de las variables aleatorias.


2. Ya que E[Xt ] = m, si {Xt , t ∈ T } es un proceso estacionario débil entonces

CovX (t1 , t2 ) = RX (t1 , t2 ) − mX (t1 )mX (t2 ) = RX (t2 − t1 ) − m2


= CovX (t2 − t1 ) = CovX (h) h = t2 − t1

Es decir que la función de autocovarianzas toma el mismo valor para 2 variables


aleatorias separadas por un retardo h en el proceso, independientemente de donde se
encuentren estas 2 variable s aleatorias en el tiempo.

3. Si seleccionamos t1 = t2 = t obtenemos RX (t, t) = E[Xt2 ] = RX (0) ∀t. Además


CovX (t, t) = E[Xt2 ] − m2 = V ar[Xt ] = RX (0) − m2 no depende de t.
4. Si tomamos t1 = t y t2 = t + s

RX (t1 , t2 ) = RX (t2 − t1 ) = RX (t + s − t) = RX (s)

Definición 1.11 (Estacionario Estricto) Decimos que el proceso estocástico {Xt , t ∈ T }


es un proceso estacionario estricto si su función de distribución es invariante bajo cualquier
cambio de origen

F (x1 , x2 , ..., xn ; t1 , t2 , ..., tn ) = F (x1 , x2 , ..., xn ; t1 +s, t2 +s, ..., tn +s) ∀s, n, t1 , ..., tn

es decir si ∀n ∈ N, ∀s ∈ T y ∀{t1 , t2 , ..., tn } ∈ T las variables aleatorias (Xt1 , Xt2 , ..., Xtn )
tiene la misma distribución conjunta que (Xt1 +s , Xt2 +s , ..., Xtn +s )

Observaciones:

1. En la práctica es difícil demostrar que un proceso es estacionario estricto (Excepto en


el caso de un proceso gaussiano). En consecuencia, a menudo nos conformamos con
una versión más simple de la noción de estacionariedad, al considerar sólo los casos
cuando n = 1 y n = 2.
2. Si {Xt , t ∈ T } es un proceso estacionario estricto entonces cuando n = 1

F (x; t) = F (x; t + s)

es decir, todas las variables aleatorias tienen la misma distribución y si suponemos


que E[Xt2 ] < ∞ entonces mX (t) = m la cual es la condición 1 del proceso débil.
PROPIEDADES DE LOS PROCESOS ESTOCÁSTICOS 15

Cuando n=2

F (xt1 , xt2 ; t1 , t2 ) = F (x1 , x2 ; t1 + s, t2 + s) = F (x1 , x2 ; t2 − t1 )

esto implica que


RX (t1 , t2 ) = RX (t2 − t1 )

la cual es la condición 2 del proceso estacionario débil.

Por lo tanto, si un proceso es estacionario estricto entonces es estacionario débil. Lo


contrario por lo general no es cierto.

EJEMPLO 1.9

El proceso Poisson,denotado como {Nt , t ≥ 0} tiene las siguientes características

E[N (t)] = λt, RX (t1 , t2 ) = λmin(t1 ,t2 )

es fácil ver que no es estacionario pues E[Nt ] depende de t.


Ahora si definimos Xt = Ntt entonces E[Xt ] = λ no depende de t pero RX (t1 , t2 )
no puede escribirse como RX (t2 − t1 ). Por lo tanto tampoco es estacionario. 

EJEMPLO 1.10

Consideremos el ejemplo 1.6, que por comodidad reescribimos la función de masa de


probabilidad de orden 2


(1 − p) ,
2
si x = −2;
P [X2 = x] = 2p(1 − p), si x = 0;

 2
p , si x = 2.

1.7.2 Procesos Markovianos.

La característica principal de los procesos estocásticos markovianos es que la distribución


de Xn+1 sólodepende de la distribución de Xn y no de las anteriores que el estado futuro
del proceso, sólo depende del estado presente, y no del resto de estados pasados. Formal-
mente se expresa como:
∀n ∈ N y ∀t1 < ... < tn

P (Xtn ≤ xn |Xt1 ≤ x1 , ..., Xtn−1 ≤ xn−1 ) = P (Xtn ≤ xn |Xtn−1 ≤ xn−1 )

Cuando el espacio de estados E es discreto, entonces se puede escribir

P (Xtn = xn |Xt1 = x1 , ..., Xtn−1 = xn−1 ) = P (Xtn = xn |Xtn−1 = xn−1 )


16 PROCESOS ESTOCÁSTICOS

1.7.3 Procesos de incrementos independientes.

Se dice que un proceso {Xt tal que t ∈ T } es de incrementos independientes si ∀n ∈


N, ∀t1 , ..., tn ∈ T , con t1 < ... < tn , las variables aleatorias

y1 = Xt2 − Xt1
y2 = Xt3 − Xt2
...
yn−1 = Xtn − Xtn−1

Son independientes.

Proposición 1.1 Todo proceso de incrementos independientes es un proceso markoviano.


Justificación
Supongamos un proceso {X1 , X2 , X3 } y hay que demostrar que

P (X3 = x3 |X2 = x2 , X1 = x1 ) = P (X3 = x3 |X2 = x2 )

para ver que es markoviano.


Así (dado que se conocen X2 = x2 y X1 = x1 )

P (X3 = x3 |X2 = x2 , X1 = x1 ) = P (X3 − X2 = x3 − x2 |X2 = x2 , X2 − X1 = x2 − x1 )(∗)


= P (X3 − X2 = x3 − x2 |X2 = x2 )
= P (X3 = x3 |X2 = x2 )

(*) por hipótesis, los incrementos son independientes.


Quedando así probado.

1.8 Ejercicios

Los ejercicios están disponibles en mi página web.


COSAS QUE DEBO MEJORAR EN LA CLASIFICACIÓN

También podría gustarte