Procesos Estocasticos - 1
Procesos Estocasticos - 1
Procesos Estocasticos - 1
estocasticos
Ideas preliminares
Series temporales
Serie temporal o
cronolgica
- sucesin de valores
de una variable
observada durante un
periodo de tiempo.
Ejemplo
Registro de la temperatura
mxima diaria en una ciudad
durante un mes.
Ideas preliminares
Series temporales
Importancia
Conocer la evolucin de
los valores de la variable
tratada en el tiempo.
Predecir el
comportamiento
de los fenmenos.
Ideas preliminares
Procesos estocsticos
Variable aleatoria a lo
largo del tiempo
Objetivo
Ajustar un modelo con el fin
de hacer predicciones sobre
el comportamiento futuro.
Proceso estocstico
Estados:
Posibles
valores que
puede tomar
la variable
aleatoria
espacio de estados
discreto
espacio de estados
continuo
Adems la variable tiempo puede ser
de tipo discreto o de tipo continuo
Un proceso estocstico
puede considerarse
tambin como un funcin
de dos variables.
De manera que a la pareja
Para cada t
se le asocia el estado
o
Procesos estocsticos
Si el conjunto T es...
La v. a. Xt es...
continuo
proceso estocstico de
parmetro continuo
discreto
proceso estocstico de
parmetro discreto
Si para instante t
Xt es continua
de estado continuo
Xt es discreta
de estado discreto
Procesos estocsticos
Caso sencillo tiempo discreto
Supongamos el espacio
parametral:
(Discreto)
Entonces habr:
variables aleatorias
Procesos estocsticos
Caso tiempo continuo
Entonces el proceso es a
tiempo continuo y se denota:
Convencin:
si el subndice es n, entonces los
tiempos son discretos, y si el
subndice es t, el tiempo se mide de
manera continua
Procesos estocsticos
Procesos estocsticos
Cadena - Ejemplo mquina en una fbrica
Los posibles estados para la mquina son que est
operando o que est fuera de funcionamiento.
La vericacin se realizar al
principio de cada da siendo
los estados:
"fuera de operacin" con el
valor 0
"en operacin" con el valor 1.
Posible secuencia
de cambios de
estado a travs del
tiempo para esa
mquina.
Procesos estocsticos
Procesos de Saltos Puros - Ejemplo
Seal telegrca.
Slo hay dos posibles
estados (por ej. 1 y -1)
pero la oportunidad del
cambio de estado se da
en cualquier instante en
el tiempo, es decir, el
instante del cambio de
estado es aleatorio.
Procesos estocsticos
Proceso continuo - Ejemplo
Procesos estocsticos
Procesos de estado discreto
Procesos estocsticos
Procesos de estado discreto
Principal inters
en el caso
discreto:
* clculo de
probabilidades de
ocupacin de
cada estado a
partir de las
probabilidades de
cambio de
estado.
Si en el instante n1 se est
en el estado xn1con qu
probabilidad se estar en el
estado xn en el siguiente n?
Esta probabilidad se denotar
con
probabilidad de transicin
o de cambio de estado.
Procesos estocsticos
Procesos de estado discreto
Probabilidades de
ocupacin de estado
Probabilidades de
transicin o de cambio de
estado.
Otra notacin
Procesos estocsticos
Procesos de estado discreto
Procesos estocsticos
Procesos de estado discreto
Procesos de Markov
Propiedad de Markov.
Son procesos donde,
suponiendo conocido el
estado presente del sistema,
los estados anteriores no
tienen influencia en los
estados futuros del sistema.
Procesos estocsticos
Procesos de estado discreto
Cadenas de Markov
Aquellas Cadenas que cumplen la propiedad de
Markov se llaman Cadenas de Markov.
Procesos estocsticos
Procesos de estado discreto
Cadenas de Markov
Considere una mquina que ser
revisado al inicio de cada da para
vericar si est operativa o si est
daada.
diagrama de estados
Ejemplo
El clima en la Tierra de Oz
Ejemplo
El clima en la Tierra de Oz
Primero encontremos la probabilidades de transicin, es
decir las probabilidades de que teniendo cierto clima un da,
al da siguiente se tenga otro clima.
Indiquemos con b un da bueno, con uno lluvioso y n si
nieva.
Ejemplo
El clima en la Tierra de Oz
Resumiendo:
Veamos que:
Los coeficientes son positivos.
Si sumamos una fila el resultado es 1.
En cambio la suma por columnas no da 1.
Se le llama matriz de
transicin (o transiciones).
Una matriz doble estocstica es una matriz cuadrada donde todos los
valores son no negativos y todas las filas y columnas suman 1.
Ejemplo
El clima en la Tierra de Oz
En el siguiente momento
volveremos a ese estado o a
otro.
Pasaremos de un estado a
otro con cierta probabilidad.
Procesos estocsticos
Cadenas de Markov
La matriz de transicin
pij es la probabilidad de
estar en el estado j dado
que est en el estado i.
En cualquier paso puede
ocurrir alguno de los
sucesos E1 , E2 , . . . , Em y
Procesos estocsticos
Cadenas de Markov - Ejemplo 1
Ejemplo
Cadenas de Markov
Las siguientes matrices son estocsticas?
Procesos estocsticos
Cadenas de Markov - Ejemplo 2
Paseante
La zona urbana de mi pueblo tiene 6
cuadras de largo, que van de norte a
sur.
Estoy con ganas de deambular y pasar
el tiempo, y como tengo una moneda,
se me ocurre tirarla y caminar una
cuadra hacia el norte si sale cara o una
cuadra hacia el sur si sale cruz. Y
contino este juego hasta salir de la
zona urbana, ya sea hacia el norte o hacia
el sur
Procesos estocsticos
Cadenas de Markov - Ejemplo 2
Al llegar al estado 0 o 6
el "juego" se termina,
por lo que ponemos un
1 en la entrada
correspondiente
indicando que ya nos
quedamos para siempre
en esa posicin.
Procesos estocsticos
Cadenas de Markov - Dos pasos, ejemplo.
Evidentemente en el
primer paso estaremos
en algn estado
intermedio
k (que puede ser i o j) y
despus pasar de k a j
En cada camino
multiplicamos
las probabilidades, y
despus sumamos los
caminos
Procesos estocsticos
Cadenas de Markov - Dos pasos, ejemplo.
Procesos estocsticos
Cadenas de Markov
Supongamos que estando en un estado i lleguemos en
varios pasos al estado j.
Entonces la matriz que
contiene todos estos
estados se llama:
es la probabilidad de
transicin del estado i al
estado j en n pasos
matriz de transicin de n
pasos.
Nota
La matriz P es de un paso
Procesos estocsticos
Cadenas de Markov
Matriz de transicin de n
pasos.
Propiedades
Se puede obtener
multiplicando la matriz de
transicin de un paso.
En general:
Procesos estocsticos
Cadenas de Markov - Probabilidades iniciales
Procesos estocsticos
Cadenas de Markov - Probabilidades iniciales
Procesos estocsticos
Cadenas de Markov - Probabilidades iniciales
Procesos estocsticos
Cadenas de Markov - Probabilidades iniciales