domingo, 31 de julio de 2011

CADENAS DE MARKOV

 
Una cadena de Markov es una serie de eventos, en la cual la probabilidad de que ocurra un evento depende del evento inmediato anterior. En efecto, las cadenas de este tipo tienen memoria. " Recuerdan" el último evento y esto condiciona las posibilidades de los eventos futuros. Esta dependencia del evento anterior distingue a las cadenas de Markov de las series de eventos independientes, como tirar una moneda al aire o un dado.
 En la figura 4.1.1  se muestra el proceso para formular una cadena de Markov. El generador de Markov produce uno de n eventos posibles, Ej , donde j = 1, 2, . . . , n, a intervalos discretos de tiempo (que no tiene que ser iguales ). Las probabilidades de ocurrencia para cada uno de estos eventos depende del estado del generador. Este estado se describe por el último evento generado. En la figura 4.1.1, el último evento generado fue Ej ,  de manera que el generador se encuentra en el estado Mj .


  
  La probabilidad de que Ek sea el siguiente evento generado es una probabilidad condicional : P ( Ek / Mj ). Esto se llama probabilidad de transición del estado Mj al estado Ek. Para describir completamente una cadena de Markov es necesario saber el estado actual y todas las probabilidades de transición.
 
Probabilidades de transición.
 
    Una forma de describir una cadena de Markov es con un diagrama de estados, como el que se muestra en la figura 4.1.2. En ésta se ilustra un sistema de Markov con cuatro estados posibles : M1, M2 , M3 y M4 . La probabilidad condicional o de transición de moverse de un estado a otro se indica en el diagrama

   
Otro método para exhibir las probabilidades de transición es usar una matriz de transición. . La matriz de transición para el ejemplo del diagrama de estados se muestra en la tabla 4.1.1 .


Otro método para exhibir las probabilidades de transición es usar una matriz de transición. .
Para n = 0, 1, 2, ....


El superíndice n no se escribe cuando n = 1.

CADENAS DE MARKOV
INTRODUCCIÓN
Descripción: WB01693_.gif (2469 bytes)
El análisis de Markov tuvo su origen en los estudios de A.A.Markov(1906-1907) sobre la secuencia de los experimentos conectados en cadena y los intentos de descubrir matemáticamente los fenómenos físicos conocidos como movimiento browiano. La teoría general de los procesos de Markov se desarrollo en las décadas de 1930 y 1940 por A.N.Kolmagoron, W.Feller, W.Doeblin, P.Levy, J.L.Doob y otros.
El análisis de Markov es una forma de analizar el movimiento actual de alguna variable, a fin de pronosticar un movimiento futuro de la misma.
ANÁLISIS DE MARKOV
Descripción: WB01693_.gif (2469 bytes)
Afin de ilustrar el proceso de Markov presentamos un problema en el que los estados de resultados de actividades son marcas, y las probabilidades de transición expresan la probabilidad de que los consumidores vayan de una marca a otra. Supongamos que la muestra inicial de consumidores se compone de 1 000 participantes distribuidos entre cuatro marcas(A, B, C, D). Una suposición adicional es que la muestra representa a todo el grupo.
En la siguiente tabla la mayor parte de los clientes que compraron inicialmente la marca A, siguieron con ella en el segundo periodo. No obstante la marca A ganó 50 clientes y perdió 45 con otras marcas.

Marca
Periodo 1
Numero de Clientes
Ganancias
Perdidas
Periodo 2
Numero de Clientes
A
220
50
45
225
B
300
60
70
290
C
230
25
25
230
D
250
40
35
255
1 000
175
175
1 000

Esta tabla no muestra la historia completa, sino que necesita un análisis detallado con respecto a la proporción de ganancias y perdidas netas entre las cuatro marcas. Es necesario calcular las probabilidades de transición para las cuatro marcas. Las probabilidades de transición se definen como la probabilidad de que determinada marca, conserve sus clientes. Para determinar lo anterior dividimos se divide el numero de clientes retenidos entre en numero de clientes en el periodo inicial, por ejemplo para la marca A (220- 45=175) se divide 175/220 lo que nos da 0.796, al igual para las otras marcas, obteniendo 0.767(B),0.891(C),0.860(D).
Para aquellos clientes que cambiaron de marcas , es necesario mostrar las perdidas y ganancias entre las marcas a fin de completar las matriz de probabilidades de transición. De acuerdo con los datos desarrollados, el paso siguiente consiste en convertir el cambio de marcas de los clientes de modo que todas las perdidas y ganancias tomen forma de probabilidades de transición, obteniendo la matriz de probabilidad de transición.

La siguiente tabla nos muestra la matriz de transición final.

A
B
C
D
A
175/220=0.796
40/300=0.133
0/230=0
10/250=0.040
B
20/220=0.091
230/300=0.767
25/230=0.109
15/250=0.060
C
10/220=0.046
5/300=0.017
205/230=0.891
10/250=0.040
D
15/220=0.067
25/300=0.083
0/230=0
215/250=0.860


La lectura de esta información sería la siguiente:
La marca A retiene 0.796 de sus clientes, mientras que gana 0.133 de los clientes de B, 0.40 de los clientes de D y 0 de los clientes de C.
La administración de mercadotecnia puede tener un gran ventaja de toda esta información que nos pueda arrojar el desarrollo de técnicas como estas, ayudando a la promoción de algunos productos que los necesiten para tener una mejor aceptación entre los consumidores.
Toma de decisiones Incertidumbre
Si se presenta cierta regularidad en los
fenómenos se puede minimizar la
incertidumbre mediante el desarrollo
de modelos probabilísticos.



Definiciones básicas

• Espacio muestral : El conjunto de resultados de un
experimento.
• Evento: Cualquier subconjunto del espacio
muestral.
•Variable aleatoria: Es una función que asigna
valores reales a los resultados de un experimento.

Proceso estocástico
Proceso que evolucionan en el tiempo
de una manera probabilística
Es una colección indexada de variables
aleatorias Xt en donde el índice t, toma
valores de un conjunto T dado
Sigue:
En puntos específicos del tiempo t el sistema se encuentra en
una de un número finito de categorías o estados mutuamente
excluyentes y exhaustivos, etiquetados 0,1,...,M
• Si T es contable o finito, el proceso se denomina
discreto.
• Si T es un subconjunto de los reales, el proceso se
denomina continuo.

Ejemplo
Una tienda de cámaras tiene en almacén un modelo
especial de cámara que puede ordenar cada semana.
Sean D1, D2,..., Dn , las demandas durante la primera,
segunda y n-ésima semana respectivamente.

Se supone que las Di son variables aleatorias que
tienen una distribución de probabilidad conocida.

•X0 : Número de cámaras que se tiene al iniciar el
proceso. Suponga que X0 = 0
•X1 : Número de cámaras que se tiene al final de la
semana 1.
•X2 : Número de cámaras que se tiene al final de la
semana 2
•Xn : Número de cámaras que se tiene al final de la
semana n.

Cadenas de Markov

Las cadenas de Markov tienen la propiedad
particular de que las probabilidades que describen la
forma en que el proceso evolucionará en el futuro,
dependen sólo del estado actual en que se encuentra el
proceso, y por lo tanto, son independientes de los
eventos ocurridos en el pasado.
Futuro
Presente
Pasado
•Si Xt = i , se dice que el proceso estocástico está en el
estado i en el tiempo t.
•Llamemos Pij la probabilidad de estar en el estado j
en el momento t+1, conocidos los estados anteriores
Proceso Markoviano
Pij = P {Xt+1 = j / X0 = k0, X1 = k1,..., Xt-1 = kt-1 ,Xt = i}
Pij = P {Xt+1 = j / Xt = i}

Pij = P {Xt+1 = j / Xt = i} Probabilidades
condicionales para
cada i y j
Pij = P {Xt+1 = j / Xt = i}= P {X1 = j / X0 = i}
para toda t=0,1..
Se llaman probabilidades de transición .
Si para cada i,j

Matriz de transición
P (acción suba mañana / subió hoy) = 0.7
P (acción baje mañana / subió hoy) = 0.3
P (acción suba mañana / bajó hoy) = 0.5
P (acción baje mañana / bajó hoy) = 0.5



Consideremos ahora el mismo mercado de
acciones, sólo que el que una acción suba o no
mañana, depende de si subió o no hoy y ayer.
Estado 0 La acción subió ayer y hoy
Estado 1 La acción bajó ayer y subió hoy
Estado 2 La acción subió ayer y bajó hoy
Estado 3 La acción bajó ayer y hoy


Por último consideremos el ejemplo del jugador.
Suponga que un jugador tiene $1
Su probabilidad de ganar es p, y allí gana $1
Su probabilidad de perder es 1- p, y allí pierde $1
El juego termina cuando el jugador acumula $3 o
bien cuando quiebra.

Este modelo es una cadena de Markov y sus
estados son:
Estado 0 El jugador está quebrado
Estado 1 El jugador tiene $1
Estado 2 El jugador tiene $ 2
Estado 3 El jugador tiene $ 3









No hay comentarios:

Publicar un comentario