En matemáticas, se define como un proceso estocástico discreto que cumple con la propiedad de Márkov, es decir, si se conoce la historia del sistema hasta su instante actual, su estado presente resume toda la información relevante para describir en probabilidad su estado futuro
Una cadena de Markov es un proceso estocástico en el que Si el estado actual Xn y los estados previos X1, . . . , Xn−1 son conocidos La probabilidad del estado futuro Xn+1 No depende de los estados anteriores X1, . . . , Xn−1, y Solamente depende del estado actual Xn.
Para que el proceso estocástico del número de líneas ocupadas sea una cadena de Markov
es necesario que la probabilidad de cada posible número de líneas ocupadas en cualquier instante de tiempo dependa solamente del número de líneas ocupadas
es necesario que la probabilidad de cada posible número de líneas ocupadas en cualquier instante de tiempo dependa solamente del número de líneas ocupadas
CARACTERISTICAS
PUNTOS DISCRETOS {tk} RESULTADOS EXAHUSTIVOS Y MUTUAMENTE EXCLUSYENTES
VARIABLE ALEATORIA ξtk
PROCESO ESTOCASTICO {ξtk} ES FAMILIA VARIABLES
CADENA DE MARKOV CASO ESPECIAL DE PROCESO DE MARKOV USADO PARA EL
ESTUDIO DE CIERTO SISTEMAS EN EL CORTO Y LARGO PLAZO
PROBABILIDAD DE TRANSICIÓN O TRANSICIÓN DE UN PASO
REPRESENTA LA PROBABILIDAD DE QUE EL ESTADO ESTE EN Xn CUANDO t ES tn, DADO QUE ESTABA EN Xn-1 EN
TRANSICIÓN DE m PASOS
LAS PROBABILIDADES DE IR DE UN PASO A OTRO EXISTEN, SON EXCLUYENTES Y ESTABLES EN EL TIEMPO Y SE REPRESENTAN CON LA MATRIZ P DE TRANSICION HOMOGENEA (TODAS LAS PROBABILIDADES DE TRANSICION SON FIJAS E INDEPENDIENTES EN EL TIEMPO)
No hay comentarios:
Publicar un comentario