DEFINICIÓN
Las cadenas de markov son modelos probabilísticos que se usan para predecir la evolución y el comportamiento a corto y a largo plazo de determinados sistemas.
Ejemplos: reparto del mercado entre marcas; dinámica de las averías de máquinas para decidir política de mantenimiento; evolución de una enfermedad
Una Cadena de Markov (CM) es
- Un proceso estocástico
- Con un número finito de estados (M)
- Con probabilidades de transición estacionarias
- Que tiene la propiedad markoviana.
PROCESO ESTOCÁSTICO
Es un conjunto o sucesión de variables aleatorias: {X(t)CG } definidas en un mismo espacio de probabilidad. Normalmente el índice t representa un tiempo y X(t) el estado del proceso estocástico en el instante t. El proceso puede ser de tiempo discreto o continuo si G es discreto o continuo. Si el proceso es de tiempo discreto, usamos enteros para representar el índice: {X1, X2, ...}
Ejemplos de procesos estocásticos
1.Serie mensual de ventas de un producto
2. Estado de una máquina al final de cada semana (funciona/averiada)
3. Nº de clientes esperando en una cola cada 30 segundos
4. Marca de detergente que compra un consumidor cada vez que hace la compra. Se supone que existen 7 marcas diferentes
5. Nº de unidades en almacén al finalizar la semana
ELEMENTOS DE UNA CADENA DE MARKOV
- Un conjunto finito de M estados, exhaustivos y mutuamente excluyentes (ejemplo: estados de la enfermedad)
- Ciclo de markov (“paso”) : periodo de tiempo que sirve de base para examinar las transiciones entre estados (ejemplo, un mes)
- Probabilidades de transición entre estados, en un ciclo (matriz P)
- Distribución inicial del sistema entre los M estados posibles
- Operaciones con matrices:
- Suma-resta
- Multiplicación
- Traspuesta
- Inversa (Gauss-Jordan)
- Probabilidad
- Teoría de la probabilidad
Tomado de : Clase de investigación de operaciones dada por el Ingeniero Industrial Medardo González
www.ulpgc.es/descargadirecta.php?codigo_archivo=14483
No hay comentarios:
Publicar un comentario