4 de junio de 2011

Teoría de Decisiones

La Teoría de Decisiones es el proceso  durante el cual la persona debe escoger entre dos o más alternativas. Todos y cada uno de nosotros pasamos los días y las horas de nuestra vida teniendo que tomar decisiones. Algunas decisiones tienen una importancia relativa en el desarrolla de nuestra vida, mientras otras son gravitantes en ella. Para los administradores, el proceso de toma de decisión es sin duda una de las mayores responsabilidades. 

La toma de decisiones en una organización se circunscribe a una serie de personas que están apoyando el mismo proyecto. Debemos empezar por hacer una selección de decisiones, y esta selección es una de las tareas de gran trascendencia.

Con frecuencia se dice que las decisiones son algo así como el motor de los  negocios y en efecto, de la adecuada selección de alternativas depende en gran parte el éxito  de cualquier organización.
Una decisión puede variar en trascendencia y connotación.

Los administradores consideran a veces la toma de decisiones como su trabajo principal, porque constantemente tienen que decidir lo que debe hacerse, quién ha de hacerlo, cuándo y dónde, y en ocasiones hasta cómo se hará. Sin embargo, la toma de decisiones sólo es un paso de la planeación incluso cuando se hace con rapidez y dedicándole poca atención o cuando influye sobre la acción sólo durante unos minutos.

Hay que resaltar que la toma de decisiones en el mundo real tiene varias características, entre ellas:
  • Múltiples Objetivos
  • Negoción entre actores
  • Múltiples decisores
  • Incertidumbre
  • Decisiones secuenciales
TIPOS DE TOMA DE DECISIONES

1. BAJO CERTEZA







2. BAJO INCERTIDUMBRE



3. BAJO RIESGO



Resumiendo podemos mostrar este cuadro útil para la toma de decisiones:


Ejemplo:

Un voceador de periódicos tiene alternativas de comprar entre 6 y 10 periódicos, así como de vender de 6 a 10 periódicos. Cada periódico le cuesta $20 y lo vende en $25. Cada estado de la naturaleza (demanda) es equiprobable.

Se plantea la siguiente matriz de pagos:


Donde cada elemento de la matriz se halla de la siguiente manera:


1. Utilizando el criterio de Maximin que es "Escoger lo mejor de lo peor".


A partir de la aplicación de este criterio lo mejor resultaría ser comprar 6 periódicos.

2. Utilizando el criterio Max-Max que es "Lo mejor es lo mejor".


Según este criterio se deben vender 10 periódicos, ya que se obtendrían las mayores utilidades.

3. Utilizar el criterio de Arrepentimiento o Minmax.
Para hallar la matriz de Costo de oportunidad, o arrepentimiento, se debe restar el valor pago de cada columna a cada uno de los elementos de dicha columna. Esto es:

Aplicando este criterio las mejores alternativas serán las de comprar 6 o 7 periódicos, ya que representan el menor costo de oportunidad.

4. Valor Esperado
Teniendo en cuenta la ecuación de valor esperado dado por:


Tendremos de esta manera que:
Hay que decir que las alternativas escogidas por el criterio de arrepentimiento Minimax serán las mismas que las escogidas por este criterio.

5. VEIPER (Valor esperado con Información Perfecta)
Esto dado por:


Con lo cual tendremos que:


Esto sería el valor más alto que usted estaría dispuesto a pagar por un Estudio de Mercado, en caso que fuera necesario.



REFERENCIAS

(1) HILLIER, Frederick S., LIEBERMAN, Gerald J. Investigación de Operaciones. Edición Séptima: McGraw-Hill, 2002. Análisis de Decisiones: Páginas 749-781.

(2) GONZÁLEZ, Medardo. Clases Presenciales: Teoría de Decisiones. Investigación de Operaciones II.Universidad del Atlántico. Junio de 2011.




3 de junio de 2011

Estrategias Aleatorizadas

Los juegos con estrategias aleatorizadas no poseen puntos de silla, esto quiere decir que para cualquier decisión de estrategias hay un jugador que puede beneficiarse cambiando estrategia unilateralmente. De hecho estos son mucho más frecuentes en la práctica.

En este juego se deben determinar las estrategias óptimas y el valor de este juego. Para ello se debe ampliar el número de estrategias posibles, es decir, se permitirá que un jugador opte por estrategias concretas en una proporción determinada de casos, que llamaremos probabilidades. A esto se conoce como Estrategias aleatorizadas o mixtas. Para alcanzar el valor del juego existen varios procedimientos que sirven para su estimación, entre ellos el método gráfico o en caso de ser un sistema más complejo podremos utilizar el Método Simplex.

Ejemplo:

Se plantea la siguiente matriz de pagos, en la cual el jugador 1 tiene una probabilidad de 3/4 de escoger la estrategia I y de 1/4 de escoger la estrategia 2. Además, el jugador 2, tendrá probabilidades de 1/3 y 2/3 para las estrategias I y II, respectivamente, para este.
Para asegurar la aleatoriedad de la decisión tomada por cada jugador, puede simularse la utilización de una ruleta por parte de ellos. Por ejemplo en el caso del jugador 2, esto es:



Esto quiere decir que, en cualquier momento que le toque al jugador 2 su turno, este tendrá que hacer girar la ruleta y según donde caiga la flecha escogerá su estrategia.

Por otro lado, para encontrar el valor esperado del juego se debe proceder de la siguiente forma:

Primero. Se determina el valor esperado para cada una de las estrategias de cualquiera de los dos jugadores esto es:


Lo que se resume en que si el jugador 2 escoge atacar con la estrategia 1, estará dispuesto a ganar 2, mientras que si decide jugar con la estrategia 2, este perderá siempre 1/4.

Así como el anterior, también pueden variarse las probabilidades y escogerse las probabilidades cualesquiera que sean y de esta manera determinar el valor del juego para cada estrategia.

No obstante, el comportamieto del juego está caracterizado por la determinación de las probabilidades que maximizan a cada jugador sus posibilidades de ganar. Si en caso tal dicho valor es encontrado por ambos jugadores, siempre habrá un empate. Esto se resolverá a partir del método gráfica de la siguiente forma.

Para estrategia I. Se sabe que la suma de las probabilidades es igual a 1, por lo que:



Para la estrategia 2. Igual que para uno se determinan los mismo parámetros. Esto es:

Ahora trazamos la gráfica de ambas rectas sobre un plano que tendrá como ejes el valor esperado y la probabilidad P1 esto es:


Como se puede apreciar el punto de probabilidad P1 que maximiza las ganancias del jugador 2, está entre 0.5 y 0.6. Para determinar exactamente este valor, debe resolver el sistema de ecuación compuesto por las funciones determinadas de valor esperado para ambas estrategias de dicho jugador. Entonces tendremos que:

Resolviendo por cualquier método de resolución de ecuación se obtiene que:

Y a partir de la ley de probabilidades entonces:

El valor esperado del Juego se conseguirá sólo reemplazando el valor de P1 en cualquiera de las expresiones denotadas anteriormente. Esto es:

Esto quiere decir que, si ambos jugadores determinan las probabilidades de acciones de cada uno de sus estrategias, ambos tendran la posibilidad de ganar 13/11. Esto representará entonces un juego equilibrado.




REFERENCIAS

(1) HILLIER, Frederick; LIEBERMAN, Gerald. Teoría de Juegos. Investigación de Operaciones. Edición Séptima: Mc Graw-Hill, 2002. Páginas 726-743.

(1) TUROCY, Theodore. STENGEL Bernhard. Game Theory. London School of Economy. [PDF] [En línea] {Disponible en: http://www.cdam.lse.ac.uk/Reports/Files/cdam-2001-09.pdf } [Acceso: Junio 3 de 2011]

Teoría de Juegos

La teoría de juegos como tal fue creada por el matemático húngaro John Von Neumann (1903-1957) y por Oskar Morgenstern (1902-1976) en 1944 gracias a la publicación de su libro “The Theory of Games Behavior”. Anteriormente los economistas Cournot y Edgeworth habían anticipado ya ciertas ideas, a las que se sumaron otras posteriores de los matemáticos Borel y Zermelo que en uno de sus trabajos (1913) muestra que juegos como el ajedrez son resolubles. Sin embargo, no fue hasta la aparición del libro de Von Neumann y Morgenstern cuando se comprendió la importancia de la teoría de juegos para estudiar las relaciones humanas.

Von Neumann y Morgenstern investigaron dos planteamientos distintos de la Teoría de Juegos. El primero de ellos el planteamiento estratégico o no cooperativo. Este planteamiento requiere especificar detalladamente lo que los jugadores pueden y no pueden hacer durante el juego, y después buscar cada jugador una estrategia óptima. En la segunda parte, Von Neumann y Morgenstern desarrollaron el planteamiento coalicional o cooperativo, en el que buscaron describir la conducta optima en  juegos con muchos jugadores. Puesto que este es un problema mucho más difícil, sus resultados fueran mucho menos precisos que los alcanzados para el caso de suma cero y dos jugadores.

DEFINICIONES

1. JUEGO
Se denomina juego a la situación interactiva especificada por el conjunto de participantes, los posibles cursos de acción que puede seguir cada participante, y el conjunto de utilidades.

2. ESTRATÉGIA.
Cuando un jugador tiene en cuenta las reacciones de otros jugadores para realizar su elección, se dice que el jugador tiene una estrategia. Una estrategia es un plan de acciones completo que se lleva a cabo cuando se juega el juego. Se explicita antes de que comience el juego, y prescribe cada decisión que los agentes deben tomar durante el transcurso del juego, dada la información disponible para el agente. La estrategia puede incluir movimientos aleatorios.

3. VALOR DEL JUEGO.
El valor de un juego es una cierta asignación de utilidades finales. Se denomina valor de equilibrio si ningún jugador puede mejorar su utilidad unilateralmente dado que los otros jugadores se mantienen en sus estrategias. Un equilibrio estratégico es aquel que se obtiene cuando, dado que cada jugador se mantiene en su estrategia, ningún jugador puede mejorar su utilidad cambiando de estrategia. Alternativamente, un perfil de estrategias conforma un equilibrio si las estrategias conforman la mejor respuesta a las otras.

4. MATRIZ DE PAGO. Una matriz de pago es aquella que muestra los resultados correspondientes a todas las combinaciones de alternativas de decisión y estados de la naturaleza. Las entradas de la matriz de pago además, se pueden cuantificar en términos de utilidad, costo, tiempo o cualquier otra medida de resultado que pudiera ser apropiada para la situación a analizar.

A continuación se muestra una matriz de pago:

 Donde:
J1 representa el jugador fila y J2 el jugador columna. Además tenemos que:


5. JUEGOS DE SUMA CERO
En los juegos de suma cero el beneficio total para todos los jugadores del juego, en cada combinación de estrategias, siempre suma cero (en otras palabras, un jugador se beneficia solamente a expensas de otros). El go, el ajedréz, el póker, entre otros, son ejemplos de juegos de suma cero, porque se gana exactamente la cantidad que pierde el oponente. Como curiosidad, el fútbol dejó hace unos años de ser de suma cero, pues las victorias reportaban 2 puntos y el empate 1 (considérese que ambos equipos parten inicialmente con 1 punto), mientras que en la actualidad las victorias reportan 3 puntos y el empate 1.

Ahora se analizará una forma de desarrollar un juego y determinar su valor esperados, para ello se debe referirse al Criterio de Minimáx y Máximini, que es entre otras cosas fundamentado en el hecho de que un jugador tendrá un cristerio optimista, pesimista o aquel que disminuye sus riesgos en términos de pérdidas relativas o pérdidas de oportunidad.

Por ejemplo, se plantea la siguiente matriz de pagos,


Siendo I y II las respectivas estrategias para cada jugador.

Primero que todo se verifica si el juego es estrictamente determinado, para ello se suman los elementos de la matriz, este debe ser igual a cero. Después de ello se procede a conseguir los valores mínimos para cada fila y los valores máximos para las columnas, así: 

Para hallar el valor del juego se deben conseguir los mínimos con respecto a cada fila y los máxi



El valor del juego se determina trazando 2 rectas sobre los números que son iguales entre los hallados anteriormente:
A partir de lo anterior se ha determinado el valor del juego el cual es igual a 2. En este las estrategias adecuadas a emplear serán la I por parte del Jugador 1 y la II por parte del jugador 2. Podemos ver además que las ganancias de un jugador son las pérdidas del otro y se dice que no es un juego justo ya que un jugador tiene más posibilidades de ganar que otro.

Otro ejemplo, es aquel donde el juego NO es estrictamente determinado.

Como se puede apreciar la suma de los elementos no es igual a cero y ningún valor mínimos ni máximo es igual, es un claro ejemplo de juego no estrictamente determinado.

Por otro lado también es importante conocer el concepto de Estrategia Dominante, también conocida como dominancia. Cuando la estrategia de uno de los jugadores es provechosa para él, independiente de la estrategia del jugador oponente. Las estrategias dominantes dan como resultado final el equilibrio de las estrategias dominantes en el juego. En un juego en el que cada uno de los jugadores tenta una estrategia dominante el resultado final es predecible. Lo contrario de la situación de estrategia dominante se denomina intransitividad y se caracteriza porque una estrategia puede ser mejor o peor que la del jugador oponente dependiendo de las opciones e información que posea.

Como ejemplo se plantea la siguiente matriz y su resolución:
Donde cada uno de los números romanos representa las estrategias para cada jugador.

En primera instancia, como la estrategia 1 tiene dominancia sobre la 3, se elimina la fila de dicha estrategia así:

Entonces esto queda como:

 Ahora para el J1 todas las estrategias son válidad. En relación al jugador columna, podemos apreciar que la estrategia 2 domina la estrategia 3, por lo que debemos eliminar esta última columna.


Asimismo, tanto la estrategia 2 y la 4 tienen dominancia sobre la estrategia 5, por lo que también se elimina dicha columna.


Además como la estrategia don presenta dominancia tanto para la estrategia 4 como la 6, entonces se eliminan ambas columnas.

Con el procedimiento anterior se ha reducido el juego a una matriz de pagos 3x2.





REFERENCIAS

(1) HILLIER, Frederick; LIEBERMAN, Gerald. Teoría de Juegos. Investigación de Operaciones. Edición Séptima: Mc Graw-Hill, 2002. Páginas 726-743.

(1) TUROCY, Theodore. STENGEL Bernhard. Game Theory. London School of Economy. [PDF] [En línea] {Disponible en: http://www.cdam.lse.ac.uk/Reports/Files/cdam-2001-09.pdf } [Acceso: Junio 3 de 2011]








25 de mayo de 2011

CADENAS DE MARKOV

Una cadena de Markov es una serie de eventos estadísticamente determinados, en la cual la probabilidad de que ocurra un evento depende del evento inmediato anterior. Estas se dice que tienen memoria. Es decir, recuerdan el último evento y al mismo tiempo condiciona las posibilidades de los eventos futuros subsecuentes. Ésta dependencia del evento anterior distingue a las cadenas de Markov de las series de eventos independientes.

En 1907, A. A. Markov comenzó el estudio de un importante nuevo tipo de cambio de proceso. En este proceso, el resultado de un experimento dado puede afectar el resultado del próximo experimento o evento. A este tipo de proceso es llamado Cadena de Markov.
Uno de los métodos usuales para exhibir las probabilidades de transición de un evento o Estado es usar una Matriz de Transición. La cual debe cumplir con las siguientes condiciones:
1. La Matriz de Transición debe sr Cuadrara, es decir debe tener el mismo número de columnas como de filas.
2. En ella deben estar contenidos tanto en las filas como en las columnas los mismos Estados o Eventos trasitorios.
3. La Suma de los elementos de cada fila debe ser siempre igual a 1, cumpliendo con la teoría de Probabilidades.

4. Cada elemento de la matriz debe ser un número entre cero y 1.
A continuación se muestra la matriz de transición:




En esta están contenidos M estados transitorios con una P de probabilidad.
Las aplicaciones de las Cadenas de Markov son muy variadas, ya que describen satisfacteriamente cualquier tipo de evento estocástico, por lo cual estas son llamadas también Estudios de Comportamiento de un Sistema. Estos durante un período dado suele ser llevar al análisis de un proceso estocástico con la siguiente estructura. En puntos específicos del tiempo t , el sistema se encuentra exactamente en una de un número finito de estados mutuamente excluyentes y exhaustivos, etiquetados 0, 1, . . , S. Los periodos en el tiempo pueden encontrarse a intervalos iguales o su esparcimiento puede depender del comportamiento general del sistema en el que se encuentra sumergido el proceso estocástico. Aunque los estados pueden constituir una caracterización tanto cualitativa como cuantitativa del sistema, no hay pérdida de generalidad con las etiquetas numéricas 0, 1, . . , M , que se usarán en adelante para denotar los estados posibles del sistema. Así la representación matemática del sistema físico es la de un proceso estocástico {Xi}, en donde las variables aleatorias se observan en t = 0, 1, 2,. . ., y en donde cada variable aleatoria puede tomar el valor de cualquiera de los M + 1 enteros 0, 1, .. , M . Estos enteros son una caracterización de los M + 1 estados del proceso.(1)

Ejemplo.

Acorde a Kennedy, Snell y Thompson, la Tierra de Oz es bendecida por muchas cosas pero no por un buen clima. Ellos nunca tienes dos buenos días seguidos. Si ellos tienen un buen día, probablemente tendrán nieve o lluvia al siguiente. Si hay un cambio de lluvia o nieve, solamente la mitad de las veces es para cambiar a un buen día. Con esta información formamos una Cadena de Markov como la que sigue. Tomando como estados los diferentes tipos de clima R (lluvia), S (Snow) y N (normal). Con lo anterior se determina la matriz de transición de probabilidades.

Consideramos la mayoría de las veces la pregunta de determinar la probabilidad que, dada la cadena en un estado i hoy, esta llegue a un estado j dos días después. Normalmente esta probabilidad es denotada por



En el ejemplo planteado, vemos que si llueve hoy el evento que nevara dos días después es la unión separada de los siguientes tres eventos: 1) llueve mañana y neva dos días desde hoy; 2) es un buen día mañana y neva dos días después de hoy, y 3) neva hoy y también dos días después de hoy. La probabilidad del primero de estos eventos es el producto de la probabilidad condicional que llueva mañana, dado que llueve hoy, y la probabilidad condicional de que neve pasado mañana, dado que llueve hoy. Usando la matriz de transición P podemos escribir este producto como:

Los otros dos eventos también tienen probabilidades que pueden ser escritas como productos de las entradas de P. Así, tendremos que:

Para se plantea el siguiente teorema para probar lo observado anteriormente.

Teorema 1. Sea P la matriz de transición de una Cadena de Markov. La ij-ésimo entrada Pij^(n) de la matriz P^(n) da la probabilidad que la Cadena de Markov, comenzando en un estado inicial i esté en otro j después de n pasos.

Considerando de nuevo el ejemplo anterior de la Tierra de Oz, sabemos que el poder de la matriz de transición nos brinda información de interés acerca del proceso. Estaremos particularmente interesados en el estado de la cadena después de un largo número de pasos. Para ello es de gran utilidad utilizar cualquier programa que permita estos cálculos iterativos, entre ellos la hoja de cálculo EXCEL.

Tendremos por ejemplo después de 6 pasos lo siguiente:


Teorema 2. Sea P la matriz de transición de una Cadena de Markov y sea u el vector probabilidad el cual representa la distribución inicial de cada uno de los estados. Entonces la probabilidad de que la cadena esté en el estado i después de n pasos es la i-ésima en el vector: 

Además de ello, notamos que si queremos examinar el comportamiento de la cadena bajo el supuesto que comienza en un estado inicial i, simplemente se escoge siendo este el vector de probabilidad con la i-ésima  entrada igual a 1 y todas las otras igual a cero.
Ejemplo.

Siguiendo con el ejemplo de la Tierra de Oz, hacer el vector probabilidad inicial u igual (1/3,1/3,1/3). Entonces podremos calcular la distribución de los estados después de tres días usando el teorema 2 y nuestro cálculo previo de P^3, con lo cual obtenemos:



Visualicemos otro claro ejemplo de las aplicaciones de las cadenas de Markov:

Teniendo en cuenta el vector de Estados iniciales que describen el comportamiento de los abonados a las marcas de telefonía celular Movistar, Tigo y Comcel, y la matriz de transición dada, determine el estado estable para este sistema, modelando el problema como una cadena de Markov.

 
Donde:

M: Movistar
T: Tigo
C: Comcel
P0: Período inicial

Se establecen los estados en los diferentes cambios de período, para ello se utilizará la hoja de cálculo de Excel que facilitará el desarrollo del ejercicio por iteraciones.

Sabemos que el cambio de período se determina multiplicando el vector de estado con la matriz de transición así:

Tendremos entonces que:

Como podemos apreciar en Estado estable no hay cambias significativos en los resultados entre períodos, por lo cual siempre permanecerán en dicho estado.
Otra manera de conseguir dicho estable es apartir de resolución de ecuaciones por cualqueir método algebráico, entre ellos el de Gauss-Jordan. Esto consiste en establecer un sistema de ecuaciones que describa la situación problema. Tendremos a partir del vector de períodos como incógnitas y la matriz de transición dada que:
Multiplicando ambas matrices nos quedará el siguiente sistema:
Sumado a estas se consigna la sumatoria de las 3 incógnitas a partir de la teoría de la probabilidad, esto es:


Tendremos entonces un sistema de ecuaciones 4x3 que puede ser resuelto por cualquier método. Utilizando Excel tendremos que:


Como podemos apreciar se ha conseguido el estado estable directamente sin iterar. Este es otro método para hallar dicho estado.
Entre los conceptos más importantes tenemos lo que se conoce como estados Recurrentes que son aquellos que si después de haber entrado, el proceso definitivamente regresará a este. Por consiguiente un Estado es Recurrente si y sólo si no es transitorio. Además, ya que un estado Recurrente será visitado de nuevo de cada visita, podría ser visitado un número infinito de veces si el proceso continúa por siempre.

Si el proceso entra a cierto estado y permanece en este estado al siguiente paso, se considera un regreso a este estado. Entonces, el siguiente tipo de estado se considera un tipo especial de estado recuerrente, el Estado Absorbente.
Un estado se llama Absorbente, si después de haber estrado en él, el proceso nunca saldrá de este. Por consiguiente, el estado i es un estado absorbente si y sólo si Pij=1.
CADENAS DE MARKOV ABSORBENTE (ABSORBING MARKOV CHAIN)

Un estado inicial i de una cadena de Markov es llamado Absorbente si es imposible dejarlo (por ejemplo Pii=1). Una Cadena de Markov es absorbente si ésta tiene al menos un estado absorbente y si desde todos los estados es posible llegar a dicho estado (no necesariamente en un paso).

Ejemplo:

Almacenes Juanchi´s vende partes de automóviles y camiones a empresas que cuentan con flotas. Cuan las empresas compran a Juanchi´s se le dan 3 meses para pagar si las cuentas no se saldan en ese período, Juanchi´s cancela la cuenta, la remite a una agencia de cobranzas y da por terminadas las transacciones. Por lo tanto Juanchi´s clasifica sus cuentas en nuevas, de un mes de retraso, de dos meses de retraso, de tres meses de retraso, pagadas e incobrables. Juanchi´s investigó sus antiguos recursos y descubrió que:

a)      70% de las cuentas nuevas se pagan en un mes.

b)      60% de las cuentas de 1 mes de retraso se liquidan al final de mes.

c)       50% de las cuentas con 2 meses de retraso se pagan al final de ese último mes.

d)      60% con 3 meses de retraso se remiten a una agencia de cobranza.

1.  Forme la matriz de transición con estos datos.
2. ¿Cuál es la probabilidad de una que una cuenta nueva se liquide?
3. ¿Cuál es la probabilidad de que una cuenta con 1 mes de retraso se convierta en incobrable?

4. ¿En cuántos meses debe esperar Juanchi´s para que un cliente nuevo promedio liquidara su cuenta?
5. Si las ventas de Juanchi´s son en promedio US$125000/mes, ¿cuánto dinero se aceptaría como deuda incobrable al mes y cada año?

En primera instancia se plantea a continuación la matriz:


Se debe ahora considerar las matrices absorbente y no absorbe, así como la identidad


Además de ello, se debe tener en cuenta,


A partir de la anterior matriz podemos hallar la matriz fundamental para conseguir las probabilidades, para esto hallamos la matriz inversa de (N - I) por la matriz absorbente, obteniendo las probabilidades de ocurrencia de cada estado contenido en la matriz de no absorbente.


Ahora multiplicamos por la matriz absorbente así:


Con lo cual obtenemos las probabilidades para cada uno de los estados para llegar a cada uno de los estados absorbentes:


2. La probabilidad de que una cuenta nueva se liquide es 96%.
3. La probabilidad de que una cuenta de 1 mes de retraso se convierta en inconbrable es 12%.

4. El tiempo que se espera para que un cliente nuevo promedio liquidara su cuenta está dado por la suma de las probabilidades de la matriz (N - I) inversa, correspondiente a la primera fila. Esto es:


Sumando tendremos que este tiempo en meses es 1+ 0.3 + 0.12 + 0.06 = 1.48 meses.

5.  El dinero que se aceptará como deuda incobrable es de:



REFERENCIAS.
(1) Tutorial de Investigación de Operaciones II. Markov Chain. [En línea] [PDF] [Disponible en:


(2) GONZÁLEZ, Medardo. Clase Presencial. Investigación de Operaciones II . Universidad del Atlántico. Mayo de 2011.