Hello, dear friend, you can consult us at any time if you have any questions, add WeChat: daixieit

Examination Paper for STAT0007 - Level 5 - SKETCH SOLUTIONS

STAT0007: INTRODUCTION TO APPLIED PROBABILITY

2019

SKETCH SOLUTIONS

Section A

A1 Let {Xn ; n = 0, 1, 2, ...} be a Markov chain with state space S = {1, 2, 3, 4, 5} and

transition matrix

 0.4

   0 

P =  .(.)    0 .(.)    0    0

0.6

0.2

0

0.5

0

0

0.4

0

0.5

1

0

0.4

1

0

0

0 

0    

0   

 .

0   .(.) 0 

(a) Find the irreducible classes of intercommunicating states and classify them in

terms of positive or null recurrence, transience, periodicity and ergodicity.       [3]

{1} - transient, aperiodic; {2, 3, 4} - positive recurrent, aperiodic, ergodic; {5} - transient, aperiodic.

(b)  State, with a reason, whether this Markov chain has:

(i) An invariant distribution.

(ii) An equilibrium distribution.

Invariant - yes. Equilibrium - yes.

(c)  Calculate P (Xn+1  = 2IXn  = 4, Xn-1  = 3), naming any property you use.

p42  = 0.5

[1] [1]

[1]

(d)  Calculate P (Xn+1  = 2, Xn  = 4IXn-1  = 3), naming any property you use.         [2]

1/2

(e) Is it true that P (Xn+1  = kIXn  = j, Xn-1  = i) = P (Xn+1  = k, Xn  = jIXn-1  = i)

for all values of i, j and k for this Markov chain? Justify your answer.            [2]

No.

A2 A continuous time Markov chain with states {1, 2, 3, 4} has generator matrix

    

=                                          .

0      0    1.5   -1.5

(a) Write down the Chapman-Kolmogorov equation for p23 (t + s), for any t, s > 0, in

its most simplified form.                                                                                      [2]

For example:

p23 (t + s) = p22 (s)p23 (t) + p23 (s)p33 (t)

Any correct formatting OK.

(b) Write down Kolmogorov’s forward equation for p23 (t) for any t > 0, omitting any

zero terms from the equation.

[3]

p23(/)(t) = -p23 (t) + 4p22 (t)

The solution to Kolmogorov’s forward equation you gave in part (b) is

p23 (t) =  -  exp(-5t) .

(c) Hence evaluate:

(i) p23 (1);

 -  exp(-5)

(ii) p22 (1);

 +  exp(-5)

(iii) p33 (1) (hint:  Use part (a)).

[1] [1]

[3]

About 0.80

A3 A participant in a game show chooses one of four boxes at random, each with probabil-

ity 1/4. Box 1 contains £5,000 , Box 2 £3,000 , Box 3 £1,000 , and Box 4 nothing. If she chooses Box 4, the participant leaves the game. Otherwise, she keeps the money in the box chosen, the box is refilled with the same amount and she repeats the process, selecting from among the four boxes at random.  What is the expected value of the amount the participant will win by the time she leaves the game?                          [10]

£9, 000

A4 Let {N (t), t > 0} be an irreducible and positive recurrent continuous time Markov

process with states S = {0, 1, 2, ...}. We are given the probability generating function:

G(s, t) = E[sN (t)IN (0) = 0] = exp   (s - 1)(1 - exp(-2t)).

(a) Deduce the distribution of N (t) given that N (0) = 0.

Poisson with parameter  (1 - exp(-2t))

(b) Write down the probability P (N (t) = 0IN (0) = 0).

P (N (t) = 0IN (0) = 0) = exp  - (1 - exp(-2t))

(c) Explain why the process {N (t), t > 0} has an equilibrium distribution.

[2] [2]

[3]

Usual justification.

(d) What is the long-run proportion {0, 1}?

 exp(-0.5)

of time that the Markov chain spends in states [3]

Section B

B1 In a certain town at time t = 0 there are no bears. Brown bears begin to arrive accord-

ing to a Poisson process of rate β per hour. Grey bears arrive according to a Poisson process of rate γ per hour, independently of the brown bears.

(a) Name the distribution of the total number of bears in the town at time t > 0

hours, given there are none at time 0.                                                                 [2]

Poisson((β + γ)t)

(b) Find the probability that no new bears will arrive in the town during the time

period t e [1, 2] u [3, 5] hours.                                                                              [4]

P (no new bears arrive in [1, 2] u [3, 5]) = exp (-3(β + γ)) .

(c) Derive an expression for the probability that the first bear to arrive is brown, showing your workings and/ or reasoning.                                                          [3]

β/(β + γ)

(d) If n bears arrive during the time period [5, 10] hours, what is the distribution of the number of bears arriving during the period [7, 9] hours? Explain your answer.

[3]

Binomial(n, 0.4).

(e) We are now given the extra information that each arriving female bear carries her

offspring with her.  Is it still appropriate to use a Poisson process to model the arrival of bears? Explain your answer.                                                                [3]

No longer a Poisson process since more than one arrival happen simultaneously.

An isolated species of mammals evolves on an island according to a linear birth-linear death Markov chain.  In particular, we assume that each mammal on the island at time t has probability µh + o(h) of dying in the time interval (t, t + h], and probability λh + o(h) of giving birth to a baby mammal during (t, t + h], with all involved events being independent of each other.

Let {Mt ; t > 0} denote the number of mammals on the island at time t.

(f) Write down the state space S and the generator matrix Q of {Mt ; t > 0}.       [3]

S = {0, 1, 2, 3, ...} and

 0

Q =  .(.)   0

  0

 

0

-(λ + µ)

0

0

λ       -2(λ + µ)

0

0

2λ      -3(λ + µ)

...  

...   

(g)  Suppose that Mt   = k, with k  > 0.  Find the probability that there will be at

least one death or birth in the time interval (t, t + δ], for δ > 0, showing your reasoning.                                                                                                             [3]

1 - exp (-kδ(λ + µ))

(h) If Mt   =  1, state with a reason the expected further time until there are two

mammals on the island for the first time since time t.                                       [2]

Infinite

(i) Under what condition(s) does the process {Mt ; t > 0} have an equilibrium distri- bution? Assuming that the conditions are met, state the equilibrium distribution.

[2]

Condition is that λ s µ. In that case the equilibrium is (1, 0, 0, 0, ...).

(j) At time τ  > 0, a comet falls on the island.  As a result, the mammals can no

longer give birth and the death rate for each mammal increases from µ to (a + µ) for some a > 0.  If there were m > 0 living mammals at the time of impact τ , derive an expression for the expected amount of time until the species becomes extinct, explaining your answer.                                                                          [5]

m

1     

i(a + µ)

i=1

B2 Let {Xn ; n = 0, 1, 2, ...} be a Markov chain with state space S = {1, 2, 3, 4, 5} and

transition matrix

1 /(1)4

P =  .(.)    0

   0

0

1/2

1/2

0

0

0

1/4

0

0

0

0

0

1/2

1/6

1/2

0(0)   

0     .(.) .  

(a) The chain is currently in state 2.

(i)  State the distribution of the further length of time that the chain stays in state 2.                                                                                                           [1]

Geometric with parameter (0.5)

(ii)  State the distribution of where the chain goes when it leaves state 2.        [1]

Goes to either 1 or 3 with equal probability.

(iii) Explain which of p and p p is at least as big as the other (there is no

need to compute either quantity).                                                                [3]

p > p p

(b)  Compute the expected number of visits that the chain makes to state 3, given

that X0  = 2.                                                                                                         [4]

2/3

(c)  Compute the probability that the chain ever reaches state 4, given that X0  = 2. [4]

1/3

(d) Does this Markov chain have an invariant and/ or equilibrium distribution? Why? [2]

It has an invariant distribution. It does not have an equilibrium distribution.

(e) Now consider a modified process, Zn , where Zn  = IXn - 3I and let Z0  = 0. Show that Zn  is not a Markov chain.                                                                          [10]

This is not a Markov chain. Any sensible reasoning/ counter-example will do.

(f)  State whether each of the following is true, false, or cannot say. Marks will only

be awarded if you provide a suitable reason (which may include an example or counter-example) for your answer.                                                                      [5]

(i) For a discrete time Markov chain with state space S = {1, 2, 3, 4, 5, 6} and equilibrium distribution (  , 0,  ,  , 0, 0), state 2 may be positive recurrent.

False.

(ii) A discrete time Markov chain with infinite state space will have at least one

null recurrent state.

False.

(iii) It is possible for a discrete time Markov chain to have only transient states.

True.

(iv) All discrete time Markov chains with exactly one closed class have an equi-

librium distribution.

False.

(v) An irreducible aperiodic discrete time Markov chain, for which an invariant distribution exists, must be positive recurrent.

Yes.