Hello, dear friend, you can consult us at any time if you have any questions, add WeChat: daixieit

ECON120A: Problem Set 2

Exercise 1. [5 points] Warming up

A bank classifies borrowers as high risk or low risk.  Only 15% of its loans are made to those in the high-risk category.  Of all its loans, 5% are in default, and 40% of those in default were made to high-risk borrowers.

a) What is the probability that a high-risk borrower will default?

Solution We construct the frequency table for the high risk/low risk and default/not default categories.

Default

No Default

High Risk

0.02

0.13

0.15

Low Risk

0.03

0.82

0.85

1

Hence, the probability of defaulting conditional on being a high risk borrower is:

P (DefaultIHigh Risk) = = 0.134

Exercise 2. [10 points] Expectation and Variance

a) Use linearity of the expectation and the definition of population variance to show that, for a random variable X with nite moments:

E[X2] = E[X]2 + V[X]                                                                 (1) Solution We start by looking at the expression for the variance of X. We have:

V [X] = E[(X - E[X])2 )

= E[X2 - 2E[X]X + E[X]2]

= E[X2] - 2E[X]E[X] + E[X]2

= E[X2] - 2E[X]2 + E[X]2]

= E[X2] - E[X]2

where in the second line we developped the square, in the third line we use linearity of expectation and the fact that E[X] is a constant. The rest follows from simple algebra.

Exercise 3. [10 points] Sample Space and Independence

A graduating engineer has signed up for three job interviews. She intends to categorize each one as being either a success” or a failure” depending on whether it leads to a plant trip.

a) Write out the appropriate sample space.

Solution  The sample space is given by the collection of outcomes.  Denote S for success and F failure. Then the sample space is given by all triplets of ordered S and F. The order matters because not all interviews are the same and we care about the outcome in each one of them.

Ω = {SSS, SSF, SFS, SSF, SFF, FSF, FFS, FFF }                                        (2)

b) How many numbers do you need to know to completely specify this probability distribution? Remember, it is enough to specify what is the probability of each point in the sample space.

Solution Without additional information you would have to specify a probability for each of the events:

Events

SSS

SSF

SFS

SSF

SFF

FSF

FFS

FFF

Probabilities

1

2

3

4

5

6

7

8

where each p is some number in the [0, 1] interval. But we know that all the p numbers have to add up to one because the whole sample space must satisfy P (Ω) = 1. For example, if we know the rst 7 numbers, p8  = 1 -    j(7)=1 pj  so we need to specify 7 numbers.

c) How does your answer to part b) change if you learn that each internship outcome is independent of all others.

Solution Here we know that it’s enough to specify the probability for success for each internship separately. That is, specify 3 numbers: for example pA , pB  and pC  for the probability of success in the rst, second and third intreview respectively. The product rule will take care of the rest, giving the probability of any one of the events listed in the sample space. For example in order to nd the probability of:

P (SSF) = PA (S) . PB (S) . PC (F) = pA . pB  . (1 - pC )

d) Give your reasoning on why you believe it is unrealistic to assume that the interview outcomes are independent.

Solution  Likely the outcome of the interview depends on the profile of the candidate, who is the same across the three interviews. It is very likely that the outcomes are NOT independent.

Exercise 4. [15 points] Standardization

You are given a random variable X, which represents the age of the candidates for a senior position in a tech company. You know E[X] = µ and V(X) = σ 2  are nite.

a) Consider the random variable Y = Compute its expectation E[Y] and its V(Y). This transformation is valid regardless of the distribution of X .

Solution We compute the expectation rst:

E[Y] = E

= E[X - µ]

= 1(σ) (E[X] - E[µ])

= σ (µ - µ)

= 0

Now we turn to the variance:

V[Y] = E[(Y - E[Y])2]

= E[Y2]

= E ┌ ╱2

1

= V[X]

=

σ 2

= 1

b) Now suppose we additionally know that X is distributed N(45, 5). Use Y to compute P (40 < X < 43).

Solution  I computed this usiing th standard normal distribution.   Alternatively, you can simply use the NORM.DIST (43; 45; ^5; TRUE) and NORM.DIST (40; 45; ^5; TRUE) and subtract the two values. Either method is ne. We have:

P (40 < X < 43) = P < Z <

= P -^5 < Z < -

= Φ - - Φ -^5

= 0.1857 - 0.0126 = 0.1731

Exercise 5. [15 points] Conditional Probabilities and Floods in Jakarta

Jakarta, the capital city of Indonesia, has historically experienced a high risk of oods. Some developers have created an app to evaluate the risk of a ood in fragile areas given the rainfall observed in a nearby location.  Denote F to be the event that a ood occurs.  R denotes a continuous random variable, weekly rainfall measured in millimeters. You are given the following joint frequency table.

R

< 1

[1, 5)

[5, 10)

[10, 20)

[20, 50)

[50, 100)

100+

Total

F

0.01

0.01

0.02

0.07

0.12

0.07

0.05

0.35

Fc

0.05

0.14

0.23

0.14

0.06

0.02

0.01

0.65

Total

0.06

0.15

0.25

0.21

0.18

0.09

0.06

1

Table 1: Rainfall & Flood Risk in Jakarta

a) Compute the conditional probability of a ood for each class of rainfall intensity. Solution We simply compute P (F IRi ) = 宜(h)i(宜)i )  for each Ri  interval. We have:

Flood Prob

0.167

0.067

0.080

0.334

0.667

0.778

0.834

b) Compute the probability of a ood given that the rainfall is below 50mm. That is compute P (F IR < 50mm).

Solution Using the conditional probabilities computed above we have:

P (F n {R < 50mm})

P ({R < 50mm})

0.01 + 0.01 + 0.02 + 0.07 + 0.12

=

0.06 + 0.15 + 0.25 + 0.21 + 0.18

0.23

= 0.85

= 0.271

c) Compute the probability of no ood occurring when the rain fall is above 50mm.  That is, compute P (Fc IR > 50mm)

Solution First note that P (R > 50mm) = 0.15. We have:

P (Fc n {R > 50mm})

P ({R > 50mm})

0.02 + 0.01

=

0.09 + 0.06

0.03

= 0.15

= 0.2

Exercise 6. [20 points] Conditional Expectation

You are offered the following game:

-A 6-faced fair die is rolled. Call the result of this roll J

-A fair coin is ipped, if it lands heads you win 2J  dollars, if it lands tails you win J.

a) What is the probability you win more than 25$ at this game?

Solution We will deonte the value of the win as W . Then we want to compute P (W > 25). In order to win more than 25$ we must have gotten a head in the coin ip. Moreover 24  = 16 < 25 while 25 = 32 > 25 so we need a 5 or a 6 in the dice roll. Because the coin ip and the are independent we have P (J = 5 or J = 6  n  Coin = Heads) = P (J = 5 orJ = 6) . P (Coin = Heads) = . = .

b) Compute the conditional expectation conditional on J and then use the Law of Iterated expectations to compute the expected value of playing the game.

Solution The conditional expectation E[W IJ] is a function of J so it should give us a (possibly different) value for each value J can take. First let’s compute the condtional expectation, conditional on the random

variable J. Because after J realizes we have only randomness from the coin ip:

E[W IJ] = 2J . P (Coin = HeadsIJ) + J . P (Coin = TailsIJ)

E[W IJ] = 2J . P (Coin = Heads) + J . P (Coin = Tails)

= 2J . + J .

= 2J _ 1 +

where we know P (Coin = HeadsIJ) = P (Coin = Heads) by indepenedence.   So in the conditional expectation takes 6 values, they are:

J

1

2

3

4

5

6

E[W IJ]

1.5

3

5.5

10

18.5

35

Probability

1

6

1

6

1

6

1

6

1

6

1

6

Now we use the law of iterated expectations: E[W] = E[E[W IJ]]. Hence:

E[W] = E[E[W IJ]]

= j 1 2j _ 1 +

1

=    (1.5 + 3 + 5.5 + 10 + 18.5 + 35)

Exercise 7. [30 points] Bayesian Updating and Beliefs about Climate Change

Suppose that two observers hold different views on whether climate change is anthropogenic.                  In particular P1 (A) = 0.5, P2 (A) = 0.01 so their views are really quite different without having observed any evidence. Suppose that the observers get to see the stream of scientific evidences E1 , E2 , E3 . . .

Both observers know that P (Ej IA) = 0.7, P (Ej IAc ) = 0.2 Moreover, each pieces of evidence is exchangeable given the event A, that is:

P (Ej IA, Ei ) = P (Ej IA)

P (Ej IAc , Ei ) = P (Ej IAc )

a) Compute the conditional probability P1 (AIE1 ) and P2 (AIE1 ) for both observers.

Solution We apply Bayes Rule using the two prior probabilities. For observer 1 we have:

P1 (AIE1 ) =


=


=


P (E1 IA) . P1 (A)

P (E1 IA) . P1 (A) + P (E1 IAc ) . P1 (Ac ) 0.7 . 0.5

0.7 . 0.5 + 0.2 . 0.5

0.35

0.45

= 0.77

An identical computation for Observer 2 gives:


P (E1 IA) . P2 (A)

P2 (AIE1 ) =

0.7 . 0.01

= 0.7 . 0.01 + 0.2 . 0.99

0.007

= 0.205

= 0.034