Hello, dear friend, you can consult us at any time if you have any questions, add WeChat: daixieit

MSIN0106: Time Series Analysis and Forecasting

Exam for year 2021-2022

Question 1

Consider the following model

yt     = εt + θεtl ,                                                 (1)

εt  X   i.i.d.N (0, 1).

1.  (6 points) Derive the h-step ahead forecast of yTh  implied by the model, for h 2 1.

A: The forecast is the conditional mean, E[yTh|ΩT ].  For h = 1 we thus have E[εTl  + θεT |ΩT ] = θεT , while for h > 1 we have E[εTh + θεThl |ΩT ] = 0.

2.  (6 points) Write down the likelihood.

A: L (θ) = Σ log f (yt |Ωtl ).  The conditional density f (yt |Ωtl ) implied by the model is that of a normal distribution with conditional mean E[yt |Ωtl] = E[εt  + θεtl |Ωtl]  = θεtl  and conditional variance Var[yt |Ωtl]  = E[(yt  -

E(yt |Ωtl ))2 |Ωtl] = E[εt(2)] = 1, so we have

3.  (6 points) Derive the autocorrelogram implied by the model.

A: The autocorrelogram is ρj  = [y(扩])t ] .  We thus have ρ0  =  =

1.   Since Cov[yt , ytj ] = Cov[εt  + θεtl , εtl  + θεt2] = θVar[εtl] = θ and Var[yt] = Var[ytj ] = Var[εt] + θ2 Var[εtl] = 1 + θ 2  (where we have used the stationarity of MA processes), we have ρ l  =  . Since for j 2 2 Cov[yt , ytj ] = Cov[εt + θεtl , εtj  + θεtl] = 0, we have ρj  = 0 for j 2 2

4.  (7 points) Derive the time series process for the rst differences of yt , ∆yt  =

yt  - ytl . ∆yt .

Then derive the unconditional mean and unconditional variance of

A: ∆yt  = εt + (θ - 1)εtl - θεt2  so it’s an MA(2) process with unconditional mean E[εt + (θ - 1)εtl - θεt2] = 0 and unconditional variance Var[εt + (θ - 1)εtl - θεt2] = Var[εt] + (θ - 1)2 Var[εtl] + θ2 Var[εt2] = 1 + (θ - 1)2 + θ2


Question 2

Consider the following two variables

yt  = t + 0.5ytl + εt ,                                                  (2)

εt  X i.i.d.N (0, 1);

zt  = ztl + ηt ,                                                  (3)

ηt  X i.i.d.N (0, 1),

with ηs  independent of εj  for all s and j .

1.  (6 points) Are yt  and zt  covariance-stationary? Explain why or why not.

A: Neither are covariance stationary. The rst has a deterministic time trend so, for example, assuming y0  = 0, we have E(yt ) = t which depends on time. The second is a unit root so it’s also not covariance stationary.  For example, assuming z0  = 1 we have Var(zt ) = t which depends on time

2.  (6 points) Suppose you observe two time series yt , t = 1, ..., T and zt , t = 1, ..., T. Ex- plain whether and how you would transform the two time series to obtain stationarity.

A: Remove the deterministic trend from yt  by regressing on a linear trend (regress yt on a+bt and take residuals from this regression).  Remove stochastic trend from zt by taking rst differences zt  = zt  - ztl  since zt  = ηt , which is stationary given the assumption that it is i.i.d.

3.  (6 points) Derive the time series process for wt  = ∆yt .

A: wt  = t - (t - 1) + .5yt  - .5ytl + εt  - εtl  = 1 + .5wtl + εt  - εtl , which is an ARMA(1,1)

4.  (7 points) What is the true regression coefficient β in the regression zt  = βwt  + error?

A: β = , which is zero because Cov[wt , ηt] = 0.  To see why, note that wt can be written as an MA(o) as a function of past εj , j = t, t - 1, ... because the AR lag polynomial is invertible (the root of the lag polynomial equation 1 - .5L = 0 is outside the unit circle).  Then the assumption of zero correlation between ηs  and εj for all s and j implies that Cov[wt , ηt] = 0.


Question 3

Consider the model

yt     = c + φytl + σt zt ,  t = 1, ..., T,

╱、」

(4)

εt

σt(2)  = w + εt(2)l ,

where zt  X i.i.d.N (0, 1).

(5)

1.  (6 points) Derive the unconditional mean of yt .

A: If |φ| < 1, we have that E[yt] = c + φE[ytl], and E[yt] is constant over t, so solving for E[yt] we obtain E[yt] = c/(1 - φ).  If |φ| = 1 the unconditional mean is not constant. For example, assuming y0  = 0, we have E[yt] = ct, which depends on time

2.  (6 points) Explain how you would estimate the model.

A: This is an AR(1)-ARCH(1), which must be estimated by MLE. To estimate the parameters (c, φ, w), use the following algorithm:

(a) Write function that computes sequence of σt(2) , t = 2, ..., T given parameters and data (yl , ..., yT )

σt(2)  = w + εt(2)l

You must rst initialize σ l(2) .   In models without a conditional mean we typically use σ l(2)  = y l(2) .  Initialization is a bit trickier here as we have a conditional mean in the model and we also have a unit root in the process for the squared residuals, so the initial observation may matter.

(b) Write function that computes likelihood given data, {σt(2)} from step (a) and parameters

T    (yt - c - φytl )2

t=2                  σt(2)

T

-        log σt(2) . t=2

(c)  Set starting values for parameters. For example (this is quite arbitrary), (c, φ, w) = (0, 0.1, 0.1)

(d)  Set constraints, in this case only w > 0

(e) Numerically maximise likelihood c(.) in step (b) starting from initial val- ues in step (c) and subject to constraints in step (d) (e.g.  use function fmincon.m in Matlab)

3.  (6 points) Explain whether and why the model generates volatility clustering.

A: The model can be expressed as a unit root model for squared residuals εt(2): εt(2)  = w+εt(2)l  + ηt , where ηt  = εt(2)  - σt(2)  is a white noise process.  This means that squared residuals are highly persistent, so that large shocks (in absolute value) are likely to be followed by large shocks and small shocks are likely to be followed by small shocks. This generates volatility clusters

4.  (7 points) Derive the one-step ahead forecast at time T of yTl  and the condi- tional variance of the process, σT(2)l .

A: The forecast is the conditional mean E[yTl |ΩT ] = c + φyT  and the condi- tional variance is deterministic and given by σT(2)l  = w + εT(2)

Question 4

Let xt   = a + xtl  + εt , εt  i.i.d.  N (0, 1) and yt   = ytl  + ηt , with ηt  i.i.d.  N (0, 1) independent of εt .

1.  (6 points) Explain if and how you would transform xt  and yt  so that you obtain stationary time series.

A: Take rst differences for both, ∆xt  = a + εt  and yt  = ηt , which are station- ary because of the i.i.d. assumption on εt  and ηt , which implies stationarity

2.  (6 points) Under which conditions is a linear combination of xt  and yt  station- ary?

A: Never, since these are two independent random walks given the assumption that ηt and εt are independent. To see why, note that axt +byt  = axtl +bytl + aεt + bηt  so the only (trivial) case in which this is stationary is a = b = 0.

3.  (6 points) Explain what would happen if you regressed yt  on xt .

A: It’s a spurious regression because they are two independent random walks. This means that the regression R2  is likely to appear spuriously large and the coefficient appears spuriously significant (in the sense that a standard t-test using critical values from a normal distribution will likely reject the hypothesis that the regression coefficient is zero).

4.  (7 points) Explain how you would verify that the regression of yt   on xt   is spurious.

A: Do a unit root test on the residuals. If reject, the regression is not spurious. If fail to reject, this is an indication that the regression is spurious.