Hello, dear friend, you can consult us at any time if you have any questions, add WeChat: daixieit

STAT 153 - Introduction to Time Series Spring 2023

Homework 2

1. (Differencing) In this question, we consider the difference operator ∇ = 1 − B and how it can be used to detrend nonstationary models.

(a)  Consider a generic trend model: Xt  = mt +Wt , where mt  is a deterministic trend

function and {Wt } is white noise (0, 1). Show that if mt  = a0 + a1t is linear, then {∇Xt } is stationary.

(b)  Consider a generic trend model: Xt  = mt +Wt , where mt  is a deterministic trend function and {Wt } is white noise (0, 1).  Show that if mt   = a0  + a1t + a2t2  is quadratic, then {∇2Xt } is stationary.  Here we use second-order differencing of the difference operator with lag 1.

(c)  Consider a time series

Xt  = Rt + Wt ,

where Wt  is white noise (0, 1), and Rt  is random walk with drift δ , Rt  = δ + Rt 1 + W˜t .

Show that ∇Xt  is stationary.

(d) Besides ∇ which is the difference operator with lag 1, we may also consider higher

lags since the length of cycles can be typically larger than one in practice, ∇sXt  = Xt − Xt s  = (1 − Bs )Xt .

We can use the R diff function (three arguments:  data, differences, lag; docu- mentation is here) for differencing time series.  Try the following example with the globetemp dataset in R library astsa

1    library (astsa)

2   plot (globtemp)

Process the globtemp data by differencing it with different lags and different orders of differences (up to 2), and plot the sample ACF of the original and the differenced time series. Report your findings.

2. (Example of same ACVF) Let {Yt } be a stationary time series with mean 0. Define Xt  = Yt − 0.4Yt 1

and

Wt  = Yt − 2.5Yt 1

(a) Express the autocovariance function of {Xt } and {Wt } in terms of the autoco- variance function of {Yt }, γY (0),γY (1), . . . , respectively.

(b)  Show that the autocorrelation functions of Xt  and Wt  are the same.

3. (Examining sample ACF) Suppose you have 100 observations from an AR(1) model with ϕ = 0.7. Would you be surprised if the sample autocorrelation at lag 1 turns out to be 0.7?  Would you be surprised if the sample autocorrelation at lag 10 turns out to be 0.15? Provide the computations and arguments. Hint: use Bartlett’s formula to construct 95% confidence interval.

4. (ARMA models) For each of the following ARMA models with {Wt } ∼ WN(0, 1), find the roots of the AR and MA polynomials, and identify the values of p and q if they are ARMA(p,q) (be cautious of potential parameter redundancy), and lastly determine whether the model is causal and whether the model is invertible.

(a) Xt + 0.81Xt 2  = Wt + Wt 1

(b) Xt − 4Xt 2  = Wt − Wt 1 + Wt 2

(c) Xt − Xt 1 − Xt 2  = Wt − Wt 1 − Wt 2

(d) Xt − Xt 1 − Xt 2  = Wt − 3Wt 1 + Wt 2 − Wt 3

5. (Exact conditions for AR(2) causality)

Consider the AR(2) model:  ϕ(B)Xt  = Zt , where ϕ(z) = 1 − ϕ 1 z − ϕ2 z2  and {Zt } is white noise model.

(a)  Show that for the AR(2) model, the roots of the characteristic equation ϕ(z) is

given by

ϕ 1 1(2) + 4ϕ2 ϕ 1 +^ϕ1(2) + 4ϕ2

2ϕ2 2ϕ2              .

(b)  Show that there exists a unique causal stationary solution if and only if the

parameter pair (ϕ1 ,ϕ2 ) satisfies the following conditions:

ϕ2 + ϕ1  < 1, ϕ2 − ϕ 1 < 1, |ϕ2 | < 1.

6. (ACF of MA)

(a) Find the autocovariance function of the model Xt  = Wt + Wt 1 − Wt 2 , where {Wt } ∼ WN(0, 1).

(b) Find the autocovariance function of the model Xt  = Zt  − Zt 1  − Zt 2 , where {Zt } ∼ WN(0, 9).

(c) Which of the MA models is invertible?