关键词 > Economics440.602

Economics 440.602 Macroeconomic Theory Lecture 5

发布时间:2023-02-23

Hello, dear friend, you can consult us at any time if you have any questions, add WeChat: daixieit

Economics 440.602

Macroeconomic Theory

Lecture 5 - L1NEAR AppRox1MAT1oN

1 LEARN1Nc 0BJEcT1vEs

Students should understand:

● Taylor’s Theorem

● Log-linearization technique

● Multivariate Linear Approximation

● Macroeconomic Applications

2 TAYLoR's THEoREM

1. In modern macroeconomics, it is common to have situations in which there is no closed- form solution for a given problem. It is often helpful to use a numerical approach that approximates a non-linear difference equation using log-linearization.  The technique involves taking the natural logs of the system of non-linear difference equations.  We then evaluate the logged difference equations about a particular point  (usually the steady state1), and simplify until we have a system of linear difference equations where the variables of interest are percentage deviations from that given steady state point. Converting terms into percentages (which is part of the log” transformation) is often preferred in economics because we have experience solving linear difference equations. When the difference equations are expressed in percentage terms, they provide a natural interpretation of the units.

(a) To begin, it is often convenient analytically to approximate a function f (x) with a set of polynomials of the form:

f (x) s fn (x) = a0 + a1 x + a2 x2 + a3 x3 + · · · + an xn

i. In particular, let us approximate f (x) around the point x = 0. What values of the coefficients a0 , . . . , an  will best do this?  To begin, we should require

that fn (x) = f (x) at x = 0. Hence, we need to set

a0  = fn (0) = f (0)

ii. Thus, the coefficient a0  is determined in this function to be f (0).

iii. To approximate f (x) even better, let us make the derivatives of f (x) and fn (x) equal, at x = 0. We have

f(x)   =   a1 + 2a2 x + 3a4 x2 + · · · + nan xn-1       f(x)   =   2a2 + 3 · 2a3 x + · · · + n(n . 1)an xn-2

fn)     =   n! an

iv. The expression, n!, is read as n factorial” and is equal to n! = n(n . 1)(n .

2) · . . . · 1. In other words, the factorial of n is the product of all non-negative integers less than or equal to n.  Hence 1! = 1, 2! = 2 · 1, 3! = 3 · 2 · 1 = 6,

and so on. Clearly, when x = 0, we get

a1     = a2     =

an     =

f\ (0)

f\\ (0) 2!

f (n)

n!

v. Having thus determined the coefficients of fn (x) in this fashion, our approx- imating polynomial is

fn (x) = f (0) + f (0)x\ + x2 + x3 + · · · + xn

vi. An important class of functions comprises those for which fn (x) converges to f (x), as n o, that is,

f (x) = f (0) + f (0)x\ + x2 + · · ·

vii. These functions  are called  analytic functions,  which  are  also known  as  a Maclaurin series.

(b)  Suppose now we wish to approximate f(x) at some arbitrary point x = . In that case, write fn (x) in terms of powers of (x . ):

fn (x) = a0 + a1 (x . ) + a2 (x . )2 + · · · an (x . )n

i. Using the same procedure as before, setting the derivatives of f (x) equal to those of fn (x) at x = , we determine

f (x) s f () + f\ ()(x . ) + f\\ ()(x . )2 + · · · + fn ()(x . )n

ii. This more general form of the power series is known as  Taylor’s series, or simply as a Taylor series. The Maclaurin series is a special case, where = 0. Here f\ () is the rst derivative of f with respect to x evaluated at the point , f\\ () is the second derivative evaluated at the same point, fn  is the n-th derivative.

(c)  Example: Find a Taylor series expansion for ln(1 + x), around x = 0.

i. We note:

f (0)   =   ln(1 + 0) = ln(1) = 0

f\ (0)   = = 1 at x = 0

f\\ (0)   =   . = .1 at x = 0

f\\\ (0)   = = +2 at x = 0

fiv (0)   =   . = .3! at x = 0

ii. Hence,

ln(1 + x) = x .  2  +  3  .  4  + · · ·

(d) It is important to note however, that for a function that is sufficiently smooth, the higher order derivatives will be small, and the function can be well approximated (at least in the neighborhood of the point of evaluation, ) linearly as with the following shorter approximation:

f (x) s f () + f\ ()(x . )

(e) The next section shows how to linearize a more complex non-linear function using the log-linearization technique.

3 Loc-L1NEAR1zAT1oN TEcHN1oUE

2.  Suppose that we have the following (non-linear) function:

g(x)

f (x) =

(a) To log-linearize it, first take natural logs of both sides:

ln f (x) = ln g(x) . ln h(x)

i. Now we apply the rst order Taylor series expansion:

f\ ()

f ()

g\ ()

g()

h\ ()

h()

ii. Where the above follows from the fact that = .  Now combining all these terms together:

f\ () g\ () h\ ()

f ()                                 g()                                 h()

iii.  Group like terms:

ln f () +         (x . ) = ln g() . ln h() +         (x . ) .         (x . )

iv. But since ln f () = ln g() . ln h(), these terms cancel out, leaving:

f\ () g\ () h\ ()

f ()                  g()                 h()

v. To put all terms into percentage terms, multiply and divide each term by :

f\ () (x . ) g\ () (x . ) h\ () (x . )


vi. For notational ease, define = , or the percentage deviation of x about . Then we have:

f\ () g\ () h\ (x)

4 MULT1vAR1ATE L1NEAR AppRox1MAT1oN

3. Taylor’s theorem can easily be extended and applied to multivariate functions.  As an example,  suppose we have f (x, X), which can easily applied to the case of two independent variables; that is, y = f (x, X). This is accomplished by an artifice similar to the deviation of the maximum conditions. Consider f (x, X) evaluated at some point ( , ), that is f (x, X). Let us now move to a new point, ( + h1 , + h2 ), where we can consider h1  = ∆x, h2  = ∆X . If we let

y(t) = f ( + h1t, + h2t)

(a) then when t = 0, f (x, X) = f ( , ), and when t = 1, f ( , y¯) = f ( + h1 , + h2 ). If h1  and h2  take on arbitrary values, any point in the x . X plane can be reached. We can therefore derive a Taylor series for f (x, X) by writing one for y(t), around the point t = 0. In terms of nite sums,

y\\ (0)t2 y(m)(t* )tm

2!                        m!

(b) where 0 < It* I < ItI. Setting t = 1, we have

y(1)   =   f ( + h1 , + h2 )

y(0)   =   f ( , )

y\ (0)   =   f1 ( , )h1 + f2 ( , )h2

2       2

y\\ (0)   =               fij ( + h1 , + h2 )

i=1  j=1

(c) Therefore equation (1) becomes

f ( + h1 , + h2 ) = f ( , )   +         fi hj  +         2!         + · · ·

i.  Or, written succinctly the rst-order approximation about the point ( , ) is: f (x, X) s f ( , ) + fx ( , )(x . ) + fz ( , )(X . )

ii. Where fx  denotes the partial derivative of the function with respect to x and similarly fz  for X .

4. The previous discussion and general procedure can also be extended to multivariate examples.

(a) In more than one dimension our rst order expansion around f (1 , . . . , n ) is

f (x1 , . . . , xn )   s   f (1 , . . . , n )

+   5f (1 , . . . , n ) · (x1 . , . . . , xn . )

(b) or, writing the expression out explicitly,

f (x1 , . . . , xn )   s   f (1 , . . . , n )

+   fx1 f (1 , . . . , n )(x1 . n ) + · · · +   fx_ (1 , . . . , n )(xn . n )

(c) This equation can also generalized to an p-th order Taylor approximation though one has to be careful to include cross-partials as well.

(d) The only difference on the above in economics is that we usually use log lineariza- tion instead of linearization in levels.  That is, we often want our system to be linear in = ln(x) . ln().  Making our model linear in log deviations from the steady state allows for some non-linearity in the approximation, but more impor- tantly allows us to talk about the model in percent deviations.  That is, gives the percent deviation of a variable form its steady state value. That is because

d x .

(e) To summarize, the procedure for log-linearizing is:

i. Take natural logs.

ii. Apply the rst-order Taylor series expansion about a point (usually the steady state).

iii.  Simplify so that mathematical expression is expressed in percentage devia- tions from steady state.

5 MAcRoEcoNoM1c AppL1cAT1oNs

5. A number of examples arise in modern macroeconomics arise in which log-linearization is extremely helpful.  The log-linearization technique is applied to the following eco- nomic examples: (1) Cobb-Douglass production; and (2) consumption Euler equation.

(a) Cobb-Douglass Production Function: Consider a Cobb-Douglas production

function:

yt  = at kt(α)nt(1) -α

i. First takes logs:

ln yt  = ln at + α ln kt + (1 . α) ln nt

ii. Take partial derivatives:

ea  =   ?at     = at ,        ek  =   ?kt     = kt ,        en  =   ?nt     =   nt

iii. Apply the steady-state condition:

ln y¯ = ln + α ln + (1 . α) ln

? ln y¯ 1

? ,

ea · t  = · / = · / = 1 · / ,

ek = ?

ek · t = · /

? ln y¯

?

en · t = · /

=

=

=

=

α

,

α · / = α · / ,

1 . α

,

(1 . α) · · / = (1 . α) · / .

iv. Now express terms using tilde” notation, as percentage deviations from the steady state:

εa  = 1,    εk     =   α,    εn  = (1 . α)

y˜   =   1 · t + α · t + (1 . α) · t

y˜   =   εa  · t + εk  · t + εn  · t

(b) Consumption Euler equation:  Consider the standard Euler equation that

emerges from the household optimization problems with CRRA utility:

/ σ = β(1 + rt )

i. where σ > 0 is the coefficient of relative risk aversion. Taking logs:

σ ln ct+1 . σ ln ct  = ln β + ln(1 + rt )

ii. Now applying the rst order Taylor series expansion:

σ ln +    (ct+1 . ) . σ ln .   (ct . ) = ln β + ln(1 + ) +          (rt . )

iii.  Some terms on the left hand side cancel:

σ σ 1

1 +

iv. Note that, in the steady state, 1 + = , hence ln(1 + ) = . ln β . Using this identity, we have:

σ σ 1

1 +

v. There are two semi-standard housekeeping tasks to do with the right hand side. First, since rt is already a percent, it is common to leave it in&nb