Hello, dear friend, you can consult us at any time if you have any questions, add WeChat: daixieit

MATH7502 Quiz 3

Semester 2, 2020

1.  Consider the vector n = [1  2]T  and the vector Q = [1  10]T . Let the matrix V be the outer product V = n QT . Determine the eigenvalues of V.

Solution:

The problem can be solved like the next one, but a straight forward solution is via the characteristic polynomial,

det /┌12(一) Y   2010 Y┐ 、= (1 Y)(20 Y) 20 = Y2 21Y = Y(Y  21).

Hence by equating to 0 we see that the eigenvalues are Y = 0 and Y = 21.

2. Now set n = [1  2  3  4  5]T  and Q = [1  10  102    103    104]T . With these values determine the eigenvalues of V = n QT . Hint: Remember that the sum of the eigenvalues is the trace.

Solution:

In this case computing (and solving the roots of) the characteristic polynomial is more difficult.   However we note that V is a matrix with a rank of one and hence all of its eigenvalues except for a one, are 0.  To see this (no need for this proof to get marks), consider the eigenvalue/eigenvector equation

(V 一 YI) = 0.

By setting Y = 0 we see that any non-zero vector in the null-space of V is an eigenvector. Now since the rank(V) = 1, the null-space is of dimension 5 1 = 4 and hence is spanned by 4 distinct eigenvectors, each corresponding to the eigenvalue Y = 0.

The question is now about the fth eigenvalue.  Here we can use the fact that trace(V), the sum of the diagonal elements of V is also the sum of the eigenvalues. Since 4 of them are 0, the trace equals the fth eigenvalue. Now the trace of an outer product (matrix) is simply the inner product of the vectors that make up the matrix, so the fth eigenvalue is,

Y = nT Q = 54( 321.

3. Let H be a 3 × 2 matrix with rank(H) = 2, and set the vector O = [0  1  1]T . Assume that,

H(HT H)|| HT  =  

'0    1/2    1/2' .

Let 北*  be the value of that minimizes ||H O ||.  Determine the value of H*  and the value of ||H北* O ||.

Solution:

Here d = H(HT H)|| HT is a projection matrix associated with this least squares problem.

The * that minimizes ||H北 一 O || is * = H O where H = (HT H)|| HT . Now

H北* = HHO = dO.

Hence,

H* =  0(1) '0

0

1/2

1/2

1/2' '1' =  '1' = O.

That is, for this specific c we have that c is in the column space of B and the least squares problem is solved exactly” . In this case, ||Bx* c|| = 0.

4.  Continuing with the same B, prove that BT B is a positive definite matrix.

Solution:

Take x  0 and consider,

xT BT Bx = (Bx)T Bx = ||Bx||2 .

We know that B is a skinny full-rank matrix, that is its columns are linearly independent. Hence for x  0, the vector Bx is also not 0.  Hence the norm ||Bx|| is strictly positive and hence, xT BT Bx > 0 showing that BT B is positive definite.

5. What are the 3 eigenvalues of B(BT B)|| BT? Why?

Solution:

The matrix P  =  B(BT B)|| BT  is a projection matrix on a subspace of dimension 2. This means that non-zero vectors that are linear combinations of the columns of B are eigenvectors of P with an eigenvalue of 1. To see this formally multiply P by each column

or all-together,

PB = B(BT B)|| BT B = B = 1B .

Further, vectors that are orthogonal to the column space of B are projected onto the 0 vector and hence have an eigenvalue of 0.  To see this formally, any such vector, say w, satisfies. wT B = 0 (here 0 is a row vector of length 3). Alternatively, BTw = 0 (here 0 is a column vector of length 3). Hence,

Pw = B(BT B)|| BTw = 0 = 0w.

(Note that the rst 0 in the above equation is a vector and the second is a scalar). Hence 0 is an eigenvalue and w  0 is an eigenvector.

Because the rank of B is 2 there are two independent eigenvectors with eigenvalue 1 and a single (independent) eigenvector with eigenvalue 0. Hence the eigenvalues of P are 0, 1, and 1.

6.  Consider the sequence x(0), x(1), x(2), . . . of vectors in R3  with  x(k + 1) = B(BT B)|| BTx(k) x(k),

for k = 1, 2, . . .. Argue about the value of the limit,

lim  ||x(k)||.

k →&

Does it depend on x(0)? Or is it the same limit for all x(0)? What is the limit?

Solution:

The recursion can be written as,

x(k + 1) = Rx(k),

where R = P  I.   This means that the eigenvalues of R are those of P minus  1/2. They are then   ,  , and  .  This makes R a stable matrix which means that for any initial condition x(k) 6 0.  Hence the norm converges to 0.  One argument for this (not needed to get marks for the points) is to diagonalize Q as R = QΛQT  where Q is an orthogonal matrix of eigenvectors (exists here R is symmetric) and Λ has the eigenvalues on the diagonal. Then,

x(k) = Rk x(0) = QΛk QT x(0).

This then converges to the 0 vector because each element of the diagonal of Λk  is an eigenvalue in the range (一1, 1) raised to the power k .