Hello, dear friend, you can consult us at any time if you have any questions, add WeChat: daixieit

Stat 135, Spring 2019 – Midterm

Problem 1 (10 points)

In particle physics, a muon is an unstable particle that undergoes decay to produce other particles. One type of decay produces another kind of particle called a positron. According to physicists, when the positron is produced from a decayed muon, its angle of trajectory, T, is random and depends on a physical parameter of the muon called the anisometry, . Here, − T and −4 4. The density of the trajectory angle is

fT (t|) = 12(1 + cos t),          t ∈ [−,].

A physicist is interested in estimating the anisometry parameter from trajectory angle observations, and comes to you for statistical advice.

(a)  First, by computing u2  = Ea[T2], ind the MoM estimate of given observations t1 , . . . ,tn .  (4 points)

(b) Next, you proceed with reporting a 95% conidence interval for your estimate.  You decide to

perform a bootstrap, and write some R code. Here are the irst couple of lines.

# Input: Data vector of trajectory angles X

n <- length(X)

B <- 10000

# getMoM(X) returns MoM estimate from data vector X

theta MoM <- getMoM(X)

# Vector to record bootstrap estimates

theta  star <- numeric(B)

# Perform bootstrap (to be completed)

for (i in 1:B) {

# generateData(N, theta) generates N observations of trajectory angles,

# using the model of trajectory angles with parameter set to theta

X  star <- generateData(n, theta MoM)

theta star[i] <- getMoM(X star)

}

...

Is this a parametric or a non-parametric bootstrap? Explain to receive credit.(1 point)

(c)  Finish the bootstrap procedure in part (b). You should require no more than four lines of code. You may write pseudocode or list each remaining step clearly in English sentences instead of printing executable R code, if you like.  (5 points)

Hints:  You may use the following equation without proof.

\—T(T) t2 cos t dt = 4 .

Problem 2 (25 points)

Suppose we have i.i.d. random variables X1 , ··· ,Xn  ~ Beta(α,2), where the PDF of Beta(α,2), for α > 0 and x ∈ (0, 1), is given as the following:

fX (x|α) = α(α + 1)xα 1 (1 − x)

(a)  Show that T(X) = u Xi  is a sucient statistic for α . (5 points)

(b) Is T(X) also minimal sucient?  (5 points)

(c)  Consider the following hypothesis test H0  : α = 1 vs. H1  : α = α 1 . We are given that the known constant α 1  satisies α 1  > 1. Show that the rejection region for likelihood ratio test (LRT) is of the form u Xi  > k for some k .  (5 points)

(d)  Consider the following hypothesis test H0  : α = 1 vs. H1  : α > 1. Justify whether or not there exists a uniformly most powerful test (UMPT). (5 points)

(e)  Consider the following hypothesis test H0  : α = 1 vs.  H1  : α 1.  Compute the generalized

likelihood ratio (GLR) (X). You may express your answer in terms of MLE .  (5 points)

Problem 3:  Short Answer Questions (15 points)

Answer each of the following questions using no more than three sentences.

(a)  Suppose a size n data set is generated from a distribution pe (x) with parameter , and ˆMLE , the maximum likelihood estimator of , is calculated to be 2.2 for this data set. If

Ee[ˆMLE]   =

Var(ˆMLE )   =5

what is the approximate standard error of (ˆMLE )2  for this data set, as an expression involving only n?  (5 points)

(b) Your friend claims to have found another estimator ˆF  for , that always achieves a strictly smaller variance than the asymptotic variance of ˆMLE  from part (a). Name one property of ˆF that must be true given your friend’s claim is true, and explain your answer.  (5 points)

(c)  Let X ~ pe (x). Consider testing the following null and alternative hypotheses:

H0  : = 0

H1  : > 0

If the uniformly most powerful test at signiicance level α exists for testing these hypotheses, argue that the power of the UMP test for > 0 is always greater than or equal to α . (5 points)

Hint: Consider a dummy test that rejects the null hypothesis with probability α, independent of the observed data. This can be done, for instance, by setting the decision function as a Bernoulli random variable that doesn’t depend on X :

d(X) =

Note that this formulation is independent of the actual values of X.