Hello, dear friend, you can consult us at any time if you have any questions, add WeChat: daixieit


Econ 3210: Assignment 1

Winter 2022

 

General Instructions

You may work and submit assignments in groups no larger than four (4).  Please submit answers to each question in the field available for that question on Crowdmark.   Please submit all Stata code in the field assigned to the very last question on Crowdmark (“Submit your Stata code here”). It is sufficient for one group member to submit on behalf of the entire group. The deadline to submit the assignment and the associated Stata code on Crowdmark is 5pm on Friday February 4, 2022.

The code I provided on our course website in the assignment folder:  This is to help you answer questions 2 and 3.  You should run this code line-by-line and in order, stopping at each step along the way to read what is written in the comments (the green text).  The code generates and the comments provide a lot of information about the data and how to answer the specific questions. Please follow the code carefully and then build on it where appropriate.

Assignment Background

This assignment is based on a 2016 paper called“The Behavioralist Goes to School: Leverag- ing Behavioral Economics to Improve Educational Performance” by Steven D. Levitt, John A. List, Susanne Neckermann, and Sally Sado↵. The abstract of the paper is here:

We explore the power of behavioral economics to influence the level of e↵ort exerted by students in a low stakes testing environment.  We find a substantial impact on test scores from incentives when the rewards are delivered immediately. There is suggestive evidence that rewards framed as losses outperform those


framed as gains. Nonfinancial incentives can be considerably more cost-e↵ective than financial incentives for younger students, but are less e↵ective with older students. All motivating power of incentives vanishes when rewards are handed out with a delay. Our results suggest that the current set of incentives may lead to underinvestment.

In this assignment, we will do a simple replication of some of their results.  The basic idea of the paper is to investigate whether providing students with the  “right” incentives to do well in school causes better performance.  The “right” incentives in this context are those informed by theories from behavioral economics, which uses insights from psychology, sociology, and neuroscience to refine standard economic models to account for human beings not always acting rationally. As the authors’ note,

“One of the biggest puzzles in education is why investment among many students is so low given the high returns.   One explanation is that the current set of long-run returns does not sufficiently motivate some students to invest e↵ort in school. If underinvestment is a problem, then there is a role for public policy in stimulating investment.”

In order to learn about what better policies might look like, the authors deploy three ideas from behavioral economics: loss aversion, nonmonetary rewards, and hyperbolic discounting. While these are all interesting,1  we are going to focus on replicating some results from the authors’ experiment for testing hyperbolic discounting, which essentially means that people sometimes discount the future too much.  When weighing the costs and benefits of taking an action that has immediate costs but future benefits (i.e., studying!), people sometimes choose not to act because they have put too little weight on the (ever-so-distant) benefit.

To test whether they could get students to overcome hyperbolic discounting, the authors showed up on the day of the test (right before the test) and randomly o↵ered some students a financial reward if they could improve their test score relative to last year’s score. Therefore, if the students tried hard, they would realize the benefit immediately after the test rather than in the distant future. Specifically, the authors visited a high school in Bloom Township (Bloom), a small school district south of Chicago, and conducted a random experiment in which they randomly sorted students into three groups: high incentives (the student receives 20 if they improve), low incentives (the student receives 10 if they improve), and control group (the student receives nothing if they improve).

For this assignment, we answer a few questions about this context and conduct some simple analyses with the authors’ data.

 

Questions

1. Prior to getting to the authors’ experiment, suppose we were interested in providing a credible answer to the following general question: “Does providing students with financial incentives to do well on tests improve test performance?” A friend of yours proceeds to answer this question by going to a local high school and collecting performance data on student tests. Your friend then surveys the parents of all students in her sample, asking parents, “On the day of the last test your child wrote, did you promise to pay him or her at least 10 if they improved their performance relative to the last time they took a similar test?”

Based on the answers to her survey, your friend creates the following grouping variable for your sample of i = 1,...,N students:

Di  = 

She then specifies the following econometric model to describe the test score performance of student i:

Yi  = β0 + β1Di + Ui

(a) Provide an example of a factor that could be in Ui .

(b) Explain (in words) why it is problematic to simply compare conditional means as

way of answering the research question.   That is, why is it not a good idea to compare the mean test score of students with Di  = 1 to the mean test score of students with Di  = 0?

(c) Use the econometric model above to show (mathematically) how a comparison of conditional means is biased by selection.

2. Now we move on to the authors’ experimental data. Open up the all BGS data v13.dta Stata data file and the associated do file titled ProblemSet1 Dofile.do.  (Both can be found on Moodle.) As with any random experiment, we first want to make sure random- ization was successful. To that end, we are going to try to confirm a result from Table

3 in Levitt, List, Neckermann, and Sado↵ (2016).2

(a) Find the proportion of students who are eligible for a free lunch in the control group,

FL  , and proportion who are eligible in the low incentive group, FL  .

(b) Find the variance of the free lunch variable among a pooled sample of students in

the control group and students in the low incentive group (do not include students in the other groups), σL .

(c) Find the di↵erence between the proportion of students who are eligible for a free

lunch in the control group and proportion who are eligible in the low incentive

group, FL  − FL  .

(d) Find the variance of the estimator FLL − FLC , using the formula we discussed in class: Var ⇣FLL − FLC⌘ = σL ( + ).

(e) What is the value for the t-statistic for the hypothesis test that FLL − FLC  = 0? Conduct a hypothesis test that the proportion of students who are eligible for a free lunch in the control group is the same as the proportion who are eligible in the low incentive group. (You can use Stata’s built-in hypothesis testing command that we showed in class.) What do you conclude?

(f) Based on your analysis with the free lunch variable, was randomization successful?

3. Using the same data file and do file, let us now verify that o↵ering immediate incentives indeed leads to greater student e↵ort, as captured by higher test scores.  To that end, we are going to try to confirm the results in columns (3) and (4) of Table 6 of Levitt, List, Neckermann, and Sado↵ (2016).3

(a) Test the hypothesis that the average test score of students in the control group and the low incentives (10) treatment group are the same. What do you conclude?

(b) Test the hypothesis that the average test score of students in the control group and the high incentives (20) treatment group are the same.  (For this question, you’ll see that in the do file I tell you to group students who received high incentives and high incentives framed as a loss into one group, and to just call this the “high incentive” group. ) What do you conclude?

(c) Now use only the sample of students who were either in the control group or the

high incentives treatment group (again, both students who received high incentives and high incentives framed as a loss) and run a regression in which you regress the test score of student i on the high incentives indicator variable. How does the estimated coefficient on this variable relate to the di↵erence in average test score means from part (b)?  How does the standard error of this estimated coefficient relate to the standard error of the di↵erence in average test score means from part (b)?