Douglas C. Montgomery - Introduction to Linear Regression Analysis

Здесь есть возможность читать онлайн «Douglas C. Montgomery - Introduction to Linear Regression Analysis» — ознакомительный отрывок электронной книги совершенно бесплатно, а после прочтения отрывка купить полную версию. В некоторых случаях можно слушать аудио, скачать через торрент в формате fb2 и присутствует краткое содержание. Жанр: unrecognised, на английском языке. Описание произведения, (предисловие) а так же отзывы посетителей доступны на портале библиотеки ЛибКат.

Introduction to Linear Regression Analysis: краткое содержание, описание и аннотация

Предлагаем к чтению аннотацию, описание, краткое содержание или предисловие (зависит от того, что написал сам автор книги «Introduction to Linear Regression Analysis»). Если вы не нашли необходимую информацию о книге — напишите в комментариях, мы постараемся отыскать её.

A comprehensive and current introduction to the fundamentals of regression analysis Introduction to Linear Regression Analysis, 6th Edition The new edition focuses on four key areas of improvement over the fifth edition:
New exercises and data sets New material on generalized regression techniques The inclusion of JMP software in key areas Carefully condensing the text where possible
skillfully blends theory and application in both the conventional and less common uses of regression analysis in today's cutting-edge scientific research. The text equips readers to understand the basic principles needed to apply regression model-building techniques in various fields of study, including engineering, management, and the health sciences.

Introduction to Linear Regression Analysis — читать онлайн ознакомительный отрывок

Ниже представлен текст книги, разбитый по страницам. Система сохранения места последней прочитанной страницы, позволяет с удобством читать онлайн бесплатно книгу «Introduction to Linear Regression Analysis», без необходимости каждый раз заново искать на чём Вы остановились. Поставьте закладку, и сможете в любой момент перейти на страницу, на которой закончили чтение.

Тёмная тема
Сбросить

Интервал:

Закладка:

Сделать

2.2.2 Properties of the Least-Squares Estimators and the Fitted Regression Model

The least-squares estimators картинка 72and картинка 73have several important properties. First, note from Eqs. (2.6)and (2.7)that картинка 74and Introduction to Linear Regression Analysis - изображение 75are linear combinationsof the observations yi . For example,

Introduction to Linear Regression Analysis - изображение 76

where Introduction to Linear Regression Analysis - изображение 77for i = 1, 2, …, n .

The least-squares estimators картинка 78and картинка 79are unbiased estimatorsof the model parameters β 0and β 1. To show this for consider since E εi 0 by assumption Now we can show directly that - фото 80, consider

since E εi 0 by assumption Now we can show directly that and - фото 81

since E ( εi ) = 0 by assumption. Now we can show directly that Introduction to Linear Regression Analysis - изображение 82and Introduction to Linear Regression Analysis - изображение 83, so

Introduction to Linear Regression Analysis - изображение 84

That is, if we assume that the model is correct [ E ( yi ) = β 0+ β 1 xi ], then картинка 85is an unbiased estimator of β 1. Similarly we may show that of Introduction to Linear Regression Analysis - изображение 86is an unbiased estimator of β 0, or

Introduction to Linear Regression Analysis - изображение 87

The variance of is found as 213 because the observations yi are uncorrelated and so the - фото 88is found as

(2.13) because the observations yi are uncorrelated and so the variance of the sum is - фото 89

because the observations yi are uncorrelated, and so the variance of the sum is just the sum of the variances. The variance of each term in the sum is and we have assumed that Var yi σ 2 consequently 214 The variance - фото 90, and we have assumed that Var( yi ) = σ 2; consequently,

(2.14) The variance of is Now the variance of - фото 91

The variance of is Now the variance of is just - фото 92is

Introduction to Linear Regression Analysis - изображение 93

Now the variance of Introduction to Linear Regression Analysis - изображение 94is just Introduction to Linear Regression Analysis - изображение 95, and the covariance between and can be shown to be zero see Problem 225 Thus 215 An - фото 96and can be shown to be zero see Problem 225 Thus 215 Another important - фото 97can be shown to be zero (see Problem 2.25). Thus,

(2.15) Another important result concerning the quality of the leastsquares estimators - фото 98

Another important result concerning the quality of the least-squares estimators картинка 99and картинка 100is the Gauss-Markov theorem, which states that for the regression model (2.1)with the assumptions E ( ε ) = 0, Var( ε ) = σ 2, and uncorrelated errors, the least-squares estimators are unbiased and have minimum variance when compared with all other unbiased estimators that are linear combinations of the yi . We often say that the least-squares estimators are best linear unbiased estimators, where “best” implies minimum variance. Appendix C.4proves the Gauss-Markov theorem for the more general multiple linear regression situation, of which simple linear regression is a special case.

There are several other useful properties of the least-squares fit:

1 The sum of the residuals in any regression model that contains an intercept β0 is always zero, that is,This property follows directly from the first normal equation in Eqs. (2.5)and is demonstrated in Table 2.2 for the residuals from Example 2.1. Rounding errors may affect the sum.

2 The sum of the observed values yi equals the sum of the fitted values , orTable 2.2 demonstrates this result for Example 2.1.

3 The least-squares regression line always passes through the centroid [the point ] of the data.

4 The sum of the residuals weighted by the corresponding value of the regressor variable always equals zero, that is,

5 The sum of the residuals weighted by the corresponding fitted value always equals zero, that is,

2.2.3 Estimation of σ 2

In addition to estimating β 0and β 1, an estimate of σ 2is required to test hypotheses and construct interval estimates pertinent to the regression model. Ideally we would like this estimate not to depend on the adequacy of the fitted model. This is only possible when there are several observations on y for at least one value of x (see Section 4.5) or when prior information concerning σ 2is available. When this approach cannot be used, the estimate of σ 2is obtained from the residualor error sum of squares,

Читать дальше
Тёмная тема
Сбросить

Интервал:

Закладка:

Сделать

Похожие книги на «Introduction to Linear Regression Analysis»

Представляем Вашему вниманию похожие книги на «Introduction to Linear Regression Analysis» списком для выбора. Мы отобрали схожую по названию и смыслу литературу в надежде предоставить читателям больше вариантов отыскать новые, интересные, ещё непрочитанные произведения.


Отзывы о книге «Introduction to Linear Regression Analysis»

Обсуждение, отзывы о книге «Introduction to Linear Regression Analysis» и просто собственные мнения читателей. Оставьте ваши комментарии, напишите, что Вы думаете о произведении, его смысле или главных героях. Укажите что конкретно понравилось, а что нет, и почему Вы так считаете.

x