Имя материала: Введение в эконометрику

Автор: Кристофер Доугерти

Обзор: случайные переменные и теория выборок

 

В этой книге при рассмотрении методов оценивания большое внимание будет уделено следующим свойствам оценок: несмещенности, состоятельности и эффективности. Для читателя важно понимание этих свойств, и в книге предполагается, что он знаком с ними в пределах вводного курса статистики. В данной главе предлагается краткий обзор по этим вопросам.

 

Дискретная случайная переменная

Ваше интуитивное понимание вероятности почти наверняка соответствует задачам этой книги, и поэтому мы опустим традиционный раздел чистой теории вероятностей, хотя он мог бы быть весьма увлекательным. Многие люди непосредственно сталкивались с вероятностями, участвуя в лотереях и азартных играх, и их заинтересованность в том, чем они занимались, часто приводила к удивительно высокой практической компетентности, обычно при полном отсутствии формальной подготовки.

Мы начнем непосредственно с дискретных случайных переменных. Случайная переменная — это любая переменная, значение которой не может быть точно предсказано. Дискретной называется случайная величина, имеющая определенный набор возможных значений. Пример — сумма выпавших очков при бросании двух игральных костей. Пример случайной величины, не являющейся дискретной, — температура в комнате. Она может принять любое из непрерывного диапазона значений и является примером непрерывной случайной величины. К рассмотрению таких величин в этом обзоре мы перейдем позже.

Продолжая разговор о примере с двумя игральными костями, предположим, что одна из них зеленая, а другая — красная. Если их бросить, то возможны 36 элементарных исходов эксперимента, поскольку на зеленой кости может выпасть любое число от 1 до 6 и то же самое — на красной. Случайная переменная, определенная как их сумма, которую мы обозначим через х, может принимать только одно из II числовых значений — от 2 до 12. Взаимосвязь между исходами эксперимента и значениями случайной величины в данном случае показана на рис. О.1.

Предположив, что кости «правильные», мы можем воспользоваться рис. O.l для определения вероятности каждого значения х. Поскольку на костях имеется 36 различных комбинаций, каждый исход имеет вероятность 1/36. Лишь одна из возможных комбинаций {зеленая = 1, красная = 1} дает сумму, равную 2, так что вероятность х = 2 равна 1/36. Чтобы получить сумму х = 7, нам потребуются сочетания {зеленая = 1, красная = 6}, либо {зеленая = 2, красная = 5}, либо {зеленая = 3, красная = 4}, либо {зеленая = 4, красная = 3}, либо {зеленая = 5, красная = 2}, либо {зеленая = 6, красная = 1}. В данном случае нас устроят 6- возможных исходов, и поэтому вероятность получения 7 равна 6/36. Все эти вероятности приведены в табл. 0.1. Если все их сложить, то получится ровно 1. Это будет так, поскольку с вероятностью 100\% рассматриваемая сумма примет одно из значений от 2 до 12.

Совокупность всех возможных значений случайной переменной описывается генеральной совокупностью, из которой извлекаются эти значения. В нашем случае генеральная совокупность — это набор чисел от 2 до 12.

 

Таблица 0.1

Значения х

2

3

4

5       6 7

8

9

10

11

12

Вероятность

1/36

2/36

3/36

4/36   5/36 6/36

5/36

4/36

3/36

2/36

1/36

Упражнение

ОЛ. Случайная переменная х определяется как разность между большим и меньшим числами, выпавшими при бросании двух костей. Если они равны между собой, то переменная х считается равной нулю. Найдите распределение вероятностей для х.

 

Математическое ожидание дискретной случайной величины

Математическое ожидание дискретной случайной величины — это взвешенное среднее всех ее возможных значений, причем в качестве весового коэффициента берется вероятность соответствующего исхода. Вы можете рассчитать его, перемножив все возможные значения случайной величины на их вероятности и просуммировав полученные произведения. Математически если случайная величина обозначена какх, то ее математическое ожидание обозначается какіГ(;с).

Предположим, что х может принимать п конкретных значений (х{, х2,..., хп) и что вероятность получения xf равна рг Тогда

п

E(x) = xlpl+x2p2+...+xnpn=y£xipi. (0.1)

/=і

(Читатели, желающие освежить в памяти использование обозначений £, могут сделать это с помощью приложения ОЛ.)

В случае с двумя костями величинами отх( лохп были числа от 2 до 12:^ = 2, х2 = 3,..., х[{ = 12 ир{ = 1/36, р2 = 2/36, ... , рИ = 1/36. Математическое ожидание рассчитывается так:

 

Если вычислить эту величину, то получится 7.

Прежде чем пойти дальше, рассмотрим еще более простой пример случайной переменной — число очков, выпадающее при бросании лишь одной игральной кости.

В данном случае возможны шесть исходов: х, = 1, х2 = 2, х3= 3, хА = 4, х5= 5, х6=6. Каждый исход имеет вероятность 1/6, поэтому здесь

 

Е(х) = ^х,р; =1х| + 2х| + 3х| + 4х| + 5х| +6х| = 3,5. (Q.2) /=1

В данном случае математическим ожиданием случайной переменной является число, которое само по себе не может быть получено при бросании кости.

Математическое ожидание случайной величины часто называют ее средним по генеральной совокупности. Для случайной величины х это значение часто обозначается как їх.

Упражнение

 

0.2. Найдите математическое ожидание случайной величины х в упражнении 0.1.

 

Математические ожидания функций дискретных случайных переменных

Пусть#(х) — некоторая функция отх Тогда Е{g(x)} — математическое ожидание g(x) записывается как

= ! *(*/)/>/, (0.3)

где суммирование производится по всем возможным значениям х, В табл. 0.2 показана последовательность практического расчета математического ожидания функции от х.

Предположим, что х может принимать п различных значений от х{ до хп с соответствующими вероятностями от р{ до рп. В первой колонке записываются все возможные значения х. Во второй — записываются соответствующие вероятности. В третьей колонке рассчитываются значения функции для соответствующих величин jc. В четвертой колонке перемножаются числа из колонок 2 и 3. Ответ приводится в суммирующей строке колонки 4.

 

Пример

Каково математическое ожидание величины х2? Разумно ли предположить, что она равняется ц2?

Рассмотрим пример с числами, выпадающими при бросании одной кости. Использовав схему, приведенную в табл. 0.2, заполним табл. 0.3.

В четвертой ее колонке даны шесть значений х2, взвешенных по соответствующим вероятностям, которые в данном примере все равняются 'Д. (С вероятностью Уб величина х2 будет равна единице, поскольку это произойдет при х= 1, что имеет место в одном случае из шести, с вероятностью 'Д значение Xі равняется 4, так как это произойдет при х=2,ит. д.). По определению, величина Е(х2) равна Хх,2/?,, она приведена как сумма в четвертой колонке и равна 15,167.

Математическое ожидание*, как уже было показано, равно 3,5, и 3,5 в квадрате равно 12,25. Таким образом, величина Е(х2) не равна ц2, и, следовательно, нужно аккуратно проводить различия между Е(х2) и {£(х)}2 (последнее равно произведению Е(х) на £(х), то есть jli2).

 

Упражнения

 

О.З. Пустьх — случайная переменная с математическим ожиданием ji, и А, — константа. Докажите, что математическое ожидание Ах равно Хц.

О.4. Рассчитайте Е(х2) для величины х, определенной, как в упражнении О.1.

 

Правила расчета математического ожидания

Существуют три правила, которые далее будут использоваться много раз. Эти правила практически самоочевидны, и они одинаково применимы для дискретных и непрерывных случайных переменных.

Правило L Математическое ожидание суммы нескольких переменных равно сумме их математических ожиданий. Например, если имеются три случайные переменные (х, у и z), то

 

Е(х + у + z) = Е(х) + Е(у) + E(z).

(0.4)

Правило 2. Если случайная переменная умножается на константу, то ее математическое ожидание умножается на ту же константу. Если х — случайная переменная и а — константа, то

Е(ах) = аЕ(х). (0.5)

Правило 3. Математическое ожидание константы есть она сама. Например, если а — константа, то

Е(а) = а. (0.6)

Правило 2 уже доказано в упражнении О.З. Правило J тривиально, поскольку оно следует из определения константы. Хотя доказательство правила 1 довольно простое, мы его опустим.

Объединяя три правила вместе, можно упростить и более сложные выражения. Например, предположим, что вы хотите рассчитать Е(у), где

у = а + Ьх,       (0.7)

где а и b — константы. Следовательно,

Е(у) = Е(а + Ьх) =

= Е(а) + Е(Ьх), согласно правилу 7,

= а + ЬЕ(х), согласно правилам 2 и 3.         (0.8)

Таким образом, вместо непосредственного вычисления Е{у) можно рассчитать Е(х) и получить Е(у) из уравнения 0.8.

 

Упражнение

 

0.5. Пусть х — число очков, выпавшее при однократном бросании игральной кости. Рассчитайте возможные значения у, где у получается по формуле у = х2 + Зх — 2, и, далее, рассчитайте Е(у). Покажите, что она равняется £(х2) + 3£(х)-2.

 

Независимость случайных переменных

 

Две случайные переменные х и у называются независимыми, если E{f(x)g (у)} равняется Ef{x)}E{g{y)} для любых функций f{x) и g(y). Из независимости следует как важный частный случай, что Е(ху) равно Е(х)Е(у).

 

Теоретическая дисперсия дискретной случайной переменной

В этой книге нас будет интересовать одна из функций переменной х, ее теоретическая дисперсия, являющаяся полезной мерой разброса для вероятностного распределения. Она определяется как математическое ожидание квадрата разности между величиной х и ее средним, т. е. величины (х - і)2, где [і — математическое ожидание х. Дисперсия обычно обозначается как о2, и если ясно, о какой переменной идет речь, то нижний индекс может быть опущен. Мы иногда будем обозначать дисперсию как pop. var (х):

о 2 = pop.var(x) = Е{(х - ц)2} =

п

= £(*/ -Ц)2Л = (*i -Ю2л +...+ (*„ -v)2Pn- (0.9)

 

Из а2 можно получить сх — теоретическое стандартное отклонение — столь же распространенную меру разброса для распределения вероятностей; стандартное отклонение случайной переменной есть квадратный корень из ее дисперсии.

Мы проиллюстрируем расчет дисперсии на примере с одной игральной костью. Поскольку |i = Е(х) = 3,5, то (х — ц)2 в этом случае равно (х — 3,5)2. Мы рассчитаем математическое ожидание величины (х-3,5)2, используя схему, представленную в табл. 0.2. Дополнительный столбец (х — i) представляет определенный этап расчета (х —ц)2. Суммируя последний столбец в табл. 0.4, получим значение дисперсии а2, равное 2,92. Следовательно, стандартное отклонение (а), равно ^/2,92, то есть 1,71.

Одним из важных приложений правил расчета математического ожидания является формула расчета теоретической дисперсии случайной переменной, которая может быть записана как

о2 = Е(х2)-х2.            (0.10)

Это выражение иногда оказывается более удобным, чем первоначальное определение. Доказательство дает хороший пример использования упомянутых правил, но при первом чтении вы можете, если хотите, его пропустить. По этому определению,

а2 = Е{(х- ц)2} = Е{(х2 - 2iix+ ц2) =

= Е(х2) + Е(-2хх) + Е(і2), согласно правилу 7,

= Е (х2) - 2|л£ (х) + ц2,       согласно правилам 2 и J

и тому факту, что — 2ц и ц2 — константы,

= Е (х2) - 2ц2 + ц2,    поскольку величины Е (х)

и ц идентичны,

= E(x2)-[i2.     (0.11)

Таким образом, если вы хотите вычислить теоретическую дисперсию для х, то можете рассчитать математическое ожидание величины х2 и вычесть из него |i2.

 

Упражнение

0.6. Рассчитайте теоретическую дисперсию и стандартное отклонение величины х, определенной, как в упражнении 0.1, использовав определение, заданное уравнением (0.9).

0.7. Использовав уравнение (0.10), найдите дисперсию случайной переменной х, определенной в упражнении 0.1, и покажите, что результат получается тем же, что и в упражнении 0.6. (Это займет совсем немного времени, потому что вы уже рассчитали (і в упражнении 0.2 и Е(х2) в упражнении 0.4.)

 

Вероятность в непрерывном случае

С дискретными случайными переменными очень легко обращаться, поскольку они по определению принимают значения из некоторого конечного набора. Каждое из этих значений связано с определенной вероятностью, характеризующей его «вес». Если эти «веса» известны, то не составит труда рассчитать теоретическое среднее (математическое ожидание) и дисперсию.

Вы можете представить указанные «веса» как определенные количества «пластичной массы», равные вероятностям соответствующих значений. Сумма вероятностей и, следовательно, суммарный «вес» этой «массы» равен единице. Это показано на рис. 0.2 для примера, где величинах есть сумма очков, выпавших при бросании двух игральных костей. Величина х принимает значения от 2 до 12, и для всех этих значений показано количество соответствующей «массы».

К сожалению, анализ в нашей книге проводится обычно для непрерывных случайных величин, которые могут принимать бесконечное число значений. Поскольку невозможно представить себе «пластичную массу», разделенную на бесконечное число частей, используем далее другой подход.

Проиллюстрируем наши рассуждения на примере температуры в комнате. Для определенности предположим, что она меняется в пределах от 55 до 75° по Фаренгейту, и вначале допустим, что все значения в этом диапазоне равновероятны.

Величины вероятности

 

36

 

361

4

т

 

36

5_ 36 36

3^ 36

I j 2_

І 36

 

ставленной заштрихованной фигурой на рис. 0.4. Основание заштрихованного прямоугольника равно 5, его высота равна 0,05 и, соответственно, площадь — 0,25. Искомая вероятность равначто в любом случае очевидно, поскольку промежуток от 65 до 70°F составляет х/а всего диапазона.

Высота заштрихованной площади представляет то, что формально называется плотностью вероятности* этой точке, и если эта высота может быть записана как функция значений случайной переменной, то эта функция называется функцией плотности вероятности. В нашем примере она записывается как/(х), где х — температура, и

/(*) = 0,05;     55 < л: £75 (0.13)

[Дх) = 0для х<55или х>75].

В качестве первого приближения функция плотности вероятности показывает вероятность нахождения случайной переменной внутри единичного интервала вокруг данной точки. В нашем примере эта функция всюду равна 0,05, откуда вытекает, что температура находится, например, между 60 и 61Т с вероятностью 0,05.

В нашем случае график функции плотности вероятности горизонтален, и ее указанная интерпретация точна, однако в общем случае эта функция непрерывно меняется, и ее интерпретация дает лишь приближение. Далее мы рассмотрим пример, когда эта функция непостоянна, поскольку не все температуры равновероятны. Предположим, что центральное отопление работает таким образом, что температура никогда не падает ниже 65eF, а в жаркие дни температура превосходит этот уровень, не превышая, как и ранее, 75°F. Мы будем считать, что плотность вероятности максимальна при температуре 65°F и далее она равномерно убывает до нуля при 75°F.

Общая «замазанная» площадь, как всегда, равна единице, поскольку совокупная вероятность равна единице. Площадь треугольника равна половине произведения основания на высоту, поэтому получаем:

І х ю х Высота = 1,    (0.14)

и высота при 65Т равна 0,20.

Предположим вновь, что мы хотим знать вероятность нахождения температуры в промежутке между 65 и 70°F. Она представлена заштрихованной площадью на рис. 0.6, и если вы немного помните геометрию, то сможете проверить, что она равна 0,75. Если вы предпочитаете процентное измерение, то

Высота (плотность вероятности)

 

 

і—

!

і           

55 60 65 70 75    Температура, F Рис. 0.4

Плотность вероятности

 

0,20 • 0,15 -0,10 ■ 0,05 •

65      70      75     Температура, F Рис. 0.5

это означает, что с вероятностью 75\% температура попадет в диапазон 65— 70Т и только с вероятностью 25\% — в диапазон 70-75Т.

В данном случае функция плотности вероятности записывается как/(х), где

f(x) = 1,5 — 0,02х;       65 йх< 75.    (0.15)

(Вы можете проверить, что эта функция равна 0,20 при 65°F и нулю при 75°F.)

Прежде чем продолжить изложение, упомянем о хорошей и плохой новостях. «Плохая новость» — это то, что если вы хотите рассчитать вероятности для более сложных функций с криволинейными графиками, то элементарная геометрия становится неприменимой. Вообще говоря, вы должны воспользоваться интегральным исчислением или специальными таблицами (если последние существуют). Интегральное исчисление используется также и при определении математического ожидания и дисперсии непрерывной случайной величины.

«Хорошая новость» — в том, что специальные таблицы существуют для всех функций, которые будут интересовать нас на практике. Кроме того, математическое ожидание и дисперсия имеют практически тот же смысл для непрерывных случайных величин, что и для дискретных (формальные определения можно найти в приложении 0.2), и для них верны те же самые правила.

 

Страница: | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 | 18 | 19 | 20 | 21 | 22 | 23 | 24 | 25 | 26 | 27 | 28 | 29 | 30 | 31 | 32 | 33 | 34 | 35 | 36 | 37 | 38 | 39 | 40 | 41 | 42 | 43 | 44 | 45 | 46 | 47 | 48 | 49 | 50 | 51 | 52 | 53 | 54 | 55 | 56 | 57 | 58 | 59 | 60 | 61 | 62 | 63 | 64 | 65 | 66 | 67 | 68 | 69 | 70 | 71 | 72 | 73 | 74 | 75 | 76 | 77 | 78 | 79 | 80 | 81 | 82 | 83 | 84 | 85 | 86 | 87 | 88 | 89 | 90 | 91 | 92 | 93 | 94 | 95 | 96 | 97 | 98 | 99 | 100 | 101 | 102 | 103 | 104 |