Будь умным!


У вас вопросы?
У нас ответы:) SamZan.ru

Случайные события и действия над ними.html

Работа добавлена на сайт samzan.ru: 2016-01-17


1.Случайные события и действия над ними. Виды случайных событий. Комбинации событий Пространство элементарных событий.

В различных разделах науки и техники нередко возникают ситуации, когда результат каждого из многих проводимых опытов заранее предугадать невозможно, однако можно исследовать закономерности, возникающие при проведении серии опытов. Нельзя, напри-мер, точно сказать, какая сторона монеты окажется сверху при данном броске: герб или цифра – но при большом количестве бросков число выпадений герба приближается к по-ловине количества бросков; нельзя заранее предсказать результат одного выстрела из дан-ного орудия по данной цели, но при большом числе выстрелов частота попадания прибли-жается к некоторому постоянному числу. Исследование вероятностных закономерностей массовых однородных явлений составляет предмет теории вероятностей.

  Основным интуитивным понятием классической теории вероятностей является случайное событие. События, которые могут произойти в результате опыта, можно подразделить на три вида:

а) достоверное событие – событие, которое всегда происходит при проведении опыта;

б) невозможное событие – событие, которое в результате опыта произойти не может;

в) случайное событие – событие, которое может либо произойти, либо не произойти. Например, при броске игральной кости достоверным событием является выпадение числа очков, не превышающего 6, невозможным – выпадение 10 очков, а случайным – выпадение 3 очков.

 Алгебра событий.

 1. Суммой А+В двух событий А и В называют событие, состоящее в том, что произошло хотя бы одно из событий А и В. Суммой нескольких событий, соответ-ственно, называется событие, заключающееся в том, что произошло хотя бы одно из этих событий.

Назовем все возможные результаты данного опыта его исходами и предположим, что множество этих исходов, при которых происходит событие А (исходов, благоприятных событию А), можно представить в виде некоторой области на плоскости. Тогда множество исходов, при которых произойдет событие А+В, является объединением множеств исходов, благоприятных событиям А или В (рис. 1).

2. Произведением АВ событий А и В называется событие, состоящее в том, что произошло и событие А, и событие В. Аналогично произведением нескольких событий называется событие, заключающееся в том, что произошли все эти события.

Геометрической иллюстрацией множества исходов опыта, благоприятных появлению произведения событий А и В, является пересечение областей, соответствующих исходам, благоприятным А и В.

3. Разностью А\B событий А и В называется событие, состоящее в том, что А произошло, а В – нет.

Введем еще несколько категорий событий.                                                

4. События А и В называются совместными, если они могут произойти оба в результате одного опыта. В противном случае (то есть если они не могут произойти одновременно) события называются несовместными.

Замечание 1. Если изобразить графически области исходов опыта, благоприятных несовместным событиям, то они не будут иметь общих точек.

Замечание 2. Из определения несовместных событий следует, что их произведение является невозможным событием.

5. Говорят, что события А1, А2,…,Ап образуют полную группу, если в результате опыта обязательно произойдет хотя бы одно из событий этой группы.

Замечание. В частности, если события, образующие полную группу, попарно несовмест-ны, то в результате опыта произойдет одно и только одно из них. Такие события называют элементарными событиями.

6. События называются равновозможными, если нет оснований считать, что одно из них является более возможным, чем другое.

2.Основные формулы комбинаторики. Вероятность событий. Свойства Вероятностей. Геометрические  вероятности.

При вычислении вероятностей часто приходится использовать некоторые формулы комбинаторики – науки, изучающей комбинации, которые можно составить по определенным правилам из элементов некоторого конечного множества. Определим основные такие комбинации.

1. Перестановки – это комбинации, составленные из всех п элементов данного множества и отличающиеся только порядком их расположения. Число всех возможных перестановок            Рп = п!                                                      

2.Размещения – комбинации из т элементов множества, содержащего п различных элементов, отличающиеся либо составом элементов, либо их порядком. Число всех возможных размещений

                                   

3.Сочетания – неупорядоченные наборы из т элементов множества, содержащего п различных элементов (то есть наборы, отличающиеся только составом элементов). Число сочетаний

                                                             

Вероятность событий

При изучении случайных событий возникает необходимость количественно сравнивать возможность их появления в результате опыта. Например, при последовательном извлечении из колоды пяти карт более возможна ситуация, когда появились карты разных мастей, чем появление пяти карт одной масти; при десяти бросках монеты более возможно чередование гербов и цифр, нежели выпадение подряд десяти гербов, и т.д. Поэтому с каждым таким событием связывают по определенному правилу некоторое число, которое тем больше, чем более возможно событие. Это число называется вероятностью события и является вторым основным понятием теории вероятностей.

Отметим, что само понятие вероятности, как и понятие случайного события, является аксиоматическим и поэтому не поддается строгому определению. То, что в дальнейшем будет называться различными определениями вероятности, представляет собой способы вычисления этой величины.

Если все события, которые могут произойти в результате данного опыта,

а) попарно несовместны;

б) равновозможны;

в) образуют полную группу,

то говорят, что имеет место схема случаев. 

Можно считать, что случаи представляют собой все множество исходов опыта. Пусть их число равно п ( число возможных исходов), а при т из них происходит некоторое событие А (число благоприятных исходов).

Вероятностью события А называется отношение числа исходов опыта, благоприятных этому событию, к числу возможных исходов:

- классическое определение вероятности.

Свойства вероятности.

Из определения 1.8 вытекают следующие свойства вероятности:

1. Вероятность достоверного события равна единице.

Доказательство. Так как достоверное событие всегда происходит в результате опыта, то все исходы этого опыта являются для него благоприятными, то есть т = п, следовательно,

Р(А) = 1.

2. Вероятность невозможного события равна нулю.

Доказательство. Для невозможного события ни один исход опыта не является благопри-ятным, поэтому т = 0 и р(А) = 0.

3. Вероятность случайного события есть положительное число, заключенное между нулем и единицей.

Доказательство. Случайное событие происходит при некоторых исходах опыта, но не при всех, следовательно,  0 < m < n, и из (1.1) следует, что  0 < p(A) < 1.

Геометрическая вероятность

Одним из недостатков классического определения вероятности является то, что оно неприменимо к испытаниям с бесконечным количеством исходов. В таких случаях можно воспользоваться понятием геометрической вероятности.

Пусть на отрезок L наудачу брошена точка. Это означает, что точка обязательно попадет на отрезок L и с равной возможностью может совпасть с любой точкой этого отрезка. При этом вероятность попадания точки на любую часть отрезка L не зависит от расположения этой части на отрезке и пропорциональна его длине. Тогда вероятность того, что брошен-ная точка попадет на отрезок l, являющийся частью отрезка L, вычисляется по формуле:

     (2.1)

где l – длина отрезка l, а L – длина отрезка L.Можно дать аналогичную постановку задачи для точки, брошенной на плоскую область  S и вероятности того, что она попадет на часть этой области s:

    (2.1`)

где sплощадь части области, а S – площадь всей области.

В трехмерном случае вероятность того, что точка, случайным образом расположенная в теле V, попадет в его часть v, задается формулой:

    (2.1``)

где v – объем части тела, а V – объем всего тела.

3.Теоремы теории вероятностей. Теорема сложения вероятностей несовместимых событий. Полная группа событий. Противоположные события.

Теорема1. (теорема сложения).  Вероятность р(А + В) суммы событий А и В равна

Р (А + В ) = р (А) + р (В) – р (АВ).        (2.2)

Доказательство.

Докажем теорему сложения для схемы случаев. Пусть п – число возможных исходов опыта, тА – число исходов, благоприятных событию А, тВчисло исходов, благопри-ятных событию В, а тАВчисло исходов опыта, при которых происходят оба события (то есть исходов, благоприятных произведению АВ). Тогда число исходов, при которых имеет место событие А + В, равно тА + тВ – тАВ (так как в сумме (тА + тВ)  тАВ  учтено дважды: как исходы, благоприятные А, и исходы, благоприятные В). Следовательно, вероятность суммы можно определить по формуле (1.1):

             

что и требовалось доказать.

Теорему1 можно распространить на случай суммы любого числа событий. Например, для суммы трех событий А, В и С 

 Р(А + В + С) = р(А) + р(В) + р(С) – р(АВ) – р(АС) – р(ВС) + р(АВС)                    

Теорема 2. Сумма вероятностей противоположных событий равна 1:

р(А) + р() = 1.                                                                Доказательство.

Так как А и  образуют полную группу, то одно из них обязательно произойдет в результате опыта, то есть событие А + является достоверным. Следовательно,

Р( А +) = 1. Но, так как А и несовместны, из (2.4) следует, что Р(А +) = р(А) + р(). Значит,  р(А) + р() = 1, что и требовалось доказать.

Замечание. В ряде задач проще искать не вероятность заданного события, а вероятность события, противоположного ему, а затем найти требуемую вероятность по формуле (2.5).

Теорема сложения если 2 события не совместимы

Следствие 2. Если события А и В несовместны, то тАВ = 0, и, следовательно, вероятность суммы несовместных событий равна сумме их вероятностей:      Р(А + В) = р(А) + р(В).     

Противоположными событиями называют два несовместных события, образующих полную группу. Если одно из них назвать А, то второе принято обозначать .

Замечание. Таким образом,  заключается в том, что событие А не произошло.

 

4. Теорема умножения вероятностей. Теорема умножения для независимых событий. Вероятность появления хотя бы одного события.

Назовем условной вероятностью р(В/А) события В вероятность события В при условии, что событие А произошло.

Замечание. Понятие условной вероятности используется в основном в случаях, когда осуществление события А изменяет вероятность события В.

(теорема умножения). Вероятность произведения двух событий равна произведению вероятности одного из них на условную вероятность другого при условии, что первое событие произошло:

р (АВ) = р (А) · р (В/А).   (2.6)

Доказательство.

Воспользуемся обозначениями теоремы 2.1. Тогда для вычисления р(В/А) множеством возможных исходов нужно считать тА (так как А произошло), а множеством благоприятных исходов – те, при которых произошли и А, и В ( тАВ ). Следовательно,

 

откуда следует утверждение теоремы.

Следствие. Если подобным образом вычислить вероятность события ВА, совпадающего с событием АВ, то получим, что р (ВА) = р (В) · р (А/В). Следовательно,

р (А) · р (В/А) = р (В) · р (А/В).                   (2.7)

Событие В называется независимым от события А, если появление события А не изменяет вероятности В, то есть  р (В/А) = р (В).

Замечание. Если событие В не зависит от А, то и А не зависит от В. Действительно, из (2.7) следует при этом, что  р (А) · р (В) = р (В) · р (А/В), откуда р (А/В) = р (А). Значит, свойство независимости событий взаимно.

Теорема умножения для независимых событий имеет вид:

р (АВ) = р (А) · р (В) ,                                                                        

то есть вероятность произведения независимых событий равна произведению их вероят-ностей.

При решении задач теоремы сложения и умножения обычно применяются вместе.

 Вероятность появления хотя бы одного события.

Теорема.Вероятность появления хотя бы одного из попарно независимых событий

А1, А2,…, Ап равна            р (А) = 1 – q1q2qn ,         (2.9)

где qiвероятность события , противоположного событию Аi .

Доказательство.

Если событие А заключается в появлении хотя бы одного события из А1, А2,…, Ап, то события А и  противоположны, поэтому по теореме 2.2 сумма их вероятностей равна 1. Кроме того, поскольку А1, А2,…, Ап независимы, то независимы и , следовательно, р() = . Отсюда следует справедливость формулы (2.9).

5. Формула полной вероятности. Вероятность гипотез. Формула Бейеса.

Пусть событие А может произойти только совместно с одним из событий Н1, Н2,…, Нп, образующих полную группу несовместных событий. Тогда события Н1, Н2,…, Нп называются гипотезами.

Теорема . Вероятность события А, наступающего совместно с гипотезами Н1, Н2,…, Нп, равна:

       (3.1)

где p(Hi) – вероятность  i- й гипотезы, а p(A/Hi) – вероятность события А при условии реализации этой гипотезы. Формула (3.1) носит название формулы полной вероятности.

Доказательство.

Можно считать событие А суммой попарно несовместных событий АН1, АН2,…, АНп. Тогда из теорем сложения и умножения следует, что

что и требовалось доказать.

Формула Байеса (теорема гипотез)

Пусть известен результат опыта, а именно то, что произошло событие А. Этот факт может изменить априорные (то есть известные до опыта) вероятности гипотез. Например, в предыдущем примере извлечение из урны белого шара говорит о том, что этой урной не могла быть третья, в которой нет белых шаров, то есть р (Н3/А) = 0. Для переоценки вероятностей гипотез при известном результате опыта используется формула Байеса:

    (3.2)

Действительно, из (2.7) получим, что   откуда следует справедливость формулы (3.2).                                                       

6. Повторное испытание. Формула Бернулли.

Рассмотрим серию из п испытаний, в каждом из которых событие А появляется с одной и той же вероятностью р, причем результат каждого испытания не зависит от результатов остальных. Подобная постановка задачи называется схемой повторения испытаний. Найдем вероятность того, что в такой серии событие А произойдет ровно к раз (неважно, в какой последовательности). Интересующее нас событие представляет собой сумму равно-вероятных несовместных событий, заключающихся в том, что А произошло в некоторых к испытаниях и не произошло в остальных  п – к испытаниях. Число таких событий равно числу сочетаний из п по к, то есть , а вероятность каждого из них: pkqn-k, где q = 1 – p – вероятность того, что в данном опыте А не произошло. Применяя теорему сложения для несовместных событий, получим формулу Бернулли:

                                               .                                               

Приближение Пуассона для схемы Бернулли.

Формула Бернулли требует громоздких расчетов при большом количестве испытаний. Можно получить более удобную для расчетов приближенную формулу, если при большом числе испытаний вероятность появления А в одном опыте мала, а произведение пр = λ сохраняет постоянное значение для разных серий опытов ( то есть среднее число появле-ний события А в разных сериях испытаний остается неизменным). Применим формулу Бернулли:

 

Найдем предел полученного выражения при

Таким образом, формула Пуассона

                                                      

позволяет найти вероятность к появлений события А для массовых (п велико) и редких     (р мало) событий.

7. Дискретные случайные величины и их характеристика. Закон распределения вероятностей ДСВ. Математическое ожидание ДСВ. Свойства математического ожидания.

Наряду с понятием случайного события в теории вероятности используется и более удобное понятие случайной величины.

Случайной величиной называется величина, принимающая в результате опыта одно из своих возможных значений, причем заранее неизвестно, какое именно.

Будем обозначать случайные величины заглавными буквами латинского алфавита (Х, Y,Z,…), а их возможные значения – соответствующими малыми буквами (xi, yi,…).

Примеры: число очков, выпавших при броске игральной кости; число появлений герба при 10 бросках монеты; число выстрелов до первого попадания в цель; расстояние от центра мишени до пробоины при попадании.

Можно заметить, что множество возможных значений для перечисленных случайных величин имеет разный вид: для первых двух величин оно конечно ( соответственно 6 и 11 значений), для третьей величины множество значений бесконечно и представляет собой множество натуральных чисел, а для четвертой – все точки отрезка, длина которого равна радиусу мишени. Таким образом, для первых трех величин множество значений из отдельных (дискретных), изолированных друг от друга значений, а для четвертой оно представляет собой непрерывную область. По этому показателю случайные величины подразделяются на две группы: дискретные и непрерывные.

Случайная величина называется дискретной, если она принимает отдельные, изолированные возможные значения с определенными вероятностями.

Случайная величина называется непрерывной, если множество ее возможных значений целиком заполняет некоторый конечный или бесконечный промежуток.

Дискретные случайные величины.

Для задания дискретной случайной величины нужно знать ее возможные значения и вероятности, с которыми принимаются эти значения. Соответствие между ними называется законом распределения случайной величины. Он может иметь вид таблицы, формулы или графика.

Таблица, в которой перечислены возможные значения дискретной случайной величины и соответствующие им вероятности, называется рядом распределения:

       xi

         x1

         x2

       …

      xn

       …

       pi  

         p1

         p2

       …

      pn 

       …

Заметим, что событие, заключающееся в том, что случайная величина примет одно из своих возможных значений, является достоверным, поэтому

Графически закон распределения дискретной случайной величины можно представить в виде многоугольника распределения – ломаной, соединяющей точки плоскости с координатами (xi, pi).

      x1    x2   x3    x4    x5

 Математическим ожиданием дискретной случайной величины называ-ется сумма произведений ее возможных значений на соответствующие им вероятности:

 М(Х) = х1р1 + х2р2 + … + хпрп .              (7.1)

Если число возможных значений случайной величины бесконечно, то , если полученный ряд сходится абсолютно.

Замечание 1. Математическое ожидание называют иногда взвешенным средним, так как оно приближенно равно среднему арифметическому наблюдаемых значений случайной величины при большом числе опытов.

Замечание 2. Из определения математического ожидания следует, что его значение не меньше наименьшего возможного значения случайной величины и не больше наибольше-го.

Замечание 3. Математическое ожидание дискретной случайной величины есть неслучай-ная (постоянная) величина. В дальнейшем увидим, что это же справедливо и для непре-рывных случайных величин.

Свойства математического ожидания.

1)Математическое ожидание постоянной равно самой постоянной:

М(С) = С.        (7.2)

Доказательство. Если рассматривать С как дискретную случайную величину, принимающую только одно значение С с вероятностью р = 1, то М(С) = С·1 = С.

2)Постоянный множитель можно выносит за знак математического ожидания:

М(СХ) = С М(Х).           (7.3)

Доказательство. Если случайная величина Х задана рядом распределения

       xi

         x1

         x2

       …

      xn

       pi  

         p1

         p2

       …

      pn 

то ряд распределения для СХ имеет вид:

    Сxi

         Сx1

         Сx2

       …

      Сxn

       pi  

         p1

         p2

       …

      pn 

Тогда М(СХ) = Сх1р1 + Сх2р2 + … + Схпрп = С( х1р1 + х2р2 + … + хпрп) = СМ(Х).

Две случайные величины называются независимыми, если закон распределения одной из них не зависит от того, какие значения приняла другая. В противном случае случайные величины зависимы.

Назовем произведением независимых случайных величин Х и Y случайную величину XY, возможные значения которой равны произведениям всех возможных значений Х на все возможные значения Y, а соответствующие им вероят-ности равны произведениям вероятностей сомножителей.

  1.  Математическое ожидание произведения двух независимых случайных величин равно произведению их математических ожиданий:

M(XY) = M(X)M(Y).   (7.4)

Доказательство. Для упрощения вычислений ограничимся случаем, когда Х и Y  принимают только по два возможных значения:

       xi

         x1

         x2

         pi  

         p1

         p2

       уi

         у1

         у2

       gi  

         g1

         g2

Тогда ряд распределения для XY  выглядит так:

       ХY

         x1y1

         x2y1

      x1y2

      x2y2

       p 

         p1g1

         p2 g1

      p1g2

      p2g2

Следовательно, M(XY) = x1y1·p1g1 + x2y1·p2g1 + x1y2·p1g2 + x2y2·p2g2 = y1g1(x1p1 + x2p2) +   + y2g2(x1p1 + x2p2) = (y1g1 + y2g2) (x1p1 + x2p2) = M(XM(Y).

Замечание 1. Аналогично можно доказать это свойство для большего количества возможных значений сомножителей.

Замечание 2. Свойство 3 справедливо для произведения любого числа независимых случайных величин, что доказывается  методом математической индукции.

Определим сумму случайных величин Х и Y как случайную величину Х + Y, возможные значения которой равны суммам каждого возможного значения Х с каждым возможным значением Y; вероятности таких сумм равны произведениям вероятностей слагаемых (для зависимых случайных величин – произведениям вероятности одного слагаемого на условную вероятность второго).

4) Математическое ожидание суммы двух случайных величин ( зависимых или незави-симых ) равно сумме математических ожиданий слагаемых:

M (X + Y) = M (X) + M (Y).   (7.5)

Доказательство.

Вновь рассмотрим случайные величины, заданные рядами распределения, приведен-ными при доказательстве свойства 3. Тогда возможными значениями X + Y  являются х1 + у1, х1 + у2, х2 + у1, х2 + у2. Обозначим их вероятности соответственно как р11, р12, р21 и р22. Найдем М( Х +Y ) = (x1 + y1)p11 + (x1 + y2)p12 + (x2 + y1)p21 + (x2 + y2)p22 =

= x1(p11 + p12) + x2(p21 + p22) + y1(p11 + p21) + y2(p12 + p22).

Докажем, что р11 + р22 = р1. Действительно, событие, состоящее в том, что X + Y примет значения х1 + у1 или х1 + у2 и вероятность которого равна  р11 + р22, совпадает с событием, заключающемся в том, что Х = х1 (его вероятность – р1). Аналогично дока-зывается, что p21 + p22 = р2, p11 + p21 = g1, p12 + p22 = g2. Значит,

 M(X + Y) = x1p1 + x2p2 + y1g1 + y2g2 = M (X) + M (Y).

Замечание. Из свойства 4 следует, что сумма любого числа случайных величин равна сумме математических ожиданий слагаемых.

8.Отклонение случайной величины от ее математического ожидания. Дисперсия ДСВ. Свойства дисперсии.

Для того, чтобы иметь представление о поведении случайной величины, недостаточно знать только ее математическое ожидание. Рассмотрим две случайные величины: Х и Y, заданные рядами распределения вида

      Х

49

50

51

       р

0,1

0,8

0,1

    Y

0

100

    p

0,5

0,5

Найдем М(Х) = 49·0,1 + 50·0,8 + 51·0,1 = 50, М(Y) = 0·0,5 + 100·0,5 = 50. Как видно, мате-матические ожидания обеих величин равны, но если для Х  М(Х) хорошо описывает пове-дение случайной величины, являясь ее наиболее вероятным возможным значением (при-чем остальные значения ненамного отличаются от 50), то значения Y  существенно отсто-ят от М(Y). Следовательно, наряду с математическим ожиданием желательно знать, на-сколько значения случайной величины отклоняются от него. Для характеристики этого показателя  служит дисперсия.

Дисперсией (рассеянием) случайной величины называется математи-ческое ожидание квадрата ее отклонения от ее математического ожидания:

D(X) = M (XM(X))².                                                

Замечание 1. В определении дисперсии оценивается не само отклонение от среднего, а его квадрат. Это сделано для того, чтобы отклонения разных знаков не компенсировали друг друга.

Замечание 2. Из определения дисперсии следует, что эта величина принимает только неотрицательные значения.

Замечание 3. Существует более удобная для расчетов формула для вычисления дисперсии, справедливость которой доказывается в следующей теореме:

Теорема D(X) = M(X ²) – M ²(X).                                                                 Доказательство.

Используя то, что М(Х) – постоянная величина, и свойства математического ожидания, преобразуем формулу (7.6) к виду:

  D(X) = M(XM(X))² = M(X² - 2X·M(X) + M²(X)) = M(X²) – 2M(XM(X) + M²(X) =

= M(X²) – 2M²(X) + M²(X) = M(X²) – M²(X), что и требовалось доказать.

Свойства дисперсии.

  1.  Дисперсия постоянной величины С равна нулю:

D (C) = 0.                                                                      

Док-во.D(C) = M((CM(C))²) = M((CC)²) = M(0) = 0.

  1.  Постоянный множитель можно выносить за знак дисперсии, возведя его в квадрат:

D(CX) = C²D(X).                                                     

Доказательство. D(CX) = M((CXM(CX))²) = M((CXCM(X))²) = M(C²(X –  M(X))²) = C²D(X).

  1.  Дисперсия суммы двух независимых случайных величин равна сумме их дисперсий: D(X + Y) = D(X) + D(Y).                                         

Доказательство. D(X + Y) = M(X² + 2XY + Y²) – (M(X) + M(Y))² = M(X²) + 2M(X)M(Y) +

+ M(Y²) – M²(X) – 2M(X)M(Y) – M²(Y) = (M(X²) – M²(X)) + (M(Y²) – M²(Y)) = D(X) + D(Y).

Следствие 1. Дисперсия суммы нескольких взаимно независимых случайных величин равна сумме их дисперсий.

Следствие 2. Дисперсия суммы постоянной и случайной величин равна дисперсии случайной величины.

  1.  Дисперсия разности двух независимых случайных величин равна сумме их дисперсий:

D(XY) = D(X) + D(Y).          (7.11)

Доказательство. D(X – Y) = D(X) + D(-Y) = D(X) + (-1)²D(Y) = D(X) + D(X).

Дисперсия дает среднее значение квадрата отклонения случайной величины от среднего; для оценки самого отклонения служит величина, называемая средним квадратическим отклонением.

Средним квадратическим отклонением σ случайной величины Х называется квадратный корень из дисперсии:

.         (7.12)

9. Непрерывные случайные величины и их характеристики. Функции распределения. Свойства функции распределения. График функции распределения.

Функцией распределения F(x) случайной величины Х называется вероятность того, что случайная величина примет значение, меньшее х: F (x) = p (X < x).                                                        

Свойства функции распределения.

  1.  0 ≤ F(x) ≤ 1.                                                                                                     Действительно, так как функция распределения представляет собой вероятность, она может принимать только те значения, которые принимает вероятность.
  2.  Функция распределения является неубывающей функцией, то есть F(x2) ≥ F(x1) при х2 > x1. Это следует из того, что  F(x2) = p(X < x2) = p(X < x1) + p(x1X < x2) ≥ F(x1).
  3.   В частности, если все возможные значения Х лежат на интервале [a, b], то F(x) = 0 при ха и F(x) = 1 при хb. Действительно, X < a – событие невозможное, а X < bдостоверное.
  4.  Вероятность того, что случайная величина примет значение из интервала [a, b], равна разности значений функции распределения на концах интервала:

 p ( a < X < b ) = F(b) – F(a).

Справедливость этого утверждения следует из определения функции распределения (см. свойство 2).

Для дискретной случайной величины значение F(x) в каждой точке представляет собой сумму вероятностей тех ее возможных значений, которые меньше аргумента функции.

10. Плотность распределения вероятностей НСВ. Вероятность попадания НСВ. Свойства плотности распределения. Числовые характеристики НСВ.

Определение и свойства функции распределения сохраняются и для непрерывной случайной величины, для которой функцию распределения можно считать одним из видов задания закона распределения. Но для непрерывной случайной величины вероятность каждого отдельного ее значения равна 0. Это следует из свойства 4 функции распределения:  р(Х = а) = F(a) – F(a) = 0. Поэтому для такой случайной величины имеет смысл говорить только о вероятности ее попадания в некоторый интервал.

Вторым способом задания закона распределения непрерывной случайной величины является так называемая плотность распределения (плотность вероятности, дифферен-циальная функция).

Определение 5.1. Функция f(x), называемая плотностью распределения непрерывной случайной величины, определяется по формуле:

 f (x) = F(x),                                                           

то есть является производной функции распределения.

Свойства плотности распределения.

  1.  f(x) ≥ 0, так как функция распределения является неубывающей.
  2.  , что следует из определения плотности распределения.
  3.  Вероятность попадания случайной величины в интервал (а, b) определяется формулой                                                                            Действительно,
  4.   (условие нормировки). Его справедливость следует из того, что  а
  5.   так как  при

Таким образом, график плотности распределения представляет собой кривую, располо-женную выше оси Ох, причем эта ось является ее горизонтальной асимптотой при  (последнее справедливо только для случайных величин, множеством возможных значений которых является все множество действительных чисел). Площадь криволинейной трапеции, ограниченной графиком этой функции, равна единице.

Замечание. Если все возможные значения непрерывной случайной величины сосредоточе-ны на интервале [a, b], то все интегралы вычисляются в этих пределах, а вне интервала   [a, b]  f(x) ≡ 0.

Равномерный закон распределения.

 Часто на практике мы имеем дело со случайными величинами, распределенными определенным типовым образом, то есть такими, закон распределения которых имеет некоторую стандартную форму. В прошлой лекции были рассмотрены примеры таких законов распределения для дискретных случайных величин (биномиальный и Пуассона). Для непрерывных случайных величин тоже существуют часто встречающиеся виды закона распределения, и в качестве первого из них рассмотрим равномерный закон.

 Закон распределения непрерывной случайной величины называется равномерным, если на интервале, которому принадлежат все возможные значения случайной величины, плотность распределения сохраняет постоянное значение ( f(x) = const при axb, f(x) = 0 при x < a, x > b.

Найдем значение, которое принимает f(x) при  Из условия нормировки следует, что  откуда .

Вероятность попадания равномерно распределенной случайной величины на интервал  равна при этом

Вид функции распределения для нормального закона:    

Числовые характеристики непрерывных случайных величин.

Распространим определения числовых характеристик случайных величин на непре-рывные случайные величины, для которых плотность распределения служит в некото-ром роде аналогом понятия вероятности.

Определение 7.7. Математическим ожиданием непрерывной случайной величины называется

           Замечание 1.

Общее определение дисперсии сохраняется для непрерывной случайной величины таким же, как и для дискретной

(опр. 7.5), а формула для ее вычисления имеет вид:

                                          

Среднее квадратическое отклонение вычисляется по формуле .

Замечание 2. Если все возможные значения непрерывной случайной величины не выходят за пределы интервала [a, b], то интегралы в формулах (7.13) и (7.14) вычисля-ются в этих пределах.

11.Закон распределения случайных величин. Нормальное распределение. Показательное распределение. Равномерное распределение. Некоторые другие виды распределения.

Непрерывная случайная величина называется распределенной по нормальному закону, если ее плотность распределения имеет вид:

        (6.1)

Замечание. Таким образом, нормальное распределение определяется двумя параметрами: а и σ.

График плотности нормального распределения называют нормальной кривой (кривой Гаусса). Выясним, какой вид имеет эта кривая, для чего исследуем функцию (6.1).

1)Область определения этой функции: (-∞, +∞).

2)f(x) > 0 при любом х (следовательно, весь график расположен выше оси Ох).

3) то есть ось Ох служит горизонтальной асимптотой графика при

4) при х = а;  при x > a,  при x < a. Следовательно,  - точка максимума.

5)F(xa) = f(ax), то есть график симметричен относительно прямой х = а.

6) при , то есть точки  являются точками перегиба.

Примерный вид кривой Гаусса изображен на рис.1.

х

           Рис.1.

Найдем вид функции распределения для нормального закона:

             (6.2)

Перед нами так называемый «неберущийся» интеграл, который невозможно выразить через элементарные функции. Поэтому для вычисления значений F(x) приходится пользоваться таблицами. Они составлены для случая, когда а = 0, а σ = 1.

Нормальное распределение с параметрами а = 0, σ = 1 называется нормированным, а его функция распределения.

Показательное распределение.

Показательным (экспоненциальным) называют распределение вероятностей непрерывной случайной величины Х, которое описывается плотностью

   (6.5)

В отличие от нормального распределения, показательный закон определяется только одним параметром λ. В этом его преимущество, так как обычно параметры распределения заранее не известны и их приходится оценивать приближенно. Понятно, что оценить один параметр проще, чем несколько.

Найдем функцию распределения показательного закона:

  Следовательно,

  (6.6)

Теперь можно найти вероятность попадания показательно распределенной случайной величины в интервал (а, b):

.    (6.7)

Значения функции е можно найти из таблиц.

Равномерный закон распределения.

Часто на практике мы имеем дело со случайными величинами, распределенными определенным типовым образом, то есть такими, закон распределения которых имеет некоторую стандартную форму. В прошлой лекции были рассмотрены примеры таких законов распределения для дискретных случайных величин (биномиальный и Пуассона). Для непрерывных случайных величин тоже существуют часто встречающиеся виды закона распределения, и в качестве первого из них рассмотрим равномерный закон.

Закон распределения непрерывной случайной величины называется равномерным, если на интервале, которому принадлежат все возможные значения случайной величины, плотность распределения сохраняет постоянное значение ( f(x) = const при axb, f(x) = 0 при x < a, x > b.

Найдем значение, которое принимает f(x) при  Из условия нормировки следует, что  откуда .

Вероятность попадания равномерно распределенной случайной величины на интервал  равна при этом

Вид функции распределения для нормального закона:    

Другие виды распределений

Биномиальное распределение.

Для дискретной случайной величины Х, представляющей собой число появлений события А в серии из п независимых испытаний (см. лекцию 6), М(Х) можно найти, используя свойство 4 математического ожидания. Пусть Х1 – число появлений А в первом испытании, Х2 – во втором и т.д. При этом каждая из случайных величин Хi задается рядом распределения вида

Xi

0

1

pi

q

p

Следовательно, М(Хi) = p. Тогда

Аналогичным образом вычислим дисперсию: D(Xi) = 0²·q + 1²·pp²= pp² = p(1 – p), откуда по свойству 4 дисперсии

12. Закон больших чисел. Предельные теоремы. Неравенство Чебышева. Теоремы Чебышева. Теорема Бернулли.

Изучение статистических закономерностей позволило установить, что при некоторых условиях суммарное поведение большого количества случайных величин почти утрачи-вает случайный характер и становится закономерным (иначе говоря, случайные отклоне-ния от некоторого среднего поведения взаимно погашаются). В частности, если влияние на сумму отдельных слагаемых является равномерно малым, закон распределения суммы приближается к нормальному. Математическая формулировка этого утверждения дается в группе теорем, называемой законом больших чисел.

Неравенство Чебышева.

Неравенство Чебышева, используемое для доказательства дальнейших теорем, справед-ливо как для непрерывных, так и для дискретных случайных величин. Докажем его для дискретных случайных величин.

неравенство Чебышева.

 p( | XM(X)| < ε ) ≥ D(X) / ε².         (13.1)

Доказательство. Пусть Х задается рядом распределения

       Х

         х1

           х2

          …

       хп

         р

         р1

          р2

          …

      рп

Так как события  |XM(X)| < ε и |XM(X)| ≥ ε противоположны, то р ( |XM(X)| < ε ) +     + р ( |XM(X)| ≥ ε ) = 1, следовательно,  р ( |XM(X)| < ε ) = 1 - р ( |XM(X)| ≥ ε ). Найдем р ( |XM(X)| ≥ ε ).

D(X) = (x1M(X))²p1 + (x2M(X))²p2 + … + (xnM(X))²pn . Исключим из этой суммы те слагаемые, для которых |XM(X)| < ε. При этом сумма может только уменьшиться, так как все входящие в нее слагаемые неотрицательны. Для определенности будем считать, что отброшены первые k слагаемых. Тогда

D(X) ≥ (xk+1M(X))²pk+1 + (xk+2M(X))²pk+2 + … + (xnM(X))²pnε² (pk+1 + pk+2 + … + pn).

Отметим, что pk+1 + pk+2 + … + pn есть вероятность того, что |XM(X)| ≥ ε, так как это сумма вероятностей всех возможных значений Х, для которых это неравенство справедливо. Следовательно, D(X) ≥ ε² р(|XM(X)| ≥ ε), или р (|XM(X)| ≥ ε) ≤ D(X) / ε². Тогда вероятность противоположного события p( | XM(X)| < ε ) ≥ D(X) / ε², что и требо-валось доказать.

Теоремы Чебышева и Бернулли.

теорема Чебышева. Если Х1, Х2,…, Хп – попарно независимые случайные величины, дисперсии которых равномерно ограничены ( D(Xi) ≤ C), то для сколь угодно малого числа ε вероятность неравенства

                 

будет сколь угодно близка к 1, если число случайных величин достаточно велико.

Замечание. Иначе говоря, при выполнении этих условий

Доказательство. Рассмотрим новую случайную величину   и найдем ее математическое ожидание. Используя свойства математического ожидания, получим, что . Применим к  неравенство Чебышева:  Так как рассматриваемые случайные величины независимы, то, учитывая условие теоремы, имеем:   Используя этот результат, представим предыдущее неравенство в виде:

Перейдем к пределу при :  Поскольку вероятность не может быть больше 1, можно утверждать, что

 Теорема доказана.

Следствие.

Если Х1, Х2, …, Хп – попарно независимые случайные величины с равномерно ограничен-ными дисперсиями, имеющие одинаковое математическое ожидание, равное а, то для любого сколь угодно малого ε > 0 вероятность неравенства   будет как угодно близка к 1, если число случайных величин достаточно велико. Иначе говоря, .

Вывод: среднее арифметическое достаточно большого числа случайных величин прини-мает значения, близкие к сумме их математических ожиданий, то есть утрачивает характер случайной величины. Например, если проводится серия измерений какой-либо физической величины, причем: а) результат каждого измерения не зависит от результатов остальных, то есть все результаты представляют собой попарно независимые случайные величины;  б) измерения производятся без систематических ошибок (их математические ожидания равны между собой и равны истинному значению а измеряемой величины);     в) обеспечена определенная точность измерений, следовательно, дисперсии рассматривае-мых случайных величин равномерно ограничены; то при достаточно большом числе измерений их среднее арифметическое окажется сколь угодно близким к истинному значению измеряемой величины.

Теорема Бернулли.

теорема Бернулл. Если в каждом из п независимых опытов вероятность р появления события А постоянна, то при достаточно большом числе испытаний вероят-ность того, что модуль отклонения относительной частоты появлений А в п опытах от р будет сколь угодно малым, как угодно близка к

1:                                                  

Доказательство. Введем случайные величины Х1, Х2, …, Хп, где Xi число появлений А в  i-м опыте. При этом Xi могут принимать только два значения: 1(с вероятностью р) и 0 (с вероятностью q = 1 – p). Кроме того, рассматриваемые случайные величины попарно независимы и их дисперсии равномерно ограничены (так как D(Xi) = pq, p + q = 1, откуда pq ≤ ¼ ). Следовательно, к ним можно применить теорему Чебышева при Mi = p:

.

Но , так как Xi  принимает значение, равное 1, при появлении А в данном опыте, и значение, равное 0, если А не произошло. Таким образом,

что и требовалось доказать.

Замечание. Из теоремы Бернулли не следует, что  Речь идет лишь о вероятно-сти того, что разность относительной частоты и вероятности по модулю может стать сколь угодно малой. Разница заключается в следующем: при обычной сходимости, рассматриваемой в математическом анализе, для всех п, начиная с некоторого значения, неравенство    выполняется всегда; в нашем случае могут найтись такие значения п, при которых это неравенство неверно. Этот вид сходимости называют сходимостью по вероятности.

16. Системы случайных величин. Закон распределения вероятностей дискретной двумерной случайной величины. Функции распределения двумерной случайной величины и ее свойства. Двумерная плотность вероятности и ее свойства.

Закон распределения дискретной двумерной случайной величины (Х, Y)  имеет вид таблицы с двойным входом, задающей перечень возможных значений каждой компоненты и вероятности p(xi, yj), с которыми величина принимает значение (xi, yj):

      Y

                                                     Х

       x1

    x2

      …

    xi

     …

       xn

      y1  

   p(x1, y1)

  p(x2, y1)

      …

 p(xi, y1)

     …

     p(xn, y1)

     

     …

   …

     …

    …

     …

      …

      yj

  p(x1, yj)

  p(x2, yj)

      …

  p(xi, yj)

      …

    p(xn, yj)  

      …

    …

    …

      …

    …

      …

       …

      ym  

    p(x1, ym)

    p(x2, ym)

      …   

  p(xi, ym)

       …

    p(xn, ym)

При этом сумма вероятностей, стоящих во всех клетках таблицы, равна 1.

Зная закон распределения двумерной случайной величины, можно найти законы распреде-ления ее составляющих. Действительно, событие Х = х1 представляется собой сумму несовместных событий (X = x1, Y = y1), (X = x1, Y = y2),…, (X = x1, Y = ym), поэтому

р(Х = х1) = p(x1, y1) + p(x1, y2) +…+ p(x1, ym) (в правой части находится сумма вероятностей, стоящих в столбце, соответствующем Х = х1). Так же можно найти вероятности остальных возможных значений Х. Для определения вероятностей возможных значений Y нужно сложить вероятности, стоящие в строке таблицы, соответствующей Y = yj.

Функцией распределения F(x, y) двумерной случайной величины (X, Y) называется вероятность того, что X < x, a Y < y:   F( х, у ) = p ( X < x, Y < y ).                                                  (8.1)

                                                                                                                                            Рис.1.                                                                                            Это означает, что точка (X, Y) попадет в область, заштрихованную на рис. 1, если вершина прямого угла располагается в точке (х, у).                                                               Замечание. Определение функции распределения справедливо как для непрерывной, так и для дискретной двумерной случайной величины.                                                      Свойства функции распределения.                                                            1)0 ≤ F(x, y) ≤ 1 (так как F(x, y) является вероятностью).                 2)F(x, y) есть неубывающая функция по каждому аргументу:                   F(x2, y) ≥ F(x1, y), если x2 > x   F(x, y2) ≥ F(x, y1), если y2 > y1. Доказательство. F(x2, y) = p(X < x2, Y < y) = p(X < x1, Y < y) + p(x1X < x2, Y < y) ≥ p(X < x1, Y < y) = F(x1, y).       Аналогично доказывается и второе утверждение.       3)Имеют место предельные соотношения:                                а) F(-∞, y) = 0;     b) F(x, - ∞) = 0;    c) F(- ∞, -∞) = 0;    d) F( ∞, ∞) = 1.                                                                                       Доказательство. События а), b) и с) невозможны ( так как невозможно событие Х<- ∞ или Y <- ∞), а событие d) достоверно, откуда следует справедливость приведенных равенств.                                                                                                       4)При у = ∞ функция распределения двумерной случайной величины становится функцией распределения составляющей Х:   F(x, ∞) = F1(x).                                                          При х = ∞ функция распределения двумерной случайной величины становится функцией распределения составляющей Y :  F( ∞, y) = F2(y).                                 Доказательство. Так как событие Y < ∞ достоверно, то F(x, ∞) = р(Х < x) = F1(x). Аналогично доказывается второе утверждение.                                                                     Плотностью совместного распределения вероятностей (двумер-ной плотностью вероятности) непрерывной двумерной случайной величины называ-ется смешанная частная производная 2-го порядка от функции распределения .    (8.2)                                                              Замечание. Двумерная плотность вероятности представляет собой предел отношения вероятности попадания случайной точки в прямоугольник со сторонами Δх и Δу к площади этого прямоугольника при    Свойства двумерной плотности вероятности.

1)f(x, y) ≥ 0 (см. предыдущее замечание: вероятность попадания точки в прямоуголь-ник неотрицательна, площадь этого прямоугольника положительна, следовательно, предел их отношения неотрицателен).                              2) (cледует из определения двумерной плотности вероятно-сти).                       3) (поскольку это вероятность того, что точка попадет на плос-кость Оху, то есть достоверного события).

18. Корреляционный момент и коэффициент корреляции.

Корреляционным моментом системы двух случайных величин называется второй смешанный центральный момент:   Kxy = μ1,1 = M((XM(X))(YM(Y))).                               Для дискретных случайных величин                          

для непрерывных случайных величин            Безразмерной характеристикой коррелированности двух случайных величин является коэффи-циент корреляции .                                                           Корреляционный момент описывает связь между составляющими двумерной случайной вели-чины. Действительно, убедимся, что для независимых Х и Y  Kxy = 0. В этом случае f(x,y) =  =f1(x)f2(y), тогдаИтак, две независимые случайные величины являются и некоррелированными. Однако понятия коррелированности и зависимости не эквивалентны, а именно, величины могут быть зависимы-ми, но при этом некоррелированными. Дело в том, что коэффициент корреляции характеризует не всякую зависимость, а только линейную. В частности, если  Y = aX + b, то rxy = ±1. Найдем возможные значения коэффициента корреляции.                                                                                              Теорема 9.1.                                                                     Доказательство. Докажем сначала, что  Действительно, если рассмотреть случай-ную величину  и найти ее дисперсию, то получим:. Так как дисперсия всегда неотрицательна, то  откуда  Отсюда  что и требовалось доказать.

20.  Случайные функции. Понятие случайной функции. Математическое ожидание случайной функции.Если каждому возможному значению случайной величины Х соответствует одно возможное значение случайной величины Y, то Y  называют функцией случайного аргу-мента Х:  Y = φ(X).                                                                                                                 Выясним, как найти закон распределения функции по известному закону распределения аргумента.                                         1) Пусть аргумент Х – дискретная случайная величина, причем различным значениям Х соот-ветствуют различные значения Y. Тогда вероятности соответствующих значений Х и Y равны.                                                                                                    2) Если разным значениям Х могут соответствовать одинаковые значения Y, то вероятности значений аргумента, при которых функция принимает одно и то же значение, складываются.                                                                                       

3) Если Х – непрерывная случайная величина, Y = φ(X), φ(x) – монотонная и дифференцируемая функция, а ψ(у) – функция, обратная к φ(х), то плотность распределения g(y) случайно функции Y равна:                                                               

Математическое ожидание функции одного случайного аргумента.

Пусть Y = φ(X) – функция случайного аргумента Х, и требуется найти ее математическое ожидание, зная закон распределения Х.

1)Если Х – дискретная случайная величина, то

               (10.2)

2)Если Х – непрерывная случайная величина, то M(Y) можно искать по-разному. Если известна плотность распределения g(y), то

                                               

Если же g(y) найти сложно, то можно использовать известную плотность распределения f(x):

                                               

В частности, если все значения Х принадлежат промежутку (а, b), то

                                               

22. Элементы математической статистики. Основные задачи математической статистики.

Математическая статистика занимается установлением закономерностей, которым подчинены массовые случайные явления, на основе обработки статистических данных, полученных в результате наблюдений. Двумя основными задачами математической статистики являются:

- определение способов сбора и группировки этих статистических данных;

- разработка методов анализа полученных данных в зависимости от целей исследования, к которым относятся:

а) оценка неизвестной вероятности события; оценка неизвестной функции распределения; оценка параметров распределения, вид которого известен; оценка зависимости от других случайных величин и т.д.;

б) проверка статистических гипотез о виде неизвестного распределения или о значениях параметров известного распределения.

Для решения этих задач необходимо выбрать из большой совокупности однородных объектов ограниченное количество объектов, по результатам изучения которых можно сделать прогноз относительно исследуемого признака этих объектов.

23. Генеральная и выборочная совокупность. Способы отбора. Статическая функция распределения. Статические оценки параметров распределения.

Определим основные понятия математической статистики.

Генеральная совокупность – все множество имеющихся объектов.

Выборка – набор объектов, случайно отобранных из генеральной совокупности.

Объем генеральной совокупности N и объем выборки n – число объектов в рассматривае-мой совокупности.

Виды выборки:

Повторная – каждый отобранный объект перед выбором следующего возвращается в генеральную совокупность;

Бесповторная – отобранный объект в генеральную совокупность не возвращается.

Замечание. Для того, чтобы по исследованию выборки можно было сделать выводы о поведе-нии интересующего нас признака генеральной совокупности, нужно, чтобы выборка правиль-но представляла пропорции генеральной совокупности, то есть была репрезентативной (представительной). Учитывая закон больших чисел, можно утверждать, что это условие выполняется, если каждый объект выбран случайно, причем для любого объекта вероятность попасть в выборку одинакова.

Первичная обработка результатов.

Пусть интересующая нас случайная величина Х принимает в выборке значение х1 п1 раз, х2п2 раз, …, хк – пк раз, причем  где п – объем выборки. Тогда наблюдаемые значения случайной величины х1, х2,…, хк  называют вариантами, а п1, п2,…, пкчастотами. Если разделить каждую частоту на объем выборки, то получим относительные частоты  Последовательность вариант, записанных в порядке возрастания, называют вариационным рядом, а перечень вариант и соответствующих им частот или относительных частот – стати-стическим рядом:

         xi

           x1

         x2

        …

          xk

         ni

           n1 

         n2

        …

          nk

         wi 

           w1

         w2

        …

         wk

Если исследуется некоторый непрерывный признак, то вариационный ряд может состоять из очень большого количества чисел. В этом случае удобнее использовать группированную выборку. Для ее получения интервал, в котором заключены все наблюдаемые значения признака, разбивают на несколько равных частичных интервалов длиной h, а затем находят для каждого частичного интервала ni – сумму частот вариант, попавших в i-й интервал. Составленная по этим результатам таблица называется группированным статистическим рядом:

Номера интервалов

       1

        2

         …

            k

Границы

интервалов

    (a, a + h)

  (a + h, a + 2h)

          …

     (b – h, b)

Сумма частот

вариант, попав-

ших в интервал

          

         n1

        n2

           …

        nk

Распределение функции.

Для наглядного представления о поведении исследуемой случайной величины в выборке можно строить различные графики. Один из них – полигон частот: ломаная, отрезки которой соединяют точки с координатами (x1, n1), (x2, n2),…, (xk, nk), где xi откладываются на оси абсцисс, а ni – на оси ординат. Если на оси ординат откладывать не абсолютные (ni), а относительные (wi) частоты, то получим полигон

рис.1

относительных частот (рис.1).

По аналогии с функцией распределения случайной величины можно задать некоторую функцию, относительную частоту события  X < x.

Выборочной (эмпирической) функцией распределения называют функцию F*(x), определяющую для каждого значения х относительную частоту события        X < x. Таким образом,

,    (15.1)

где пх – число вариант, меньших х, п – объем выборки.

Замечание. В отличие от эмпирической функции распределения, найденной опытным путем, функцию распределения F(x) генеральной совокупности называют теоретической функцией распределения. F(x) определяет вероятность события X < x, а  F*(x) – его относительную частоту. При достаточно больших п, как следует из теоремы Бернулли, F*(x) стремится по вероятности к F(x).

Из определения эмпирической функции распределения видно, что ее свойства совпадают со свойствами F(x), а именно:

  1.  0 ≤ F*(x) ≤ 1.
  2.  F*(x) – неубывающая функция.
  3.  Если х1 – наименьшая варианта, то F*(x) = 0 при хх1; если хк – наибольшая варианта, то  F*(x)  = 1 при х > хк .

Для непрерывного признака графической иллюстрацией служит гистограмма, то есть ступенчатая фигура, состоящая из прямоугольников, основаниями которых служат частичные интервалы длиной h, а высотами отрезки длиной ni /h (гистограмма частот) или  wi /h (гистограмма относительных частот). В первом случае площадь гистограммы равна объему выборки, во втором – единице Рис.2.

24. Доверительный интервал для математического ожидания нормального распределения при известном и неизвестном распределении. Коэффициент Стьюдента.

Построение доверительных интервалов.

1. Доверительный интервал для оценки математического ожидания нормального распределения при известной дисперсии.

Пусть исследуемая случайная величина Х распределена по нормальному закону с известным средним квадратическим σ, и требуется по значению выборочного среднего  оценить ее математическое ожидание а. Будем рассматривать выборочное среднее  как случайную величину а значения вариант выборки х1, х2,…, хп как одинаково распределенные независимые случайные величины Х1, Х2,…, Хп, каждая из которых имеет математическое ожидание а и среднее квадратическое отклонение σ.  При этом М() = а,  (используем свойства математического ожидания и дисперсии суммы независимых случайных величин). Оценим вероятность выполнения неравенства . Применим формулу для вероятности попадания нормально распределенной случайной величины в заданный интервал:

р () = 2Ф. Тогда , с учетом того, что , р () = 2Ф=

=2Ф( t ), где . Отсюда , и предыдущее равенство можно переписать так:

 .                                      

Итак, значение математического ожидания а с вероятностью (надежностью) γ попадает в интервал , где значение t определяется из таблиц для функции Лапласа так, чтобы выполнялось равенство 2Ф(t) = γ.

2. Доверительный интервал для оценки математического ожидания нормального распределения при неизвестной дисперсии.

Если известно, что исследуемая случайная величина Х распределена по нормальному закону с неизвестным средним квадратическим отклонением, то для поиска доверительного интервала для ее математического ожидания построим новую случайную величину

,     (18.2)

где  - выборочное среднее, s – исправленная дисперсия, п – объем выборки. Эта случайная величина, возможные значения которой будем обозначать t, имеет распределение Стьюдента (см. лекцию 12) с k = n – 1 степенями свободы.

Поскольку плотность распределения Стьюдента , где , явным образом не зависит от а и σ, можно задать вероятность ее попадания в некоторый интервал (- tγ , tγ ), учитывая четность плотности распределения, следующим образом: . Отсюда получаем:       (18.3)

Таким образом, получен доверительный интервал для а, где tγ можно найти по соответствую-щей таблице при заданных п и γ.                                                                                                             

26. Элементы теории корреляции. Выборочное уравнение регрессии.                                                                                      Линейная регрессия.                                                                         Пусть составляющие Х и Y двумерной случайной величины (Х, Y) зависимы. Будем считать, что одну из них можно приближенно представить как линейную функцию другой, например                                                                                                                   Yg(Х) = α + βХ,   (11.2)                                                                          и определим параметры α и β с помощью метода наименьших квадратов.                                                                      Определение 11.2. Функция g(Х) = α + βХ называется наилучшим приближением Y  в смысле метода наименьших квадратов, если математическое ожидание М(Y - g(Х))2 принимает наименьшее возможное значение; функцию g(Х) называют среднеквадратической регрессией Y на Х. Теорема 11.1. Линейная средняя квадратическая регрессия Y на Х имеет вид:                                                     (11.3) где  - коэффициент корреляции Х и Y.                                             Доказательство. Рассмотрим функцию                                                        F(α, β) = M(YαβX)²   (11.4)                                                            и преобразуем ее, учитывая соот-ношения  M(Xmx) = M(Ymy) = 0, M((Xmx)(Ymy)) =     =Kxy = rσxσy:       .                            Найдем стационарные точки полученной функции, решив систему        

Решением системы будет .              Можно проверить, что при этих значениях функция F(α, β) имеет минимум, что доказывает утверждение теоремы.    Определение 11.3. Коэффициент  называется коэффициентом регрессии Y на Х, а прямая                                -       (11.5)                                                           - прямой среднеквадратической регрессии Y на Х.

Подставив координаты стационарной точки в равенство (11.4), можно найти минимальное значение функции F(α, β), равное  Эта величина называется остаточной дисперсией Y относительно Х и характеризует величину ошибки, допускаемой при замене Y на g(Х) = α+βХ. При  остаточная дисперсия равна 0, то есть равенство (11.2) является не приближенным, а точным. Следовательно, при  Y и Х связаны линейной функциональной зависимостью. Аналогично можно получить прямую среднеквадратической регрессии Х на Y:    (11.6)                                                          и остаточную дисперсию Х относительно Y. При  обе прямые регрессии совпадают. Решив систему из уравнений (11.5) и (11.6), можно найти точку пересечения прямых регрессии – точку с координатами (тх, ту), называемую центром совместного распределения величин Х и Y. Линейная корреляция.                                                                      Для двумерной случайной величины (Х, Y) можно ввести так называемое условное математи-ческое ожидание Y при Х = х. Для дискретной случайной величины оно определяется как    (11.7)                                                         для непрерывной случайной величины –.     (11.8)                                          Определение 11.4. Функцией регрессии Y на Х называется условное математическое ожидание   M( Y / x ) = f(x).  Аналогично определяется условное математическое ожидание Х и функция регрессии Х на Y.                                   Определение 11.5. Если обе функции регрессии Х на Y и Y на Х линейны, то говорят, что Х и Y связаны линейной корреляционной зависимостью.                                                При этом графики линейных функций регрессии являются прямыми линиями, причем можно доказать, что эти линии совпадают с прямыми среднеквадратической регрессии.      Теорема .Если двумерная случайная величина (Х, Y) распределена нормально, то Х и Y связаны линейной корреляционной зависимостью.                                           Доказательство. Найдем условный закон распределения Y при Х = х , используя формулу двумерной плотности вероятности нормального распределения (11.1) и формулу плотности вероятности Х: .      (11.9)                                       Сделаем замену . Тогда

=.

Полученное распределение является нормальным, а его мате-матическое ожидание   есть функция регрессии Y на Х (см. опреде-ление 11.4)). Аналогично можно получить функцию регрессии Х на Y:  .    Обе функции регрессии линейны, поэтому корреляция между Х и Y линейна, что и требовалось доказать. При этом уравнения прямых регрессии имеют вид ,         ,  то есть совпадают с уравнениями прямых среднеквадратической регрессии (см. формулы (11.5), (11.6)).

29. Метод максимального правдоподобия. Функция правдоподобия в непрерывном  и дискретном случаях. Оценка максимального правдоподобия и их основные свойства.

Метод наибольшего правдоподобия.

Пусть Х – дискретная случайная величина, которая в результате п испытаний приняла значения х1, х2, …, хп. Предположим, что нам известен закон распределения этой величины, определяемый параметром Θ, но неизвестно численное значение этого параметра. Найдем его точечную оценку.

Пусть р(хi, Θ) – вероятность того, что в результате испытания величина Х примет значение хi. Назовем функцией правдоподобия дискретной случайной величины Х функцию аргумента Θ, определяемую по формуле:

 L (х1, х2, …, хп; Θ) = p(x1,Θ)p(x2,Θ)…p(xn,Θ).

Тогда в качестве точечной оценки параметра Θ принимают такое его значение Θ* = Θ(х1, х2, …, хп), при котором функция правдоподобия достигает максимума. Оценку Θ* называют оценкой наибольшего правдоподобия.

Поскольку функции L и lnL достигают максимума при одном и том же значении Θ, удобнее искать максимум ln Lлогарифмической функции правдоподобия. Для этого нужно:                                                                                                              1)найти производную ;

2)приравнять ее нулю (получим так называемое уравнение правдоподобия) и найти критическую точку;

3)найти вторую производную ; если она отрицательна в критической точке, то это – точка максимума.

Достоинства метода наибольшего правдоподобия: полученные оценки состоятельны (хотя могут быть смещенными), распределены асимптотически нормально при больших значениях п и имеют наименьшую дисперсию по сравнению с другими асимптотически нормальными оценками; если для оцениваемого параметра Θ существует эффективная оценка Θ*, то уравнение правдоподобия имеет единственное решение Θ*; метод наиболее полно использует данные выборки и поэтому особенно полезен в случае малых выборок.

Недостаток метода наибольшего правдоподобия: сложность вычислений.

Для непрерывной случайной величины с известным видом плотности распределения f(x) и неизвестным параметром Θ функция правдоподобия имеет вид:

L (х1, х2, …, хп; Θ) = f(x1,Θ)f(x2,Θ)…f(xn,Θ).

Оценка наибольшего правдоподобия неизвестного параметра проводится так же, как для дискретной случайной величины.

17. Условные законы распределения. Математическое ожидание и дисперсии я случайных величин. Условное математическое ожидание.

дискретной случайной величины называ-ется сумма произведений ее возможных значений на соответствующие им вероятности:

М(Х) = х1р1 + х2р2 + … + хпрп .      (7.1)

Если число возможных значений случайной величины бесконечно, то

, если полученный ряд сходится абсолютно.

Замечание 1. Математическое ожидание называют иногда взвешенным средним, так как оно приближенно равно среднему арифметическому наблюдаемых значений случайной величины при большом числе опытов.

Замечание 2. Из определения математического ожидания следует, что его значение не меньше наименьшего возможного значения случайной величины и не больше наибольше-го.

Замечание 3. Математическое ожидание дискретной случайной величины есть неслучай-ная (постоянная) величина. В дальнейшем увидим, что это же справедливо и для непре-рывных случайных величин.

Дисперсией (рассеянием) случайной величины называется математи-ческое ожидание квадрата ее отклонения от ее математического ожидания: D(X) = M (XM(X))²

Замечание 1. В определении дисперсии оценивается не само отклонение от среднего, а его квадрат. Это сделано для того, чтобы отклонения разных знаков не компенсировали друг друга.

Замечание 2. Из определения дисперсии следует, что эта величина принимает только неотрицательные значения.

Замечание 3. Существует более удобная для расчетов формула для вычисления дисперсии, справедливость которой доказывается в следующей теореме:

Теорема.   D(X) = M(X ²) – M ²(X).

Доказательство.

Используя то, что М(Х) – постоянная величина, и свойства математического ожидания, преобразуем формулу (7.6) к виду:

D(X) = M(XM(X))² = M(X² - 2X·M(X) + M²(X)) = M(X²) – 2M(XM(X) + M²(X) =

= M(X²) – 2M²(X) + M²(X) = M(X²) – M²(X),

что и требовалось доказать.вв




1. образовательных запросов личности и общества повышение гибкости общекультурной научной и профессионально.html
2. 2Утверждена постановлением ГоскомстатаРоссии от 25
3. Учет бланков трудовых книжек
4. тематической модели в данной работе описываются такие аспекты численнойреализации кодовофазовой дифферен
5. АМСтоляренко Столяренко Алексей Михайловичдоктор психол
6. ориентированных языков программирования.html
7. Пожаробезопасные кабельные системы
8. ~аза~станда ~ызмет к~рсету саласын дамытуды~ экономикалы~ ма~ызы.
9. Уссурийский хлебозавод13 2
10. Розвиток німецьких антропонімів в історичному та мовно-географічному аспектах
11. свободный танец Айседоры Дункан и афроамериканский джазовый танец
12. Алматинский универитет энергетики и связи Теплоэнергетический факультет Кафедра физики
13. ЗАТВЕРДЖЕНО
14. Правда у нас уже было 15 человек и мы в основном занимались разработкой нормативной базы
15. стаття має такий вигляд- Агітувати УМОВЛЯТИ ВМОВЛЯТИ впливати словами просити згодитися на щонебудь П
16. с 1 января по 31 декабря включительно
17. Контрольная работа- Классификация резервов повышения эффективности производства
18. Шведский период в Эстонии Золотой век
19. СОЦИАЛИЗМ С ВЬЕТНАМСКИМ ЛИЦОМ
20. Реферат- Основные этапы развития экономической науки