Будь умным!


У вас вопросы?
У нас ответы:) SamZan.ru

испытание событие

Работа добавлена на сайт samzan.ru: 2016-03-13


  1.  Вероятность и случайная переменная 
    1.  Основные понятия теории вероятности

Вероятность — это мера того, что какое-либо случайное событие произойдет.

Для изучения теории вероятности, необходимо уяснить значение некоторых основных терминов, таких, как "испытание", "событие" и "пространство элементарных событий".

Опр. Испытание — это любое действие, которое приводит к определенному набору результатов.

Опр. События — это конкретные результаты испытаний или их сочетание.

Опр. Пространством элементарных событий называется множество всех возможных результатов.

Существует три подхода к определению вероятности: классический, эмпирический и субъективный.

Классический подход к определению вероятности

Этот подход применяется, когда возможные неопределенные результаты известны и равновероятны. При помощи простой логики можно определить вероятность каждого исхода.

Рассмотрим подбрасывание монеты. Подразумевается, что должен выпасть либо "орел" либо "решка", причем вероятности каждого из результатов равны между собой. Количество возможных результатов равно двум, что определяется формой монеты. Вероятность выпадения "орла" должна быть равна 0;5, и вероятность выпадения "решки" также должна быть равна 0,5. Подбрасывание монеты здесь является испытанием, пространство элементарных событий — два возможных результата эксперимента, и событие — это выпадение "орла" либо "решки".

Таким же образом, в случае с шестигранной игральной костью, где выпадение каждой из сторон равновероятно, испытанием будет метание кости, шесть разных граней представляют собой пространство элементарных событий, и событие — это грань, оказавшаяся наверху. Здесь вероятность выпадения каждой из граней будет 1/6, или 1,66666.

В каждом из описанных выше случаев вероятность результатов была определена формой монеты или кости. Это и лежит в основе классической или, априори, теории вероятностей.

При таких обстоятельствах вероятность наступления события определяется так:

где Р(А) — вероятность наступления события А.

Эмпирический подход

В экономике, как и во многих других сферах, не всегда можно полагаться на точность процесса при определении вероятностей. Зачастую, потребуется повторение какого-либо испытания множество раз с целью определения вероятности наступления возможных событий.

Эмпирический подход в определении вероятности основан на проведении опыта, и такое определение вероятности называют статистическим определением. В таких случаях вероятность результата Z, P(Z) рассчитывается как предел отношения числа (количества раз) наступления Z к числу всех событий, т.е. к числу раз проведения испытаний:

где  Т — количество испытаний

 n(Z) — количество появлений события Z.

Отметим, что n(Z) называется абсолютной частотой события Z, а отношение n(Z)/T– относительной частотой события Z.

Этот подход анализирует историческую информацию с целью определения вероятности наступления событий в будущем. Его, как правило, используют для изучения произвольных случайных событий, то есть когда испытания не равновозможные (например, если шестигранная игральная кость является неправильной, то есть одно ребро подпилено, и, следовательно, одна из граней выпадает чаще).

На этот подход мы и будем опираться при рассмотрении эконометрических моделей, поскольку он позволяет на основании исторических данных выдвигать предположения относительно распределения вероятностей в будущем.

Например, вероятность того, что посудомойщица уронит тарелку при мытье, равна:

Соответственно, вероятность того, что посудомойщица не уронит тарелку, равна: Р(Не уронит)=1-Р(Уронит)=1-0,03=0,97.

Субъективный подход (интуитивистский).

Существует также и третий подход к определению величины вероятностей, известный как субъективный или интуитивистский подход. Согласно этому подходу вероятность определяется как степень уверенности в наступлении того или иного события.

Субъективная вероятность применяется при решении многих проблем в бизнесе, где вероятность не может быть выведена при помощи логики, либо недостаточно эмпирических данных, на основании которых можно оценить вероятность с помощью эмпирического подхода. Например, субъективная вероятность включается в прогнозирование прибылей компании, стоимости акций и других ценных бумаг инвестиционным аналитиком.

Свойства вероятности.

В независимости от того, с помощью какого подхода определена вероятность события или группы событий вероятности обладают рядом свойств:

Вероятность достоверного события, то есть такого события, которое обязательно произойдет, равно единице.

Вероятность невозможного события, то есть такого события, которое не произойдет ни при каких условиях, равна нулю.

Вероятность случайного события, то есть события, которое  не является ни достоверным, ни невозможным, есть положительное число, заключенное между нулем и единицей (0≤Р(А)≤1).

Опр. Два события называются несовместными, если появление одного из них исключает появление другого в одном и том же испытании.

Теорема: Вероятность суммы двух несовместимых событий А и В равна сумме вероятностей этих событий: Р(А+В)=Р(А)+Р(В)

Опр. Два события А и В называются независимыми, если вероятность появления каждого из них не зависит от того, появилось другое событие или нет. В противном случае события А и В называют зависимыми.

Пример: Пусть в урне находится два белых и два черных шара. Пусть событие А – вынут белый шар. Очевидно, Р(А)=1/2. После первого испытания вынутый шар кладется обратно в урну, шары перемешиваются и снова вынимается шар. Событие В – во втором испытании вынут белый шар – также имеет вероятность Р(В)=1/2, т.е. события А и В независимые.

Предположим теперь, что вынутый шар в первом испытании не кладется обратно в урну. Тогда если произошло событие А, т. е. в первом испытании вынут белый шар, то вероятность события В уменьшается (Р(В)=1/3); если в zпервом испытании был вынут черный шар, то вероятность события В увеличивается (Р(В)=2/3). Здесь вероятность события В зависит от появления или непоявления события А, т. е. события А и В зависимые.

Опр. Пусть А и В – зависимые события. Условной вероятностью РА(В) события В называют вероятность события В, найденной в предположении, что событие А уже наступило.

Так в примере 1 РА(В)=1/3.

Если же события А и В независимые, то РА(В)=Р(В).

Теорема: Вероятность произведения двух зависимых событий А и В равна произведению вероятности одного из них на условную вероятность другого, найденную в предположении, что первое событие уже наступило:

Р(АВ)=Р(А) РА(В).

Теорема: Вероятность произведения двух независимых событий А и В равна произведению вероятностей этих событий: Р(АВ)=Р(А)Р(В).

Пример. Найдем вероятность одновременного поражения цели двумя орудиями, если вероятность поражения цели первым орудием (события А) равна 0,8, а вторым (событие В) – 0,7.

События А и В независимы, поэтому по предыдущей теореме искомая вероятность Р(АВ)=0,7*0,8=0,56.

Теорема: Вероятность суммы двух совместимых событий А и В равна сумме вероятностей этих событий без вероятности их произведения:

Р(А+В)=Р(А)+Р(В) –Р(АВ).

Повторные испытания.

Пусть производится несколько испытаний, причем вероятность события А в каждом испытании не зависит от исходов других испытаний, тогда такие испытания называют независимыми относительно А.

Пусть теперь производится n независимых испытаний, в каждом из которых событие А может произойти либо не произойти, причем вероятность появления этого события в каждом испытании равна р и не зависит от исхода других испытаний (независимые испытания). Такая последовательность испытаний называется схемой Бернулли. Так как вероятность наступления события А в одном испытании равна р, то вероятность его ненаступления соответственно равна q=1-p.

В условиях схемы Бернулли вероятность того, что при n испытаниях  событие А осуществится ровно m раз, вычисляется по формуле:

Эта формула называется формулой Бернулли.

Пользоваться этой формулой, когда число испытаний достаточно велико (n>15), затруднительно, и в этих случаях используют локальную теорему Лапласа.

Теорема: Пусть р вероятность наступления события А (0<p<1), тогда вероятность того, что в условиях схемы Бернулли событие А при n испытаниях  появится ровно m раз выражается приближенной формулой Лапласа:

Где q=1-p,  ,  причем и для этой функции существует таблица значений.

На вопрос о том: какова вероятность, что в условиях схемы Бернулли событие А, имеющее вероятность появления р, при n испытаниях ( n достаточно велико) появится не менее k раз и не более l раз, отвечает интегральная теорема Лапласа.

Теорема: Пусть р вероятность наступления события А (0<p<1), тогда вероятность того, что в условиях схемы Бернулли событие А при n испытаниях  появится от k до l раз, выражается формулой:

, где,  .

Существует функция Лапласа , которая является нечетной )  и имеет таблицу значений при x>0.  С учетом этого интегральная формула Лапласа имеет вид:

.

  1.  Случайная переменная

Если связать каждое событие из множества событий с каким-либо числом, то мы получим совокупность чисел, появление каждого из которых случайно в результате проведения эксперимента.

Случайная переменная Х — это функция, принимающая действительные значения на множестве событий, с помощью которой мы ставим в однозначное соответствие  каждому событию  некоторое число  или некоторую единственную точку на действительной оси.

Следовательно, случайная переменная есть некоторое преобразование, которое каждому событию ставит в соответствие единственное алгебраическое значение.

Согласно определению, случайная переменная — это такая переменная, поведение которой неопределенно. Исходя из чего, мы можем только приписать некоторые вероятности возможным значениям таких переменных.

Примеры случайных величин:

1. Число очков, выпавших при однократном бросании игральной кости есть случайная величина, которая может принимать одно из значений: 1, 2, 3, 4, 5, 6.

2.   Прирост веса ребенка от одного до двух месяцев жизни – есть случайная величина, принимающая значение от -0,5 кг до 2кг.

3.   Число родившихся мальчиков среди 5 новорожденных есть случайная величина, принимающая значение от 0 до 5.

4.     Расстояние между эпицентром взрыва бомбы и целью, на которую он была сброшена, —  случайная величина, которая может принимать любые положительные значения.

Случайные величины обозначают X, Y, Z, а их возможные значения – x, y, z.

Случайные переменные подразделяются на дискретные и на непрерывные.

Дискретные случайные переменные

Дискретные случайные переменные — это переменные, которые имеют конечное число возможных результатов. Если рассматривать ситуацию с бросанием шестигранной кости, то с каждым из возможных результатов связана определенная вероятность: для нормальной кости каждая из шести вероятностей равна 1/6. Этот процесс можно смоделировать математически в виде дискретной случайной переменной.

В этом случае мы могли бы назвать случайную переменную Z и определить вероятности для Z, принимающей значения от 1 до 6, и вероятности каждого результата. Вероятности вместе со связанными с ними значениями случайной переменной называют рядом распределения (вероятностей), определяющую случайную переменную:

Значения

r=

1

2

3

4

5

6

Вероятности

Z=

1/6

1/6

1/6

1/6

1/6

1/6

Отметим, что независимо от количества возможных результатов сумма всех вероятностей должна быть равна единице:

Примерами дискретного распределения являются биномиальное и триномиальное распределения. Подбрасывание монеты приводит к биномиальному распределению результатов, поскольку результат может быть либо "орлом", либо "решкой". Цены активов могут падать, расти или оставаться неизменными, что приводит к триномиальному распределению, поскольку могут быть три вида результатов — рост, падение и отсутствие изменений.

Рассмотрим пример биноминального распределения.

Пусть производится n независимых испытаний, в каждом из которых событие А наступает с вероятностью р, и не наступает с вероятностью q=1-p. Обозначим через Х случайную величину, равную числу появлений событий А в n испытаниях. Возможные значения величины Х следующие: х1=0 (событие А не наступило), х2=1 (событие А наступило 1 раз),…, хn+1=n (событие А наступило n раз). Вероятности этих возможных значений определяются по формуле Бернулли: .

Возможные значения можно представить в виде таблицы:

Х

х1=0

х2=1

х2=m

хn+1=n

Р(Х)

qn

pn

Полученный закон распределения дискретной случайной величины называется законом биноминального распределения.

Непрерывные случайные переменные

Непрерывные случайные переменные — это случайные переменные, которые могут принимать бесконечное количество значений. Например, рентабельность активов, кросс-курсы валют, различные биржевые индексы и т.д. Единица измерения может здесь представлять собой бесконечно малую величину.

Для примера рассмотрим доход от какой-либо ценной бумаги. Доходность определяется как отношение:. Количество возможных значений доходности может быть бесконечно велико. Например, изменение цены актива со 105 единиц до 109 даст доходность, равную 3,8% или 3,81%, или 3,8095% в зависимости от количества знаков после запятой, допускаемого нами при измерении доходности. В этих обстоятельствах нет никакого смысла в попытках нахождения вероятности значения доходности равной, скажем, 3,81%. Имеет смысл только нахождение вероятности того, что случайная переменная примет значение на каком-то определенном интервале, скажем, между 3,81% и 3,82%.

Очевидно, что определить вероятность для каждого значения случайной переменной с помощью таблицы, как это делается для дискретных случайных переменных, невозможно. В целях преодоления этой проблемы вероятность для непрерывных случайных переменных определяется путем задания так называемой  функции плотности вероятностей f(Х).

Таким образом, для случайной переменной (X) получаем:

       

где f — функция плотности вероятностей, которая позволяет задать вероятность каждому значению случайной переменной Х. Функция плотности вероятностей обладает свойством:

         (1.1)*

Иными словами, площадь, целиком заключенная под всей кривой, изображающей плотность распределения вероятностей, равна единице.

Интегральной функцией распределения непрерывной случайной величины Х называется функция F(Х), равная вероятности того, что Х приняла значение меньшее, чем х:

F(X)=P(X<x).

Интегральная функция распределения F(X) и плотность распределения f(X) связаны соотношением , вот почему функцию f(X) еще называют дифференциальной функцией распределения непрерывной случайной величины.

*  несобственный интеграл определяется как

Вероятностные характеристики случайной переменной

Случайная переменная — это такая переменная, поведение которой неопределенно. А поскольку поведение не определено, то мы можем только приписывать некоторые вероятностные характеристики значениям таких переменных. Основными вероятностными характеристиками случайной переменной являются: плотность вероятности, математическое ожидание и дисперсия.

Поскольку существуют два типа случайных переменных (дискретные и непрерывные), то основные вероятностные характеристики случайной для них определяются по разному.

Плотность вероятности и распределение вероятности.

В общем случае распределение вероятностей для дискретной случайной переменной задается в следующем виде:

Значения случайной переменной

Вероятность

Непрерывная случайная переменная имеет более сложное вероятностное описание.

Опр: Функция плотности вероятности f(x) есть функция, которая для любого интервала  на оси х позволяет определить вероятность того, что случайная переменная Х находится в этом интервале.

В общем случае f(x) некоторая кривая:

               

Зная функцию плотности f(x) можно определить другую функцию для случайной переменной. Для этого необходимо определить чему равна вероятность того, что случайная переменная Х примет значение не больше чем ?

              

Такую вероятность можно определить для любой точки оси Х,  используя интегральную функцию распределения F(x), называемую еще просто функцией распределения вероятностей: .

Отсюда следует, что вероятность попадания случайной величины Х в интервал (a; b) равна разности между значениями интегральной функции распределения в правом и левом концах интервала (a; b):

Случайные переменные, имеющие различную физическую природу, могут иметь одну и ту же вероятностную структуру, что зачастую и случается. В конечном итоге видов распределения вероятностей или, по-другому, законов распределения вероятностей не очень много. Рассмотрим некоторые из них.

Примеры законов распределения:

Первый из этих законов установил Карл Гаусс — немецкий математик 18-19 вв. Он  имел дело с измерениями различных явлений и установил, что каждое такое явление несет в себе случайную ошибку измерений. Частота появления таких ошибок, если их брать в большом подчиняется определенному нормальному закону, и если отразить это на графике образуя характерную фигуру. Таким образом был сформулирован нормальный закон распределения вероятностей, согласно которому: малые отклонения от истинного результата в сторону плюса или минуса встречаются в малом числе, а истинные результаты — в большом числе (при этом, предполагается, что исключены систематические ошибки наблюдения).

Бельгийский математик А. Кетле (18-19 вв.) распространил нормальное распределение на реальные явления, а именно на измерение окружности груди шотландских солдат. Построив распределение 5738 солдат по охвату груди, он увидел, что оно сходно с распределением ошибок измерений.

Плотность вероятности нормального закона определяется по формуле:, где а и σ – постоянные, причем σ>0.

Если случайная величина Х распределена по нормальному закону распределения, то вероятность того, что Х примет значение, принадлежащее интервалу (α, β) определяется по формуле:

,

где   - функция Лапласа.

Распределение Стъюдента (t-распределение с n степенями свободы). Пусть х и (хи) — независимые случайные переменные и х имеет стандартное нормальное распределение, а — -распределение с n степенями свободы. Тогда t-распределение определяется как: )

Распределение Фишера (распределение F Фишера-Снедекора). Пусть  и  — две независимые случайные переменные имеющие -распределение со степенями свободы  и  . Тогда: .

Равномерное распределение.

Распределение  с n-степенями свободы. Пусть Х независимая случайная переменная. Тогда: .

В учебниках и другой литературе по теории вероятностей имеются таблицы распределения вероятностей для различных законов.

Зная плотность распределения вероятностей можно решать и обратную задачу: по заданной вероятности определить интервал попадания случайной переменной. Для симметричного распределения это означает определить интервал . Графически эту задачу можно  изобразить так:

    

определяется как обратная функция от (плотности распределения). Как правило, это делается по табличным данным.

Законы распределения вероятностей позволяют определить две других важнейших характеристики случайной величины Х: математического ожидания и дисперсии случайной переменной.

Математическое ожидание

Математическое ожидание дискретной случайной переменной Х определяется как:

, то есть математическое ожидание случайной дискретной величины определяется как сумма произведений всех возможных значений величины Х (хi) на соответствующие вероятности.

Существует теорема, которая утверждает, что математическое ожидание дискретной случайной величины приближенно равно среднему арифметическому всех ее значений, при достаточно большом количестве испытаний n.

Математическое ожидание есть некоторая средневзвешенная арифметическая величина, где весами являются вероятности. Следовательно, математическое ожидание характеризует меру положения случайной переменной. Для непрерывной случайной величины Х с плотностью распределения f(х) математическое ожидание это несобственный интеграл:

Математическое ожидание имеет следующие свойства (X и Y — произвольные случайные величины, a и b — константы):

, если Х и У являются независимыми случайными величинами.

если при всех реализациях, то

Отметим, что случайные величины называются независимыми. Если закон распределения одной из них не зависит от того, какие возможные значения приняла другая величина.

Примеры:

1.   Найдем математическое ожидание дискретной случайной величины Х, заданной табличным законом распределения:

Х

х1=2

х2=4

х3=6

х4=8

Р(Х)

0,1

0,2

0,3

0,4

М(Х)=2*0,1+4*0,2+6*0,3+8*0,4=6.

2.   Найдем математическое ожидание непрерывной случайной величины Х, заданной плотностью распределения:

.

Дисперсия случайной переменной

Дисперсия отражает степень «разброса» случайной величины относительно среднего значения. Для дискретной случайной она рассчитывается по формуле:

Дисперсия непрерывной случайной переменной:

Дисперсия случайной переменной имеет следующие свойства (X и Y — произвольные случайные величины, a и b — константы):

,для независимых случайных переменных.

Существуют более удобные формулы вычисления дисперсии, основанные на том, что она равна разности между математическим ожиданием квадрата случайной величины Х и квадратом ее математического ожидания:

для дискретной случайной величины:

.

для непрерывной случайной величины:

.

Для случайной величины Х средним квадратическим отклонением σ(Х) называется квадратный корень из дисперсии этой случайной величины:.

Если непрерывная случайная величина Х распределена по нормальному закону, то параметры распределения а и σ соответственно являются математическим ожиданием и средним квадратическим отклонением этой случайной величины.

Многомерное и условное распределение вероятностей.

Важным понятием, используемым в эконометрике, является многомерное распределение. Для простоты рассмотрим двумерный случай,  когда событие приобретает второе измерение и связывается уже с двумя случайными переменными. Плотность вероятности двумерной случайной переменной характеризуется функцией от двух переменных . Распределение вероятностей определяется по формуле:

Две случайные переменные  и  называются статистически независимыми, если справедливо соотношение .

Теоретико-вероятностной основой для регрессионной модели служит понятие условного распределения случайной переменной. Понятие условного распределения возникает в задачах, в которых требуется выяснить распределение одной переменной при фиксированных значениях другой.

Например, нас интересует распределение урожайности в каком-то хозяйстве. В одном случае мы знаем уровень внесения минеральных удобрений под будущий урожай, в другом случае — нет. Вполне понятно, что распределение вероятностей для урожайности в двух этих случаях разные. И говоря об условном распределение мы имеем в виду случай, когда уровень внесения минеральных удобрений известен.

Распределение, которое характеризует плотность вероятностей разных значений , при условии, что  известно и принимает фиксированные значения, называется условным распределением.

Функция условной плотности определяется как отношение двух  плотностей :

         ,  

Аналогично ,  

В ходе последующего изложения мы будем широко пользоваться понятием «условное математическое ожидание»: ожидаемое значение некоторой случайной переменной при заданном значении других случайных переменных.

Математическое ожидание , при заданном значении  обозначается символом  и определяется по формуле:




1. Реферат- Театр
2. Реферат- Россия как среда
3. МЕХАНИЧЕСКИЕ МЕТОДЫ ОБЕЗВОЖИВАНИЯ НЕФТИ К механическим способам разрушения эмульсии относятся- отстаива
4. тематика 223 Русский язык 333 Математика 225 Русский язык 332 Истор
5. Где некоторые из них экономически развитые а некоторые развивающиеся
6. Влияние физических упражнений на степень близорукости детей старшего школьного возраста
7. з курсу Історія слов'янських народів 10 триместр Теми рефератів
8. Благовещенский собор
9. Русско-финская война
10. Право и правовые нормы
11. Совершенствование организации и технологии грузовых перевозок с учетом требований рынка
12. Китай в период раннего средневековья империи, аграрные отношения, город
13. ПРАКТИКУМ Москва ИНФРАМ 2003 УДК 075
14. В геометричній прогресії всеохоплююча економічна інтеграція в наш час[Коли] формує єдину транснаціональну
15. тематические методы
16. Лекция 5Угловые измерения 5
17. Лабораторная работа 4
18. ГорноАлтайский государственный университет ГорноАлтайский государственный университет ГА
19. фармакогенетика
20. ЛЕСНОЙ НА ЛЕТНИЙ СЕЗОН 2014 года