Скачать 1.26 Mb.
|
^ ![]() ![]() Несмотря на грубость получаемой оценки неравенство Чебышева имеет достаточно широкое и полезное применение благодаря тому, что оно справедливо для любых законов распределения, кроме закона распределения Коши. С одним из таких применений мы познакомимся в разделе 2 «Математическая статистика». Запишем вероятность, подлежащую оценке, как интеграл от плотности распределения случайной величины ? по отрезкам оси (-?, M[?]-A], (M[?]+A, ?), то есть по множеству ![]() ![]() ![]() ![]() Окончательно ![]() Существуют другие записи неравенства Чебышева: если A = k?, то ![]() или ![]() Для того, чтобы оценить степень грубости оценки, вытекающей из неравенства Чебышева, сопоставим ее с точными значениями вероятностей, установленными в разд. 1.6.6.4 для нормально распределенной случайной величины. Точные значения: ![]() ![]() Значения вероятностей, полученных из неравенства Чебышева для тех же отклонений значений случайной величины от математического ожидания: ![]() ![]() ^ 1.7.1. Функции распределения и плотности распределения Рассмотрим двумерный случайный вектор, то есть двумерный вектор, каждая составляющая которого есть непрерывная случайная величина: ![]() Как и ранее, случайный вектор и его случайные компоненты обозначим греческими буквами, а значения, которые может принимать вектор и его компоненты – соответствующими латинскими буквами, то есть будем считать, что случайный вектор ζ принимает значения ![]() Функция распределения двумерного случайного вектора есть вероятность совместного осуществления событий: ![]() ![]() ![]() поэтому ![]() Область интегрирования показана на рис. 23. В силу монотонности вероятностной меры функция распределения – неубывающая функция по каждому аргументу, поэтому плотность распределения есть неотрицательная функция двух аргументов, которая описывает некоторую поверхность над координатной плоскостью. Эта поверхность приближается к плоскости x0y при удалении значений аргументов от начала координат в любом направлении. Понятно, что ![]() Если по одному из аргументов ограничений нет, то ![]() ![]() Таким образом мы получили маргинальные (частные) функции распределения ![]() ![]() ![]() ![]() ![]() ![]() Выделим на координатной плоскости область, показанную на рис. 24. Вероятность того, что случайный вектор принимает значения из этой области, равна ![]() ![]() Условная функция распределения получается в результате предельного перехода: ![]() ![]() ![]() По теореме о среднем, внутри интервала ![]() ![]() ![]() поэтому ![]() Условная плотность распределения есть производная от условной функции распределения: ![]() Аналогично ![]() Обычно обозначают ![]() ![]() ![]() ![]() С учетом этих соотношений перепишем формулы для маргинальных распределений в виде: ![]() ![]() Это формулы полной вероятности для непрерывных случайных величин. Поскольку ![]() ![]() ![]() Если ? и ? независимы, то ![]() ![]() ![]() Справедливо и обратное: если ![]() Признак независимости случайных величин: две случайные величины независимы тогда и только тогда, когда их совместная плотность распределения может быть представлена как произведение маргинальных плотностей распределения этих величин (см. также разд. 1.2.3). ^ Моменты случайных величин определяются, как и ранее, следующими формулами начальные моменты k-го порядка ![]() ![]() центральные моменты k-го порядка: ![]() ![]() Среди этих моментов самыми употребительными являются математические ожидания ![]() и дисперсии ![]() ![]() Математическое ![]() ![]() Из условных моментов выделим лишь первые начальные (условные математические ожидания) и вторые центральные (условные дисперсии): ![]() ![]() ![]() ![]() Как и ранее, во всех случаях ![]() ![]() ![]() ![]() Для двумерных случайных величин вводятся смешанные моменты: начальные порядка k, r ![]() центральные порядка k, r ![]() Из них наиболее употребительным является центральный смешанный момент порядка (1, 1), который называется ковариацией и обозначается cov(?, ?): ![]() Выясним связь между этим и начальным смешанным моментом того же порядка: ![]() ![]() ![]() ![]() ![]() В итоге получаем, что ![]() ![]() Если случайные величины ? и ? независимы, в соответствии с признаком независимости, сформулированным ранее, ![]() = ![]() то есть мы видим, что двукратный интеграл в этих условиях преобразуется в произведение однократных интегралов, каждый из которых равен 0. В самом деле, ![]() ![]() Поэтому при условии независимости случайных величин ? и ? их первый центральный смешаный момент, или ковариация, равна 0. При взаимно однозначной зависимости между ? и ?, например, линейной ![]() ![]() ![]() Это означает, что ковариация есть характеристика степени зависимости между случайными величинами. Для того, чтобы избавиться от масштаба значений, принимаемых случайными величинами, в качестве показателя линейной зависимости используется частное от деления ковариации на произведение среднеквадратических значений случайных величин: ![]() Эта величина называется коэффициентом корреляции. Случайные величины, у которых коэффициент корреляции равен нулю, называются некоррелированными. Независимые случайные величины с необходимостью некоррелированы. Обратное, вообще говоря, неверно! Из некоррелированности случайных величин их независимость, вообще говоря, не следует. Это понятно хотя бы потому, что из равенства нулю центрального смешанного момента порядка (1, 1) вовсе не следует, что все центральные смешанные моменты более высоких порядков также равны нулю. Определим максимально возможное значение коэффициента корреляции. Естественно предположить, что своего максимального значения коэффициент корреляции достигает при взаимно однозначной связи между ? и ?, например, линейной ![]() ![]() ![]() ![]() а это означает, что ![]() ^ Компонентами ковариационной матрицы являются центральные моменты компонент случайного вектора: вторые центральные моменты и ковариации. Математическое определение ковариационной матрицы: ![]() ![]() Математическое ожидание случайной матрицы есть матрица, каждый элемент которой есть математическое ожидание соответствующего элемента исходной случайной матрицы. В итоге ковариационная матрица двумерного случайного вектора приобретает вид ![]() Как видно, это симметричная квадратная матрица, ее размер соответствует размерности исходного случайного вектора. Определитель этой матрицы вычисляется достаточно просто: ![]() Если случайные компоненты вектора ![]() ![]() ![]() При взаимно однозначной связи между ? и ?, например линейной ![]() ![]() Для представления степени взаимной зависимости между компонентами случайного вектора применяется корреляционная матрица, элементами которой являются коэффициенты корреляции ![]() Если компоненты случайного вектора независимы или хотя бы некоррелированы, корреляционная матрица становится единичной матрицей. ^ Задан общий вид линейной функции случайного вектора: ![]() где ![]() ![]() Найти математическое ожидание ![]() ![]() ![]() ![]() то есть, как и ранее, математическое ожидание линейной функции от случайного вектора есть функция от математического ожидания. Для нахождения ковариационной матрицы вектора ![]() ![]() ![]() В конечном итоге получим важную формулу: ![]() Как и ранее, мы видим, что ковариационная матрица не зависит от вектора ![]() Возможно так подобрать матрицу A, чтобы ковариационная матрица ![]() ![]() Рассмотрим важный частный случай, когда матрица A = (a, b), а вектор ![]() ![]() ![]() Пользуясь только что полученной формулой, получим ![]() Ковариационная матрица (в нашем случае – дисперсия) получается после преобразований, которые мы осуществим по формуле для ковариационной матрицы: ![]() ![]() Перемножив эти два вектора, окончательно получим ![]() В частном случае, когда ? и ? независимы, дисперсия случайной величины ? = a? + b? ![]() Если a = b = 1, эта формула приобретает совсем простой вид и означает, что дисперсия суммы двух независимых случайных величин равна сумме их дисперсий: ![]() Полученные формулы справедливы вне зависимости от вида плотности распределения участвующих случайных величин. |
![]() | Вопросы к экзамену по теории вероятностей для бф+Н Предмет теории вероятностей. Испытание и событие. Классификация событий. Классическое определение вероятности (полная группа событий,... | ![]() | Экзаменационные вопросы по курсу “Теория вероятностей и математическая статистика” Предмет теории вероятностей, элементарные исходы, случайные события, виды случайных событий, основные понятия и определения, вероятность... |
![]() | Вопросы по теории вероятностей, V семестр Понятие о случайном процессе. Многомерные функции распределения случайного процесса. | ![]() | Задачи по теории вероятностей с решениями Комбинаторика ... |
![]() | Методические рекомендации для выполнения самостоятельной внеаудиторной... Тема: «Элементы теории вероятностей» | ![]() | 1. Предмет и методология теории государства и права ... |
![]() | V2: Основные понятия теории вероятностей Игральная кость бросается один раз. Тогда вероятность того, что на верхней грани выпадет нечетное число очков, равна… | ![]() | Вопросы для подготовки к экзамену (4 сем) Основные понятия теории вероятностей. Случайные события, операции над событиями. Классическое определение вероятности события и ее... |
![]() | 1: Предмет и метод экономической теории Синтез основан на соединении отдельных частей явления, изученных в процессе анализа в единое целое. Индуктивный метод познания идет... | ![]() | Перечень вопросов к экзамену по «микроэкономике» Предмет экономической теории. Макроэкономика и микроэкономика. Методы исследования в экономической теории |