<< Пред. стр.

стр. 2
(общее количество: 4)

ОГЛАВЛЕНИЕ

След. стр. >>


bn
Р
g1
g2

Gn
Z=X+Y
СВ Z принимает значения ak+bs, где ak=a1,a2,…,an; bs=b1,b2,…bm.
Общее количество возможных значений СВ = m?n.
P(Z=ak+bs)=P(X=ak, Y=bs)
Для нахождения такой вероятности необходимо знать закон совместного распределения СВ X и Y.
Набор точек (ak,bs) вместе с вероятностями P(X=ak, Y=bs) называется совместным распределением СВ X и Y. Обычно такое распределение задается таблицей.
Определение закона распределения суммы СВ по законам распределения слагаемых называется композицией законов распределения.

X \Y
b1
b12

bs

bm
Px
a1
P11
P12

P1s

P1m
P1
a2
P21
P22

P2s

P2m
P2








ak
Pk1


Pks

Pkm
Pk








an
Pn1
Pn2

Pns

Pnm
Pn
Py
g1
g2

gs

gm
1

Наиболее просто вероятности Pks находятся в случае независимости СВ X и Y. Две СВ X и Y называются независимыми тогда и только тогда, когда
P(X=ak, Y=bs)=P(X=ak)?P(Y=bs)
Pks=Pk?Ps
По известному закону распределения совместного распределения СВ X и Y могут быть найдены одномерные законы распределения СВ X и Y.


Теорема . Если СВ Х,Y являются независимыми, то любые функции j(Х) и y(У) от этих величин также являются независимыми.
Распределение функции от случайной величины
Х – непрерывная СВ
. По закону распределения СВ Х. Найти закон распределения СВ Y.
Если СВ ХI[х0 ,х1], то I [y0 ,y1].
Предполагается, что функция j(х) является однозначной и имеет обратную функцию q(y).


Воспользовавшись элементами вероятности:


получим .
Закон распределения не меняется, если q(y) является линейной.
fy(y)=fx(x).
Многомерные законы распределения СВ
Часто при решении практических задач мы имеем дело не с одной, а с совокупностью нескольких случайных величин, которые взаимосвязаны.
n x1,x2,…,xn n-мерная случайная величина – совокупность n взаимосвязанных случайных величин. Для ее описания используются многомерные законы распределения.

Двумерные функции распределения
X,Y F(x,y)=P(X<x,Y<Y)
Функция F(x,y) обладает свойствами, аналогичными свойствам одномерной функции:
– не убывающая 1. x2?x1 ? F(x2,y)?F(x1,y)
– не отрицательная y2?y1 ? F(x,y2)?F(x,y1)
0?F(x,y)? 1 2. F(?,?)= 1 F(-?,-?)=0
3. Fx(x)=P(X<x+=P(X<x,Y<?)=F(x,?)
Fy(y)=P(Y<y)=P(X<?,Y<y)=F(?,y)
f(x,y) – функция плотности вероятности совместного распределения величин x и y.


1. f(x,y)?0
2. – условие нормировки
3. По известным двумерным находятся соответствующие одномерные

В случае статистической независимости СВ Х и У
F(x,y)=Fx(x)?Fy(y)
f(x,y)=fx(x)?fy(y)
F(x,y)=Fx(x)?Fy(y/x)=Fx(x/y) – для условных
f(x,y)=fx(x) ?f(y/x)=fy(y) ?f(x/y)

Раздел 4. Числовые характеристики СВ

Исчерпывающие представления о СВ дает закон её распределения.
Во многих задачах, особенно на заключительной стадии, возникает необходимость получить о величине некоторое суммарное представление: центры группирования СВ – среднее значение или математическое ожидание, разброс СВ относительно её центра группирования.
Эти числовые характеристики в сжатой форме отражают существенные особенности изучаемого распределения.

Математическое ожидание (МО)

М(х), МО(х), mx, m


Основные свойства МО:
1. М(х) СВ Х ? Хmin?М(х)?Хmax
2. М(С)=С МО постоянной величины есть величина постоянная
3. М(Х±У)=М(Х) ±М(У)
4. М(Х?У)=М(х) ?М(у) ? М(Сх)=СМ(х) – МО произведения двух независимых СВ
5. М(аХ+вУ)=аМ(Х)+вМ(У)
6. М(Х-m)=0 – МО СВ Х от её МО.

МО основных СВ
Дискретные Случайные Величины
1. Биноминальные СВ МО(Х)=np
2. Пуассоновские СВ МО(Х)=l
3. Бернуллиевы СВ МО(Х)=р
4. Равномерно распред. СВ

Непрерывные Случайные Величины
1. Равномерно распределенная СВ
2. Нормально распределенная СВ MO(X)=m
3. Экспоненциально распределенная СВ

Дисперсия СВ
1. R=Xmax-Xmin – размах СВ
2. M(|X-m|) – среднее абсолютное отклонение СВ от центра группирования
3. M(X-m)2 – дисперсия – МО квадрата отклонения СВ от центра группирования
M(X-m)2=D(X)=s2=sx2=s2(X)
– среднеквадратическое отклонение (стандартное отклонение).

Основные свойства дисперсии:
1. Для любой СВ Х: D(X)?0. При Х=const D(X)?0.
2. D(X)=M(X2)-M2(X)=M(X2-2mX-m2)
3. D(cX)=c2D(X)
4. D(X+c)=D(X)
5. D(X+Y)=D(X)+D(Y), D(X-Y)=D(X)+D(Y)
В общем случае:
D(X+Y)=M(X+Y-mx+y)2=M((X-mx)+(Y-my))2=M((X=mx)2+2(X-mx)(Y-my)+(Y-my)2)=
=D(X)+2M((X-mx)(Y-my))+D(Y). Второй член этого выражения называется корреляционным моментом. mx+y=M(X)+M(Y)=mx+my. D(X)=M(X-mx)2.
M((X-mx)(Y-my))=K(X,Y)=Kxy=cov(x,y) – ковариация
Kxy/sxsy=rxy – коэффициент корреляции
6. Независимые СВ: D(XY)=D(X)D(Y)+M2(X)D(Y)+M2(Y)D(X)

Дисперсия основных СВ
ДСВ
1. Биноминальные D(X)=npq
2. Пуассоновские D(X)=l
3. Бернуллиевы D(X)=pq
НСВ
1. Равномерно распределенные D(X)=(b-a)2/12
2. Нормально распределенные D(X)= s2
3. Экспоненциально распределенные D(X)=1/l2

Математическое ожидание и дисперсия суммы случайных величин
X1,X2,…,Xn – независимые СВ с одинаковым законом распределения.
M(Xk)=a D(Xk)=s2
– среднее арифметическое

Другие числовые характеристики СВ
Моменты распределения делятся на начальные моменты, центральные и смешанные.
1. Начальные моменты qго порядка (q=1,2,…): M(X1)=МО

2. Центральные моменты qго порядка: M((X-m)2)=D

M(x-m)q=M(x)q-Cq1mM(x)q-1+ Cq2mM(x)q-2+…+(-1)qmq
M(x-m)3= M(x)3-3mM(x)2+2m3
M(x-m)2= M(x)2-m2=D(x)
Центральные моменты 3го и 4го порядков используются для получения коэффициентов асимметрии и эксцесса (As, Ex), характеризующих особенности конкретного распределения.

Для нормального закона распределения As=0.
Если As>0, то распределение имеет правостороннюю скошенность. При As<0 – левосторонняя скошенность.


Эксцесс характеризует остро- или плосковершинность исследуемого распределения по сравнению с нормальным распределением.
НСВ:
1. Нормальное распределение: Ex=As=0
2. Равномерное распределение: As=0, Ex=-1,2
3. Экспоненциальное распределение: As=2, Ex=9.
Биноминальное:
3. Смешанные моменты:
Начальный смешанный момент порядка (k+s) системы 2х СВ (X+Y):

Центральный моменты порядка (k+s):

Центральный смешанный момент второго порядка:
Kxy=M((X-mx)(Y-my)) – корреляционный момент
– коэффициент корреляции
Мода ДСВ – значение СВ, имеющее максимальную вероятность.
Мода НСВ – значение СВ, соответствующее максимуму функции плотности вероятности f(x).
Обозначение моды: m0, M0(x), mod(x).
Медиана СВ Х (me, Me(x), med(x)) – значение СВ, для которого выполняется равенство:
P(X<me)=P(X>me)
F(me)=0,5.
Медиана – это площадь, получаемая делением фигуры пополам.
В симметричном распределении m=m0=me. В несимметричном они не равны.
Так как мода и медиана зависят от структуры распределения, их называют структурными средними.
Медиана – это значение признака, который делит ранжированный ряд значений СВ на две равных по объему группы. В свою очередь, внутри каждой группы могут быть найдены те значения признака, которые делят группы на 4 равные части – квартиль.
Ранжированный ряд значений СВ может быть поделен на 10 равных частей – децилей, на 100 – центилей.
Такие величины, делящие ранжированный ряд значений СВ на несколько равных частей, называются квантилями.
Под p% квантилями понимаются такие значения признака в ранжированном ряду, которые не больше p% наблюдений.

Предельные теоремы теории вероятностей
Делятся на две группы: Закон Больших Чисел (ЗБЧ) и Центральная Предельная Теорема (ЦПТ).
Закон Больших Чисел устанавливает связь между абстрактными моделями теории вероятностей и основными ее понятиями и средними значениями, полученными при статистической обработке выборки ограниченного объема из генеральной совокупности. P, F(x), M(x), D(x).
ЗБЧ доказывает, что средние выборочные значения при n®? стремятся к соответствующим значениям генеральной совокупности: hn(A)®P, Xср®M(X), sср2®D(X), F*(X)®F(X).
Лемма Маркова. Если Y – СВ, принимающая не отрицательные значения, то для любого положительного e:
P(Y?e)?M(x)/e, P(Y<e)?1-M(x)/e.
Доказательство. Рассмотрим Y и : Ye?Y, M(Ye)?M(Y)
M(Ye)=0?P(Y<e)+e?P(Y?e)=e?P(Y?e)
M(Y)?M(Ye)=e?P(Y?e).
Лемма позволяет сделать оценку вероятности наступления события по математическому ожиданию этой СВ.
Неравенство Чебышева. Для любой СВ с ограниченными первыми двумя моментами (есть МО и D) и для любого e>0:

Доказательство. По лемме Маркова: рассмотрим не отрицательную СВ Y
Y=(X-m)2 M(Y)=M(X-m)2=D(x)
P(|X-m|?e)=P((X-m)2?e2)=P(Y?e2)?M(Y)/e2=D(x)/e2.
Требуется только знание дисперсии СВ при любом законе распределения.

ЗБЧ в форме Чебышева. X1, X2, …, Xn – последовательность независимых СВ. Для любого e>0 и n®?:

ЗБЧ в форме Бернулли. m – число успехов в серии из n последовательных испытаний Бернулли. P – вероятность успеха в каждом отдельном испытании. e>0:

ЗБЧ носит чисто качественный характер. В тех же условиях неравенство Чебышева позволяет получить количественную характеристику оценки вероятности.
Пример. Для определения вероятности события проведено 40000 опытов. События наблюдалось в m=16042 случаях. За вероятность события принимается относительная частота наступления события: m/n»0,4. Применяя неравенство Чебышева, оценить, с какой вероятностью можно гарантировать, что число 0,4, принятое за вероятность, отличается от истинной вероятности не больше, чем на 0,05.

Неизвестные p и q находим из системы уравнений:
=>
Центральная предельная теорема Ляпунова.
Предмет внимания этой теоремы – распределение суммы большого числа СВ.
X=(x1+x2+…+xn)/n
Распределение суммы n независимых СВ в независимости от их законов распределения асимптотически сходятся к нормальному закону при неограниченном числе слагаемых и ограниченных двух первых моментах (МО и D).

Если si2=s2, то sх2=s2/n, .
D(x)=sх2=(s12+s22+…sn2)/n2
ЦПТ универсальны и справедливы как для НСВ, так и для ДСВ.
P(a<X<b)=Ф(t2)-Ф(t1).
t2=(b-mx)/sx t2=(a-mx)/sx
Sn=(X1+X2+…+Xn)/n
P(|Sn-m|<zs)=2Ф(z)
M(xk)=m D(xk)=s2

ЦПТ в интегральной форме Муавра-Лапласа.


Статистическое оценивание параметров распределения
Мы анализируем только выборки из генеральной совокупности. По средне выборочным параметрам находим параметры самой генеральной совокупности.
Задачи такого рода решаются методами проверки статистических гипотез и статистической оценки параметров распределения.
Прежде нужно получить и провести первичную обработку исходных экспериментальных данных.
Статистические ряды часто изображают графически в виде полигона, гистограммы, кумулятивной кривой F*(x).
Полигон – ломаная линия, соединяющая в декартовой системе координат точки (xi,ni), (xi,mxi).
Кумулятивная кривая строится по точкам (xi,F*(xi)).
Гистограмма – на оси абсцисс – отрезки интервалов t, на этих интервалах строятся прямоугольники с высотой, равной относительной частоте признака. По гистограмме легко строится полигон.
И полигон, и гистограмма характеризуют функцию f*(x) – плотность вероятности.
НСВ – проблема выбора интервала варьирования h.
h выбирается, исходя из необходимости выявления характерных черт рассматриваемого распределения.
Правило Старджесса:
Как только характерные особенности распределения проявились, ставится вопрос об условиях, при которых сформировалось данное распределение – вопрос об однородности статистических данных.
Если функция f*(x) – бимодальная (имеет два максимума), то статистическое данные неоднородные.
Методы математической статистики должны позволить сделать обоснованные выводы о числовых параметрах и законе распределения генеральной совокупности по ограниченному числу выборок из этой совокупности.
Состав выборок случаен и выводы могут быть ложными. С увеличением объема выборки вероятность правильных выводов растет. Всякому решению, принимаемому при статистической оценке параметров, ставится в соответствие некоторая вероятность, характеризующая степень достоверности принимаемого решения.
Задачи оценки параметров распределения ставятся следующим образом:
Есть СВ Х, характеризуемая функцией F(X, q).
q – параметр, подлежащий оценке.
Делаем m независимых выборок объемом n элементов xij (i – номер выборки, j – номер элемента в выборке).
1 x11, x12, …, x1n X1
2 x21, x22, …, x2n X2

m xm1, xm2, …, xmn Xm
Случайные величины X1, X2,…Xm мы рассматриваем как m независимых СВ, каждая из которых распределена по закону F(X, q).
Всякую однозначную функцию наблюдений над СВ х, с помощью которой судят о значении параметра q, называют – оценкой параметра q.

Выбор оценки, позволяющей получить хорошее приближение к оцениваемому параметру – задача исследования.

Основные свойства оценок
Несмещенность, эффективность и состоятельность.
Оценка параметра q называется несмещенной, если M( )=q.
Если – в оценке параметра q имеется систематическая ошибка.
Несмещенность оценки гарантирует отсутствие систематической ошибки в оценке параметра.
Несмещенных оценок может быть несколько.
– несмещенная оценка q.
Разброс параметров или рассеяние величины относительно математического ожидания q характеризует дисперсия D( ), D( ).
Из двух или более несмещенных оценок предпочтение отдается оценке, обладающей меньшим рассеянием относительно оцениваемого параметра.
Оценка называется состоятельной, если она подчиняется закону больших чисел:

На практике не всегда удается удовлетворить одновременно всем трем требованиям.

Оценка математического ожидания по выборке
Теорема 1. Среднее арифметическое по n независимым наблюдениям над СВ x с МО m является несмещенной оценкой этого параметра.
Доказательство: x1,x2,…,xn M(x)=m M(x1)=M(x2)=…=M(xn)=m

Теорема 2. Среднее арифметическое по n независимым наблюдениям над СВ x с МО m и дисперсией D(x)=s2 является состоятельной оценкой МО.
Доказательство: D(x)=s2 D(x1)=D(x2)=…=D(xn)=s2

Теорема 3. Если СВ Х распределена по нормальному закону с параметрами (m,s2), то несмещенная и состоятельная оценка МО m имеет минимальную дисперсию s2/n => является и эффективной.

Оценки дисперсии по выборке
Если случайная выборка состоит из n независимых наблюдений над СВ Х с M(X)=m и D(X)=s2, то выборочная дисперсия не является несмещенной оценкой дисперсии генеральной совокупности.

Несмещенной оценкой D(x) является , .
Легко доказать по формуле Чебышева, что оценки S2 и являются состоятельными оценками дисперсии.
Несмещенная, состоятельная и эффективная оценка дисперсии:

Если МО генеральной совокупности неизвестно, то используют .
Существуют регулярные методы получения оценок параметров генеральной совокупности по данным выборок.
Методы оценки параметров генеральной совокупности
Метод наибольшего (максимального) правдоподобия (МНП)(ММП) обладает следующими достоинствами:
1. Всегда приводит к состоятельным оценкам (иногда смещенным)
2. Получаемые оценки распределены асимптотически нормально и имеют минимально возможную дисперсию по сравнению с другими асимптотически нормальными оценками.
Недостаток: требуется решать громоздкие системы уравнений.
Имеется СВ Х, f(x,q) – функция ее плотности вероятности, выражение которой известно.
q – неизвестный параметр, подлежащий оценке.
x1, x2,…,xn – n независимых наблюдений над СВ x.
В основе МНП лежит функция L(q) – функция правдоподобия, формирующаяся с учетом свойств многомерной функции распределения наблюдений над СВ х.
f(x1, x2,…,xn,q)=f(x1, q)?f(x2,q)?…?f(xn,q)
В указанное равенство подставляются данные и получаем функцию L(q):
L(q)=f(x1, q)?f(x2,q)?…?f(xn,q)
За максимальное правдоподобное значение параметра q принимаем , при которой L(q) максимально.
L'(q)=0 => qmax=

Метод моментов(Метод Пирсона).

Метод обладает следующими достоинствами:
Оценки получаемые этим методом всегда являются состоятельными.
Метод моментов мало зависит от закона распределения случайной величины.
Сложность вычисления незначительна.
Известна случайная величина Х, которая характеризуется f(x, ?1, ?2…?q), аналитический вид этой функции известен.
По выборке объёмом n х1,х2,х3,…хn – значения случайной величины в выборке вычисляем эмпирические начальные моменты случайной величины:


Находим теоретические моменты:


Основная идея метода моментов заключается в приравнивании значения эмпирических значений моментов теоретическим.


Решим систему q-уравнений с q-неизвестными:
состоятельные оценки.
Состоятельность этих оценок основана на том, что эмпирические моменты при достаточно большом n (n>?) стремится к теоретическим. Выполняется закон больших чисел.


Распределение средней арифметической для выборки
из нормальной совокупности. Распределение Стьюдента.

Выборочное среднее рассчитанное по конкретной выборке, есть конкретное число. Состав выборки случаен и среднее арифметическое вычисленное по элементам другой выборки того же объёма, будет число отличное от первого.
- средняя арифметическая величина меняющаяся от выборки к выборке.
Теорема: Если случайная величина Х подчиняется нормальному закону с параметрами m и ?2 Х(m, ?2), а х1,х2,х3,…,хn – это выборка из генеральной совокупности, то средняя арифметическая:

так же является случайной величиной подчиняющаяся нормальному закону с параметрами m и ?2/n, а нормированная случайная величина:

так же подчиняется нормальному закону с параметрами (0;1).

Предполагается при использовании таблиц интеграла вероятности, что объём выборки n достаточно велик(n ? 30).
Существует достаточно большое количество технических задач в которых не удаётся собрать выборку такого объёма. Тем не менее анализу такой выборки необходимо дать вероятностную оценку.

В 1908 году английский математик Вильям Госсет дал решение задачи малых выборок (псевдоним Стьюдент). Стьюдент показал, что в условиях малых выборок надо рассматривать не распределение самих средних, а их нормированных отклонений от средних генеральных.
Надо рассматривать:

- это чётное распределение.
Оно зависит только от объёма выборки n и не зависит ни от математического ожидания, ни от дисперсии случайной величины Х. При n>? t – распределение Стьюдента переходит в нормальное распределение.
Поскольку в большинстве случаев ? генеральной совокупности неизвестно, то работает с такой величиной:
- состоятельная и несмещённая оценка.
Существуют t таблицы распределения Стьюдента.
Величина доверительной вероятности, её выбор находятся за пределами прикладной статистики. Они задаются самим исследователем. Величина доверительной вероятности определяется тяжестью тех последствий, которые могут произойти в случае, если произойдёт нежелательное событие.
Величина tn,p показывает предельную случайную ошибку расхождения средневыборочного и математического ожидания.

Распределение дисперсии в выборках нормальной совокупности.
Распределение ?2 Пирсона.
Выборочная дисперсия так же является случайной величиной меняющейся от выборки к выборки.
М(Х) – известно;
М(Х) – не известно.

1) Имеется случайная величина Х, которая подчиняется нормальному закону с параметрами (m, ?2),
где: хi(i = 1, 2, …, n) – независимые наблюдения над случайной величиной.
Для дисперсии мы выбираем вот такую оценку:
- несмещённая, состоятельная и эффективная оценка дисперсию генеральной совокупности.

Величина Ui является случайной величиной с параметрами (0;1).

<< Пред. стр.

стр. 2
(общее количество: 4)

ОГЛАВЛЕНИЕ

След. стр. >>