Главная страница
Культура
Искусство
Языки
Языкознание
Вычислительная техника
Информатика
Финансы
Экономика
Биология
Сельское хозяйство
Психология
Ветеринария
Медицина
Юриспруденция
Право
Физика
История
Экология
Промышленность
Энергетика
Этика
Связь
Автоматика
Математика
Электротехника
Философия
Религия
Логика
Химия
Социология
Политология
Геология

Основы теории Стохастических систем (лекции). Основы теории стохастических систем



Скачать 18.19 Mb.
Название Основы теории стохастических систем
Анкор Основы теории Стохастических систем (лекции).doc
Дата 13.04.2017
Размер 18.19 Mb.
Формат файла doc
Имя файла Основы теории Стохастических систем (лекции).doc
Тип Лекция
#910
страница 3 из 10
1   2   3   4   5   6   7   8   9   10

2.3 Основные аксиомы теории вероятностей [4]. Из того, что



При любых i, j (i,j = 1,2,..m), то:

P(S=A1+ A2+… Am) = P(A1) + P(A2) +…+ P(Am),

вероятность суммы несовместимых событий поля равна сумме их вероятностей.

Наступление события S согласно аксиоме III может осуществляться или в виде A1 или в виде A2, …в виде Am.

Аксиома III называется правилом сложения вероятностей несовместимых событий.

Если некоторые два события A1 и A2 не являются несовместимыми, то

P( A1 + A2) ≤ P(A1) + P(A2).


















2.4 Элементы теории вероятностей [4]

Случайные события












Контрольные вопросы:

1) Что называется испытанием и событием в испытании?

2) Какие бывают события в испытаниях?

3) Что собой представляет сумма событий, в чем оно заключается?

4) Что понимается под произведением событий?

5) Графическая интерпретация операций над событиями.

6) Свойства поля событий.

7) Что называется частостью и вероятностью событий?

8) Как влияет объем выборки на частость?

9) Основные аксиомы теории вероятностей.

10) Свойства суммы вероятностей.

11) Сущность классического определения вероятности.

Лекция 3

Случайные величины


3.1 Определение случайной величины [5]









m© = C; m(CX) = C m(X).



D© = 0; D(kX) = k2D(X); D(X + Y) = D(X) + D(Y).


Для симметричного распределения аХ=0

дискретных случайных

величин


n, p – параметры распределения

Коэффициент асимметрии

аХ=(q-p)/√npq,

Коэффициент эксцесса

еХ=(1-6p+6p2)/(npq)

С ростом n aX→∞, ξХ→0, биноминальный закон приближается к нормальному.

Для практических целей приближение биноминального распределения к Пуассоновскому получается при n≥60.



Коэффициент асимметрии равен: аХ = 1/√Λ, эксесса ξХ =1/Λ.

Пример. Рассмотрим выборку с возвращением объемом n=30 из большой партии изделий. При соблюдении случайного отбора оно соответствует схеме Бернулли. Доля дефектных изделий во всей партии р(А) = 0,05.

Вероятность обнаружения в выборке “m” числа дефектных изделий рассчитывается по формуле:

Pn(x=m) = {n!/(m!(n-m)!)}*{p(A)mq(A)n-m}/

Расчетная вероятность обнаружения в выборке m дефектных изделий приведена в таблице

m

P30(x=m)

0

0,2146

1

0,3389

2

0,2586

4

0,0451

6

0,0027

9

0,000001




Контрольные вопросы

  1. Виды случайных величин, их особенности.

  2. Способы задания случайных величин.

  3. Что собой представляет плотность вероятности распределения непрерывной случайной величины?

  4. Основные свойства плотности распределения.

  5. Числовые характеристики случайной величины.

  6. Вычисление математического ожидания дискретной и непрерывной случайной величины.

  7. Свойства математического ожидания.

  8. Чем характеризуют рассеяние случайной величины?

  9. Расчет дисперсии дискретной и непрерывной случайной величины.

  10. Основные свойства дисперсии.

  11. Биноминальное распределение дискретной случайной величины, параметры закона распределения.

  12. Распределение Пуассона, параметры закона распределения.


Лекция 4.

Непрерывные случайные величины




4.1. Экспоненциальный закон распределения




4.2.
















Плотность вероятности:

Fk(x) = {1/(2k/2Г(k/2)}*xk/2-1e-x/2,

где Г – гамма фуекция







Контрольные вопросы.

1. Экспоненциальный закон распределения. Функция и плотность распределения. Параметры закона распределения.

2. Нормальный закон распределения. Функция и плотность распределения. Параметры закона распределения.

3. Стандартное нормальное распределение. Параметры распределения.

4. Влияние параметров нормального закона распределения на вид кривой плотности распределения.

5. Вычисление вероятности попадания нормального распределения случайной величины в заданный интервал.

6. Правило «трех сигм», его содержание.

7. Распределение хи-квадрат. Параметры закона распределения.

8. Распределение Стьюдента. Параметры закона распределения.

9. Распределение Фишера. Параметры закона распределения.

Лекция 5

многомерное распределение дискретных

и непрерывных случайных величин

5.1. Параметры многомерных распределений [6]







5.2. Двумерное нормальное распределение
Плотность распределения задается выражением [4]:

рXY(x,y)={1/(2πσXσY√(1-ρXY2)}e-1/2*Q(x,y), (1)

где Q(x,y) =1/(1-ρXY2){(x-mX)2X2+ (y-mY)2/σY2-2 ρXY(x-mX)/ σX(y-mY)/ σY}

здесь mx и my – центры распределения случайных величин X и Y,

σх и σу- стандартные отклонения случайных величин X и Y.

Выражение (1) является плотностью двумерного распределения двух линейно коррелированных величин X и Y, каждая из которых в отдельности нормально распределена с соответствующими значениями центра и дисперсии.

Если величины X и Y независимы и нормально распределены с плотностями соответственно N(x, mx, σx) и N(y, my, σy), то плотность их совместного распределения получается из (1) при ρXY=0 как произведение плотностей N(x, mx, σx) и N(y, my, σy) их одномерных распределений:
ΨXY(x,y)={1/(2πσXσY}exp{-1/2*[(x-mX)2X2+ (y-mY)2Y2 ]}

(2)

Из этого следует, если нормально распределенные величины не еаллированны, то они вместе с тем и независимы. Этот вывод не подходит для произвольного закона распределения, а только для нормального.

Рассмотрим условное нормальное распределение, его плотность равна:

р(y/x)={1/(2πσY√(1-ρXY2)}exp{-1/2[((y-mY)- ρXYYX)

(x-mX))/( σY√(1-ρXY2))]2} (3)

Плотность условного распределения Y при данном значении х является нормальным распределением с центром:

M(Y/x)=mY/x=mY+ ρXY Y/σX)(x-mX), (4)

который является математическим ожиданием Y при данном х

M(Y/x)=mY/x . (5)

Точно также условное стандартное отклонение будет:

σY/x=σY√(1-ρXY2) (6)

Уравнение (4) представляет вместе с тем уравнение линии нормальной регрессии Y по X, которая является прямой линией.

Аналогично регрессия Х по Y будет также линией, а условная дисперсия равна:

σX/y=σX2((1-ρXY2) (7)

Величина (6) представляет теоретическое среднее квадратическое отклонение погрешностей оценки ожидаемого значения Y по х. Отсюда следует, что оценка Y по х с помощью линии регрессии одинакова при всех значениях х.

Функция плотности вероятности двумерного распределния может быть наглядно отображена в трехмерной плоскости.


y- mY= ρXY(x-mX)














mY


mX

Рисунок 1. Сечение плотности двумерного нормального распределения.
Рассекая поверхность нормального распределения плоскостью, параллельной поверхности х-у, в сечении получаем эллипс, за исключением вырожденного случая ρXY=±1. Сечения в разных плоскостях будут давать эллипсы различных размеров с одинаковой ориентацией их главных осей, составляющих некоторый угол с осями координат. Главные оси не могут быть параллельными линии регрессии.

Если значения X, Y не коррелированны, ρXY=0, то в сечении будем иметь эллипс с центром mX, my и с главными осями, параллельными осям координат х и у.

Таким образом, с уменьшением силы корреляционной связи между величинами X и Y происходит все больший поворот главных осей эллипсов относительно координатных осей.

5.3. Закон больших чисел

1. Неравенство Чебышева

Мы видели, что характеристика σХ=√DX представляет некоторую среднюю меру, стандарт, отклонения от центра распределения. Следует ожидать, что отклонения, значительно превышающие по абсолютной величине σХ, должны быть маловероятны.

В случае нормального распределения эта вероятность равна:

Q(t) = P(|X-mX|>t σХ).

где t>0 изображается площадью под нормальной кривой вне интервала (-t, +t). Для t=3 эта вероятность составляет 0,0027; при t=4 вероятность уменьшается до 0, 000063, при t=6 вероятность уменьшается до 2*10-9 и т.д.

Заслугой Чебышева является доказательство неравенства, показывающего, что убывание вероятности Q(t) при возрастании t хотя и не всегда совершается столь быстро, как в нормальном случае, но оно происходит всегда не медленнее, чем по закону 1/t2.

При любом законе распределения, обладающем моментом двух первых порядков (математическое ожидание и дисперсия) верхняя граница вероятности равна:

Q(t) = P(|X-mX|>t σХ)<=1/t2. (8)

Простота и универсальность позволяет использовать неравенство Чебышева для важных теоретических заключений, хотя для практических расчетов оно оказывается слишком грубым [*].

5.4. Основные предельные законы теории вероятностей

Рассмотрим две фундаментальные теоремы теории вероятностей, имеющие обширный круг приложений. Эти теоремы представляют обобщение теорем Я. Бернулли и Лапласа, относящиеся к закону распределения частот (или числа появлений) случайного события в данной серии независимых испытаний.

Число появлений событий в n независимых испытаниях можно рассматривать как сумму n независимых величин. После каждого испытания наблюдатель записывает результат, ставя 1 или 0, в зависимости от того, появилось или не появилось событие в этом испытании. С испытанием связана случайная двузначная величина Xs, s=1, 2, .. Все величины независимы между собой и одинаково распределены согласно таблице распределений:


0

1

q=1-p

p



X

Мы можем представить величины Xs как разные экземпляры одной и той же величины Х (без номера). Сумма Sn = X1+X2+…Xn равна числу m появлению событий в серии испытаний.

Частота событий m/n представляется средним арифметическим величины Xs:

Sn/n = (X1+X2+…Xn)/n. (9)

Для этого представления частости можно рассчитать основные характеристики ее распределения, которые совпадают с биноминальным распределением:

- математическое ожидание М(Sn/n)=p;

- дисперсия D(Sn/n)=pq/n, (10)

Дисперсия частости согласно (10) стремиться к нулю при неограниченном возрастании n. Опираясь на неравенство Чебышева (8) получаем теорему Якова Бернулли:

P{|Sn/n – p| ≥ ξ} = P{|(X1+X2+..+Xn)/n – M(X1+X2+..+Xn)/n| >ξ}→ 0 при n→ ∞

(11)

Теорема Бернулли (11) утверждает, что среднее арифметическое большого числа независимых величин (частного вида – двухзначных) почти наверное будет как угодно близко к своему математическому ожиданию – постоянной величине р.

То обстоятельство, что дисперсия величины Sn/n стремиться к нулю при n→ ∞, имеет следствием устойчивость среднего арифметического. Распределение среднего (частости) концентрируется в сколь угодно малом интервале (р-ξ, р+ξ), а вероятность, приходящаяся на значения вне этого интервала, как угодно мала при достаточно большом n.

В этом случае говорят, что последовательность средних арифметических при при n→ ∞ «сходится по вероятности» к постоянной величине:

P = M(Sn/n). (12)

Факт устойчивости средних арифметических большого числа одинаково распределенных независимых величин имеет место при произвольном распределении каждого слагаемого, если только при этом распределении величины обладают конечной дисперсией.

В этом случае:

Xncp = (X1+X2+…+Xn)/n имеет место D(Xncp) = D(X)/n, (13)

и поэтому D(Xncp)0 при n∞.

На основании неравенства Чебышева получим при сколь угодно малом (но постоянном) ξ>0:

P(|Xncp mX|>ξ)< D(Xn )/ξ2 0, (14)

P(|Xncp mX|≤ξ) ξ2 1,

что доказывает сходимость последовательности Xncp по вероятности к пределу mX при n→∞.

Осредняя достаточно большое число независимых и одинаково распределенных случайных величин, мы получаем с вероятностью, как угодно близкой к единице, значение, сколь угодно мало отличающееся от общего математического ожидания величин. Это положение, называемое «законом больших чисел», было установлено П.Л. Чебышевым (1821 – 1894).

Этот закон выражает основную и общую закономерность, имеющую первостепенное значение, как для обоснования статистических методов, так и для теоретического объяснения большого круга явлений (в области молекулярных процессов).

Контрольные вопросы

1. Понятия случайный вектор, случайные одномерные величины,

к-мерная случайная величина.

2. Функция распределения случайного вектора, его свойства.

3. Плотность и функция распределения непрерывной к-мерной случайной величины, их свойства.

4. Вероятность попадания дискретной к-мерной случайной величины в любую точку счетного множества допустимых точек.

5. Функция распределения дискретной к-мерной случайной величины.

6. Плотность вероятностей двумерного нормального распределения зависимых и независимых случайных величин.

7. Условное нормальное распределение. Центр распределения и дисперсия, линия нормальной регрессии.

8. Неравенство Чебышева.

9. Теорема Бернулли.

10. Закон больших чисел.
Лекция 6

Оценивание параметров. Статистическая проверка гипотез




6.1. Описательная статистика









6.2. Оценивание параметров









6.3.





6.4.






6.5.



6.6.


Контрольные вопросы

1. Что рассматриваются в описательной статистике?

2. Что называется вариационным рядом и как он составляется?

3. Как группируются выборки большого объема?

4. Как строиться выборочная функция распределения?

5. Как строится гистограмма частот?

5. Как вычисляются числовые характеристики выборочного распределения?

6. Что называется точечной оценкой неизвестного параметра?

7. Понятие состоятельности, несмещенности и эффективности оценок.

8. Сущность метода максимального правдоподобия, используемого для оценивания параметров распределения.

9.Что называется доверительным интервалом параметра и доверительной вероятностью?

10. Как вычисляется доверительный интервал математического ожидания нормального распределения?

11. Как вычисляется доверительный интервал дисперсии нормального распределения?


Лекция 7

случайные процессы и их аналитическое описание








7.1











7.2







7.3



7.4 Определение статистических оценок математического ожидания и корреляционной функции случайного процесса

Рассмотрим случайный процесс как совокупность величин X(t). Мы можем в отношении каждой из них решать статистическую оценку интересующих нас параметров: математических ожиданий M[X(t)] и корреляционных моментов RX(t1, t2), Для этого необходимо располагать достаточным числом независимых реализаций процесса X(t), полученных в одинаковых условиях (например, осциллограммы). Для всех реализаций выбирается общее начало отсчета по параметру t, например, начало цикла по изучаемому процессу.

Далее ось параметров разбивается на k равных интервалов, выбирая их длину так, чтобы на ее протяжении каждая реализация мало изменялась. При каждом значении tiв конце каждого интервала математическое ожидание M[X(ti)] мы оцениваем по средней арифметической xcp(ti) из значений xi,1, xi,2, ….xi,n величины полученных из n реализаций процесса.

Получив ряд средних арифметических xcp(t1), xcp(t2), … xcp(tk), их аппроксимируют подходящей кривой и, таким образом получают эмпирическую оценку xcp(t), функции M[X(t)] – математического ожидания процесса.

При оценке корреляционного момента пользуются выше описанной методикой, формула для вычислений имеет вид:
RXcp(t1, t2) = 1/n[xl(t1) – xcp(t1)][xl(t2) – xcp(t2)]

где n – число реализаций; t1, t2 выборочные параметры t; l – реализация процесса 1, 2, ..n.

Давая t1 и t2все возможные значения получают ряд значений RXcp(t1, t2) Аппроксимируя эти значения подходящей поверхностью в координатной системе t1, t2, RX(t1, t2) получают статистическую оценку корреляционной функции.

Аналогично определяют эмпирическое значение взаимной корреляционной функции двух случайных процессов X(t) и Y(t). Расчетная формула имеет вид:
RXYcp(t1, t2) = 1/n [xl(t1) – xcp(t1)][yl(t2) – ycp(t2)].
7.5 Стационарные случайные процессы

На практике часто встречаются случайные процессы, протекающие в вероятностном отношении однородно при изменении параметра времени t. К числу таких процессов относятся помехи в линиях связи, ошибки в системах автоматического регулирования и др. Вероятностный режим таких процессов не изменяется при любом сдвиге всей группы точек t1, t2, ..ts вдоль числовой оси, т.е. при переходе к точкам t1+τ, t2+τ, ..ts+τ, где τ произвольно выбранное время. Поэтому, прежде всего, случайная величина X(t) для любого момента имеет одно и то же распределение и, значит, имеет одинаковые математические ожидания и дисперсии. Для процесса в целом M[X(t)]=const, D[X(t)]=const, а автокорреляционная функция процесса непрерывна и зависит только от разности t2t1=τ, т.е. является непрерывной функцией RX(τ) одного аргумента τ. Такие случайные процессы называются стационарными случайными процессами. Для стационарных процессов доказана сходимость по вероятности среднего по времени от случайной функции:
Xcp T = 1/2T x(t)dt
к математическому ожиданию M[X(t)] при T→∞.

Аналогично этому и для корреляционной функции доказана сходимость по вероятности к величине
1/2Tx(t)x(t+τ)dt RX(τ) при T∞.
Точно так же для двух стационарных и стационарно связанных случайных процессов X(t) и Y(t) доказывается сходимость по вероятности к величине:
1/2T x(t)y(t+τ)dt RXY (τ) при T∞,
если x(t) и y(t) – возможные реализации процессов соответственно X(t) и Y(t).
Определение статистических оценок стационарного случайного процесса можно производить не по множеству реализаций, а по единственной записи, если она охватывает большой интервал значений параметра времени t. При этом на оси t откладывают nравных отрезков и в конце каждого из них определяются значения x1, x2., …xn.

Средняя арифметическая хсриз них дает статистическую оценку математического ожидания случайного процесса.

Статистическая оценка автокорреляционной функции находится по формуле:
RX(τ) = 1/(n) (xl xcp)(xl+τ xcp).
Взаимная корреляционная функция двух стационарных процессов рассчитывается по формуле:
RXY(τ) = 1/(n) (xl xcp)(yl ycp).

Контрольные вопросы

  1. Дайте определение случайного процесса.

  2. Чем характеризуется случайный процесс. Сечение случайного процесса.

  3. Одномерный закон распределения мгновенных значений случайной функции и связанные с ним основные характеристики.

  4. Многомерный закон распределения мгновенных значений случайной функции и связанные с ним основные характеристики.

  5. Гауссовский случайный процесс и его характеристики.

  6. Определение статистических оценок математического ожидания и корреляционной функции случайного процесса.

  7. Стационарные случайные процессы и их характеристики.

Лекция 8

Корреляционный анализ

Корреляционный анализ, разработанный К. Пирсоном и Дж. Юлом является одним из методов статистического анализа взаимозависимости нескольких переменных – компонент случайного вектора.

Одним из основных показателей взаимосвязи двух случайных величин является парный коэффициент корреляции, служащий мерой линейной статистической зависимости между этими величинами, когда статистическая связь между соответствующими признаками в генеральной совокупности линейна.

Указанное условие выполняется, если генеральная совокупность распределена по многомерному нормальному закону.


1   2   3   4   5   6   7   8   9   10
написать администратору сайта