Теория случайных процессов

Лекции по предмету «Математика»
Информация о работе
  • Тема: Теория случайных процессов
  • Количество скачиваний: 88
  • Тип: Лекции
  • Предмет: Математика
  • Количество страниц: 20
  • Язык работы: Русский язык
  • Дата загрузки: 2015-02-25 01:49:45
  • Размер файла: 157.42 кб
Помогла работа? Поделись ссылкой
Ссылка на страницу (выберите нужный вариант)
  • Теория случайных процессов [Электронный ресурс]. – URL: https://www.sesiya.ru/lekcii/matematika/1386-teoriya-sluchaynyh-processov/ (дата обращения: 12.05.2021).
  • Теория случайных процессов // https://www.sesiya.ru/lekcii/matematika/1386-teoriya-sluchaynyh-processov/.
Есть ненужная работа?

Добавь её на сайт, помоги студентам и школьникам выполнять работы самостоятельно

добавить работу
Обратиться за помощью в подготовке работы

Заполнение формы не обязывает Вас к заказу

Информация о документе

Документ предоставляется как есть, мы не несем ответственности, за правильность представленной в нём информации. Используя информацию для подготовки своей работы необходимо помнить, что текст работы может быть устаревшим, работа может не пройти проверку на заимствования.

Если Вы являетесь автором текста представленного на данной странице и не хотите чтобы он был размешён на нашем сайте напишите об этом перейдя по ссылке: «Правообладателям»

Можно ли скачать документ с работой

Да, скачать документ можно бесплатно, без регистрации перейдя по ссылке:

Конспект лекций по дисциплине «Теория случайных процессов»


ТЕМА 1. ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ СЛУЧАЙНЫХ ПРОЦЕССОВ 2
1.1. Определение случайного процесса. Основные подходы к заданию случайных процессов. Понятие реализации и сечения. Элементарные случайные процессы. 2
1.2. Некоторые классы и виды случайных процессов 3
ТЕМА 2. ЭЛЕМЕНТЫ КОРРЕЛЯЦИОННОЙ ТЕОРИИ СЛУЧАЙНЫХ ПРОЦЕССОВ 4
2.1. Понятие корреляционной теории случайных процессов 4
2.2. Математическое ожидание и дисперсия случайного процесса. Среднеквадратическое отклонение 5
2.3. Корреляционная функция случайного процесса и ее свойства. Нормированная корреляционная функция 5
2.4. Взаимная корреляционная функция и нормированная взаимная корреляционная функция двух случайных процессов 6
2.5 Вероятностные характеристики суммы двух случайных величин 6
ТЕМА 3. ЭЛЕМЕНТЫ СЛУЧАЙНОГО АНАЛИЗА 7
3.1. Сходимость и непрерывность 7
3.2. Производная случайного процесса и ее свойства 8
3.3. Интеграл от случайного процесса и его свойства 9
ТЕМА 4. КАНОНИЧЕСКИЕ РАЗЛОЖЕНИЯ СЛУЧАЙНЫХ ПРОЦЕССОВ 10
4.1. Понятие канонического разложения случайного процесса 10
4.2. Понятие обобщенной функции. Дельта-функция Дирака. Интегральное каноническое представление случайных процессов. 11
4.3. Линейные и нелинейные преобразования случайных процессов 12
ГЛАВА 5. СТАЦИОНАРНЫЕ CЛУЧАЙНЫЕ ПРОЦЕССЫ 14
5.1. Понятие стационарного случайного процесса. Стационарность в узком и широком смыслах 14
5.2 Свойства вероятностных характеристик стационарного случайного процесса 15
5.3. Стационарно связанные случайные процессы. Производная и интеграл от стационарного случайного процесса 15
5.4. Эргодические стационарные случайные процессы и их характеристики 16
5.5. Потоки событий 17
ТЕМА 6. ЦЕПИ МАРКОВА 19
6.1. Цепи Маркова. 19



ТЕМА 1. ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ СЛУЧАЙНЫХ ПРОЦЕССОВ

1.1. Определение случайного процесса. Основные подходы к заданию случайных процессов. Понятие реализации и сечения. Элементарные случайные процессы.

Случайным (стохастическим, вероятностным) процессом называется функция действительного переменного t, значениями которой являются соответствующие случайные величины X(t).
В теории случайных процессов t трактуется как время, принимающее значения из некоторого подмножества Т множества действительных чисел (t T, T R).
В рамках классического математического анализа под функцией y=f(t) понимается такой тип зависимости переменных величин t и y, когда конкретному числовому значению аргумента t соответствует и притом единственное числовое значение функции y. Для случайных процессов ситуация принципиально иная: задание конкретного аргумента t приводит к появлению случайной величины X(t) с известным законом распределения (если это дискретная случайная величина) или с заданной плотностью распределения (если это непрерывная случайная величина). Другими словами, исследуемая характеристика в каждый момент времени носит случайный характер с неслучайным распределением.
Значения, которые принимает обычная функция y=f(t) в каждый момент времени, полностью определяет структуру и свойства этой функции. Для случайных процессов дело обстоит иным образом: здесь совершенно не достаточно знать распределение случайной величины X(t) при каждом значении t, необходима информация об ожидаемых изменениях и их вероятностях, то есть информация о степени зависимости предстоящего значения случайного процесса от его предыстории.

Наиболее общий подход в описании случайных процессов состоит в задании всех его многомерных распределений, когда определена вероятность одновременного выполнения следующих событий:

t1, t2,…,tn T, n N: X(ti)≤xi; i=1,2,…,n;

F(t1;t2;…;tn;x1;x2;…;xn)=P(X(t1)≤ x1; X(t2)≤x2;…; X(tn)≤xn).

Такой способ описания случайных процессов универсален, но весьма громоздок. Для получения существенных результатов выделяют наиболее важные частные случаи, допускающие применение более совершенного аналитического аппарата. В частности, удобно рассматривать случайный процесс X(t, ω) как функцию двух переменных: t T, ω Ω, которая при любом фиксированном значении t T становится случайной величиной, определенной на вероятностном пространстве (Ω, A, P), где Ω - непустое множество элементарных событий ω; A - σ-алгебра подмножеств множества Ω, то есть множество событий; P - вероятностная мера, определенная на A.

Неслучайная числовая функция x(t)=X(t,ω0) называется реализацией (траекторией) случайного процесса X(t, ω).
Сечением случайного процесса X(t, ω) называется случайная величина, которая соответствует значению t=t0.

Если аргумент t принимает все действительные значения или все значения из некоторого интервала T действительной оси, то говорят о случайном процессе с непрерывным временем. Если t принимает только фиксированные значения, то говорят о случайном процессе с дискретным временем.
Если сечение случайного процесса - дискретная случайная величина, то такой процесс называется процессом с дискретными состояниями. Если же любое сечение - непрерывная случайная величина, то случайный процесс называется процессом с непрерывными состояниями.
В общем случае задать случайный процесс аналитически невозможно. Исключение составляют так называемые элементарные случайные процессы, вид которых известен, а случайные величины входят как параметры:
X(t)=Х(t,A1,…,An), где Ai, i=1,…,n - произвольные случайные величины с конкретным распределением.

1.2. Некоторые классы и виды случайных процессов

1.1.1. Гауссовские случайные процессы

Случайный процесс X(t) называется гауссовским, если все его конечномерные распределения являются нормальными, то есть
t1, t2,…,tn T
случайный вектор
(X(t1); X(t2);…; X(tn))
имеет следующую плотность распределения:

,

где ai=MX(ti); =M(X(ti)-ai)2; сij= M((X(ti)-ai)(X(tj)-aj)); ;
-алгебраическое дополнение элемента сij.


1.1.2. Случайные процессы с независимыми приращениями

Случайный процесс X(t) называется процессом с независимыми приращениями, если его приращения на непересекающихся временных промежутках не зависят друг от друга:
t1, t2,…,tn T: t1 ≤t2 ≤…≤tn,
случайные величины
X(t2)-X(t1); X(t3)-X(t2); …; X(tn)-X(tn-1)
независимы.

1.1.3. Случайные процессы с некоррелированными приращениями

Случайный процесс X(t) называется процессом с некоррелированными приращениями, если выполняются следующие условия:
1) t T: МX2(t) < ∞;
2) t1, t2, t3, t4 T: t1 ≤t2 ≤ t3≤ t4 : М((X(t2)-X(t1))(X(t4)-X(t3)))=0.

1.1.4. Стационарные случайные процессы (см. Глава 5)

1.1.5. Марковские случайные процессы

Ограничимся определением марковского случайного процесса с дискретными состояниями и дискретным временем (цепь Маркова).

Пусть система А может находиться в одном из несовместных состояний А1; А2;…;Аn, и при этом вероятность Рij(s) того, что в s-ом испытании система переходит из состояния в состояние Аj, не зависит от состояния системы в испытаниях, предшествующих s-1-ому. Случайный процесс данного типа называется цепью Маркова.


1.1.6. Пуассоновские случайные процессы

Случайный процесс X(t) называется пуассоновским процессом с параметром а (а>0), если он обладает следующими свойствами:
1) t T; Т=[0, +∞);
2) X(0)=0;
3) t1, t2, …,tn: 0≤t1 <t2 <…<tn случайные величины
X(t2)-X(t1); X(t3)-X(t2); …; X(tn)-X(tn-1) независимы;
4) случайная величина X(t)-X(s), 0≤s≤t имеет распределение Пуассона с
параметром а(t-s): i=0;1;2;…

1.1.7. Винеровский случайный процесс

Случайный процесс X(t) называется винеровским, если он обладает свойствами:
1)-3) пуассоновского случайного процесса;
4) cлучайная величина X(t)-X(s), 0≤s≤t имеет нормальное распреде-
ление с параметрами (0; ):




ТЕМА 2. ЭЛЕМЕНТЫ КОРРЕЛЯЦИОННОЙ ТЕОРИИ СЛУЧАЙНЫХ ПРОЦЕССОВ

2.1. Понятие корреляционной теории случайных процессов

В рамках общего подхода к описанию случайных процессов характеристика сечений и любых их совокупностей осуществляется с помощью многомерных распределений. В частности, любое сечение характеризуется либо одномерной плотностью вероятности p1(t; х), либо одномерной функцией распределения F(t; х)=P(X(t)≤x). Взаимосвязь любой пары сечений характеризуется двумерной плотностью вероятности p2(t1; t2; х1; х2) или двумерной функцией распределения F(t1; t2; х1; х2)=P(X(t1)≤x1; X(t2)≤x2), где t1,2-два фиксированных момента времени; х1,2- возможные значения случайных величин, соответствующих этим сечениям.
Аналогично вводятся плотности и функции распределения трех и более сечений, однако для большого числа случайных процессов оказывается достаточным ограничиться одномерными и двумерными распределениями.

Теория случайных процессов, основанная на изучении моментов первого и второго порядка, называется корреляционной теорией случайных процессов.

2.2. Математическое ожидание и дисперсия случайного процесса. Среднеквадратическое отклонение

Если в каждом сечении случайного процесса существует математическое ожидание, то математическим ожиданием случайного процесса X(t) называется неслучайная функция mX(t), значение которой при каждом фиксированном значении t равно математическому ожиданию соответствующего сечения:
mX(t)=MX(t).

Основные свойства математического ожидания случайного процесса: если φ(t) - неслучайная функция, то
М φ(t)=φ(t); М(φ(t)X(t))=φ(t)mX(t);
M(X1(t)+X2(t))= ; M(X(t)+φ( t))= mX(t)+ φ(t).

Если в каждом сечении случайного процесса существует дисперсия, то дисперсией случайного процесса X(t) называется неслучайная функция DХ(t), значение которой при каждом фиксированном значении аргумента t равно дисперсии соответствующего сечения:
DX(t)= DХ(t)= M(X(t)-mX( t))2.
Основные свойства дисперсии случайного процесса:
если φ(t) - неслучайная функция, то
D(φ(t))=0; D(φ(t)X(t))=φ2(t)DX(t);
D(X(t)+φ(t))=DX(t); .

Среднеквадратическим отклонением случайного процесса X(t) называется арифметический квадратный корень из его дисперсии:
.

2.3. Корреляционная функция случайного процесса и ее свойства. Нормированная корреляционная функция

Корреляционной функцией случайного процесса X(t) называется неслучайная функция KX(t1; t2) двух независимых аргументов, значение которой равно корреляционному моменту сечений, соответствующих моментам времени t1 и t2:
KX(t1; t2)=M((X(t1)-mX(t1))(X(t2)-mX(t2))).

Основные свойства корреляционной функции:

2) KX(t; t)=DX(t);
3) KX(t1; t2)= KX(t2; t1);
4) если φ(t) - неслучайная функция, то

Kφ(t)(t1; t2)=0; Kφ(t)+X(t)(t1; t2)= KX(t)(t1; t2);
Kφ(t)X(t)(t1; t2)= φ(t1) φ(t2)KX(t)(t1; t2);

5)
6)

Функция вида называется нормированной корреляционной функцией.

2.4. Взаимная корреляционная функция и нормированная взаимная корреляционная функция двух случайных процессов

Взаимной корреляционной функцией двух случайных процессов X(t) и Y(t) называют неслучайную функцию RXY(t1; t2) двух независимых аргументов t1 и t2, значение которой равно корреляционному моменту сечений этих случайных процессов в соответствующие моменты времени:
RXY(t1; t2)= M((X(t1)-mX(t1))(Y(t2)-mY(t2))).

Свойства взаимной корреляционной функции:
если φ(t) и Ψ(t) - неслучайные функции, то
RX(t)+φ(t) Y(t)+Ψ(t)(t1; t2)= RXY(t1; t2);
RX(t)φ(t) Y(t)Ψ(t)(t1; t2)= φ(t1) Ψ(t2)RXY(t1; t2);
RXY(t1; t2)=RYX(t2; t1);

Функция вида называется нормированной взаимной корреляционной функцией случайных процессов X(t) и Y(t).

2.5 Вероятностные характеристики суммы двух случайных величин

Теорема 1. Математическое ожидание суммы двух случайных процессов X(t) и Y(t) равно сумме их математических ожиданий: mX+Y(t)= mX(t)+mY(t).

Теорема 2. Корреляционная функция суммы двух случайных процессов X(t) и Y(t) имеет вид: KX+Y(t1; t2)=KX(t1; t2)+KY(t1; t2)+RXY(t1; t2)+RYX(t2; t1).

Следствие 1. Если случайные процессы X(t) и Y(t) некоррелированны, то
KX+Y(t1; t2)=KX(t1; t2)+KY(t1; t2); DX+Y(t)=DX(t)+DY(t).

Следствие 2. Если случайный процесс X(t) и случайная величина Y некоррелированны, то
KX+Y(t1; t2)=KX(t1; t2)+DY.


ТЕМА 3. ЭЛЕМЕНТЫ СЛУЧАЙНОГО АНАЛИЗА

3.1. Сходимость и непрерывность

1. Классические виды сходимости
В стандартном курсе математического анализа вводятся следующие типы сходимости.

а) Числовая последовательность xn называется сходящейся к числу х при n, если для любого >0 (сколь угодно малого) существует номер N, начиная с которого все последующие элементы последовательности принадлежат -окрестности точки х:
;
б) Функциональная последовательность f n(x) называется поточечно сходящейся на множестве Х к функции f (x), если она сходится (как числовая последовательность) при каждом фиксированном хХ к значению f (x).
Частным случаем поточечной сходимости является равномерная сходимость.
в) Функциональная последовательность f n(x) называется сходящейся почти всюду на множестве Х к функции f (x), если она сходится поточечно к f (x) на множестве Х за исключением множества точек Х0 меры нуль.
В теории вероятности такое понимание сходимости (кроме в)) мало содержательно. Тем не менее, приведенные здесь определения позволяют в полной мере ощутить разницу классических подходов и их вероятностных аналогов.

2. Сходимость по вероятности
Говорят, что последовательность случайных величин Хn сходится по вероятности к случайной величине Х при n, если
.
Обозначение:
Обратите внимание, что при n имеет место классическая сходимость вероятности к 1, то есть с возрастанием номера n можно гарантировать сколь угодно близкие к 1 значения вероятности. Но при этом нельзя гарантировать близости значений случайных величин Хn к значениям случайной величины Х ни при каких сколь угодно больших значениях n, поскольку мы имеем дело со случайными величинами.
Случайный процесс X(t), tT называется стохастически непрерывным в точке t0T, если

3. Сходимость в среднем в степени p1
Говорят, что последовательность случайных величин Xn сходится в среднем в степени p1 к случайной величине Х, если

Обозначение: Xn X.
В частности, Xn сходится в среднеквадратичном к случайной величине Х, если

Обозначение: или
Случайный процесс X(t), tT называется непрерывным в среднеквадратичном в точке t0T, если

4. Сходимость почти наверное (сходимость с вероятностью единица)
Говорят, что последовательность случайных величин Хn сходится почти наверное к случайной величине Х, если

где ω - элементарное событие вероятностного пространства (, A, Р).
Обозначение: .
5. Слабая сходимость
Говорят, что последовательность   функций распределения случайных величин Хn слабо сходится к функции распределения FX(x) случайной величины Х, если имеет место поточечная сходимость в каждой точке непрерывности функции FX(x).

Обозначение:  FX(x).

6. Связь различных типов сходимости





Если последовательность случайных величин {Xn} сходится к случайной величине Х почти наверное или в среднем в степени p≥1, то она автоматически сходится к Х и по вероятности. В свою очередь, сходимость по вероятности гарантирует слабую сходимость последовательности функций распределения.

3.2. Производная случайного процесса и ее свойства

В соответствии с классическим определением, производная случайного процесса X(t) должна быть определена как предел разностного отношения при h→0 в смысле соответствующей сходимости. Можно показать, что сходимость по вероятности обладает рядом недостатков, которые делают этот подход практически бесполезным.

Случайный процесс X(t) называется дифференцируемым, если существует случайный процесс такой, что
При этом случайный процесс называется производной случайного процесса X(t) и обозначается следующим образом: .

Теорема 1. Математическое ожидание производной случайного процесса равно производной от математического ожидания самого случайного процесса: .
Следствие. .
Теорема 2. Корреляционная функция производной случайного процесса X(t) равна второй смешанной производной от его корреляционной функции: .
Теорема 3. Взаимная корреляционная функция случайного процесса X(t) и
его производной равна частной производной его корреляционной функции по переменной, соответствующей производной: .

3.3. Интеграл от случайного процесса и его свойства

Интегралом от случайного процесса X(t) на отрезке [0, t] называется предел в среднеквадратичном при λ→0 (n→0)

интегральных сумм где si (ti; ti+1); λ=max(ti+1 - ti), i=0,…,n-1.

Теорема 4. Математическое ожидание интеграла от случайного процесса равно интегралу от его математического ожидания: , .
Теорема 5. Корреляционная функция интеграла от случайного процесса X(t) равна двойному интегралу от его корреляционной функции: .
Теорема 6. Взаимная корреляционная функция случайного процесса X(t) и его интеграла равна интегралу от корреляционной функции случайного процесса X(t):




ТЕМА 4. КАНОНИЧЕСКИЕ РАЗЛОЖЕНИЯ СЛУЧАЙНЫХ ПРОЦЕССОВ

4.1. Понятие канонического разложения случайного процесса

Случайная величина V называется центрированной, если ее математическое ожидание равно 0. Элементарным центрированным случайным процессом называется произведение центрированной случайной величины V на неслучайную функцию φ(t): X(t)=V φ(t). Элементарный центрированный случайный процесс имеет следующие характеристики:


Выражение вида , где φk(t), k=1;2;…-неслучайные функции; , k=1;2;…-некоррелированные центрированные случайные величины, называется каноническим разложением случайного процесса X(t), при этом случайные величины называются коэффициентами канонического разложения; а неслучайные функции φk(t) - координатными функциями канонического разложения.

Рассмотрим характеристики случайного процесса



Так как по условию то

Очевидно, что один и тот же случайный процесс имеет различные виды канонического разложения в зависимости от выбора координатных функций. Более того, даже при состоявшемся выборе координатных функций существует произвол в распределении случайных величин Vк. На практике по итогам экспериментов получают оценки для математического ожидания и корреляционной функции: . После разложения в двойной ряд Фурье по координатным функциям φк(t):

получают значения дисперсий случайных величин Vk.
4.2. Понятие обобщенной функции. Дельта-функция Дирака. Интегральное каноническое представление случайных процессов.

Обобщенной функцией называется предел последовательности однопараметрического семейства непрерывных функций.
Дельта-функция Дирака - это обобщенная функция, являющаяся результатом предельного перехода при в семействе функций

Среди свойств -функции отметим следующее:
1.
2.
3. Если f(t)- непрерывная функция, то



Случайный процесс Х(t), корреляционная функция которого имеет вид называется нестационарным «белым шумом». Если W(t1)=W - const, то Х(t)-стационарный «белый шум».

Как следует из определения, никакие два, даже сколь угодные близкие, сечения «белого шума» не коррелированны. Выражение W(t) называется интенсивностью «белого шума».

Интегральным каноническим представлением случайного процесса Х(t) называется выражение вида где - случайная центрированная функция; - неслучайная функция непрерывных аргументов

Корреляционная функция такого случайного процесса имеет вид:
.
Можно показать, что существует неслучайная функция G(λ) такая, что



где G(λ1) - плотность дисперсии; δ(х) - дельта-функция Дирака. Получаем
Следовательно, дисперсия случайного процесса Х(t):
.

4.3. Линейные и нелинейные преобразования случайных процессов

Рассматривается следующая задача: на вход системы (устройства, преобразователя) S подается «входной сигнал», имеющий характер случайного процесса Х(t). Система преобразовывает его в «выходной сигнал» Y(t):
.
Формально преобразование случайного процесса Х(t) в Y(t) может быть описано с помощью так называемого оператора системы Аt:
Y(t)=At(Х(t)).
Индекс t показывает, что данный оператор осуществляет преобразование по времени. Возможны следующие постановки задачи о преобразовании случайного процесса.
1. Известны законы распределения или общие характеристики случайного процесса Х(t) на входе в систему S, задан оператор Аt системы S, требуется определить закон распределения или общие характеристики случайного процесса Y(t) на выходе системы S.
2. Известны законы распределения (общие характеристики) случайного процесса Х(t) и требования к случайному процессу Y(t); надо определить вид оператора Аt системы S, наилучшим образом удовлетворяющего заданным требованиям к Y(t).
3. Известны законы распределения (общие характеристики) случайного процесса Y(t) и задан оператор Аt системы S; требуется определить законы распределения или общие характеристики случайного процесса Х(t).
Принята следующая классификация операторов Аt системы S:

Операторы системы


Линейные L Нелинейные N


Линейные однородные L0 Линейные неоднородные Lн



1. Рассмотрим воздействие линейной неоднородной системы
Lн(...)=L0(…)+φ(t)
на случайный процесс Х(t), имеющий следующее каноническое разложение:
.
Получаем:

введем обозначения

тогда каноническое разложение Y(t) приобретает вид:
.
Математическое ожидание случайного процессаY(t):

корреляционная функция случайного процесса Y(t):

следовательно,
.
С другой стороны

Дисперсия случайного процесса Y(t):

В заключении этого пункта отметим, что операторы дифференцирования и интегрирования случайных процессов являются линейными однородными.
2. Рассматривается квадратичное преобразование:
Y(t)=(X(t))2,
Vk-центрированные случайные величины, имеющие симметричное относительно нуля распределение; любые четыре из них независимы в совокупности. Тогда


Введем неслучайные функции

и случайные величины

тогда случайный процесс Y(t) приобретает вид

Получено каноническое разложение случайного процесса Y(t). Корреляционная функция Y(t):


Дисперсия:


ГЛАВА 5. СТАЦИОНАРНЫЕ CЛУЧАЙНЫЕ ПРОЦЕССЫ

5.1. Понятие стационарного случайного процесса. Стационарность в узком и широком смыслах

Стационарным (однородным во времени) называют случайный процесс, статистические характеристики которого не меняются с течением времени, то есть являются инвариантными относительно временных сдвигов.
Различают случайные процессы стационарные в широком и узком смысле.

Стационарным случайным процессом в узком смысле называется случайный процесс Х(t), все вероятностные характеристики которого не меняются со временем, то есть таких, что выполняется условие
F(t1; t2;… ;tn; x1; x2;…; xn)=F(t1+τ; t2+τ;… ;tn+τ; x1; x2;…; xn), и, следовательно, все n-мерные распределения зависят не от моментов времени t1; t2;… ;tn, а от длительности временных промежутков τi:

В частности, одномерная плотность распределения вообще не зависит от времени t:

двумерная плотность сечений в моменты времени t1 и t2

n-мерная плотность сечений в моменты времени t1; t2...; tn:


Случайный процесс Х(t) называется стационарным в широком смысле, если его моменты первого и второго порядка инвариантны относительно временного сдвига, то есть его математическое ожидание не зависит от времени t и является константой, а корреляционная функция зависит только от длины временного промежутка между сечениями:
Очевидно, что стационарный случайный процесс в узком смысле является стационарным случайным процессом и в широком смысле; обратное утверждение не верно.

5.2 Свойства вероятностных характеристик стационарного случайного процесса
1.

3. Корреляционная функция стационарного случайного процесса четна:

4. Дисперсия стационарного случайного процесса есть константа, равная
значению ее корреляционной функции в точке :

5.
6. Корреляционная функция стационарного случайного процесса является
положительно определенной, то есть

Нормированная корреляционная функция стационарного случайного процесса также четна, положительно определена и при этом

5.3. Стационарно связанные случайные процессы. Производная и интеграл от стационарного случайного процесса

Cлучайные процессы X(t) и Y(t) называются стационарно связанными, если их взаимная корреляционная функция зависит только от разности аргументов τ =t2-t1: RXY(t1;t2)=rXY(τ).

Стационарность самих случайных процессов X(t) и Y(t) не означает их стационарной связанности.
Отметим основные свойства стационарно связанных случайных процессов, производной и интеграла от стационарных случайных процессов,
1) rXY(τ)=rYX(-τ).
2)
3)
4)
где
5) где
6) ;


5.4. Эргодические стационарные случайные процессы и их характеристики

Среди стационарных случайных процессов есть особый класс процессов, называемых эргодическими, которые обладают следующим свойством: их характеристики, полученные усреднением множества всех реализаций, совпадают с соответствующими характеристиками, полученными усреднением по времени одной реализации, наблюдаемой на интервале (0, T) достаточно большой продолжительности. То есть на достаточно большом временном промежутке любая реализация проходит через любое состояние независимо от того, каково было исходное состояние системы при t=0; и в этом смысле любая реализация полностью представляет всю совокупность реализаций.

Эргодическая теорема Биркгофа-Хинчина
Для любого стационарного случайного процесса в узком смысле X(t), имеющего конечное математическое ожидание с вероятностью 1 существует предел
для ССП с непрерывным временем,
для ССП с дискретным временем.
Если при этом X(t) – эргодический стационарный случайный процесс, то
В условии теоремы - условное математическое ожидание случайного процесса X(t) относительно Jx; Jx – -алгебра инвариантных по отношению к X(t) событий; событие А называется инвариантным относительно X(t), если B такое, что A={ω: X(ω,t) B}.

Достаточные условия эргодичности
Теорема 1. Стационарный случайный процесс X(t) эргодичен относительно
математического ожидания, если его корреляционная функция
стремится к нулю при τ→∞;
при этом: .

Теорема 2. Стационарный случайный процесс X(t) эргодичен относительно
дисперсии, если корреляционная функция стационарного слу-
чайного процесса Y(t)=X2(t) стремится к нулю при τ→∞;
при этом:

Теорема 3. Стационарный случайный процесс X(t) эргодичен относительно
корреляционной функции, если стремится к нулю при τ→∞ кор-
реляционная функция стационарного случайного процесса
Z(t, τ)= ;
при этом:

При практических расчетах интервал (0;Т) разбивается на n равных частей в каждом промежутке выбирается точка ti (например, середина). Если ограничиться формулой прямоугольников, получаем



5.5. Потоки событий
Потоком событий называется последовательность событий, которые появляются в случайный момент времени.

Свойства потоков событий:
1) Стационарность потока.
Поток называется стационарным, если вероятность m событий на любом промежутке времени τ зависит только от количества событий m и от протяженности интервала τ и не зависит от момента времени, в который этот промежуток начался
2) Отсутствие последействия.
Говорят, что поток событий обладает свойством отсутствия последействия, если вероятность появления m событий на любом промежутке времени не зависит от того, появлялись или нет события в моменты времени непосредственно предшествующие данному промежутку.
Предыстория потока не оказывает влияние на появление событий в ближайшем будущем. Если поток обладает свойством отсутствия последействия, то случайные величины появления событий на непересекающихся промежутках являются независимыми друг от друга.
3) Ординарность.
Говорят, что поток обладает свойством ординарности, если за бесконечно малый промежуток времени может произойти не более 1-го события, т.е. появление 2-х и более событий за малый промежуток времени практически не возможно.
4) Пуассоновский поток
Если поток одновременно обладает свойствами стационарности, отсутствия последействия и ординарности, то он называется простейшим (Пуассоновским) потоком.

Теорема. Если поток представляет собой сумму большого числа независимых стационарных потоков, влияние каждого из которых ничтожно мало, то суммарный поток при условии его ординарности близок к простейшему.
Интенсивностью потока - называется среднее число событий происходящих в единицу времени.
Если поток обладает постоянной интенсивностью, то вероятность появлений m событий на промежутки времени длительностью τ вычисляется по формуле Пуассона.
– Пуассоновский поток.
Задача о простой телеграфной волне.
Имеется некоторое устройство, на которое подается сигнал. Эти сигналы образуют простейших поток.
X(t) a -a
P 1/2 1/2
Исследовать характеристики СП X(t), который принимает значения ±a в произвольные моменты времени. Дискретный СП с непрерывным временем. M(X(t)) = 0

X(t1)X(t2) a2 -a2
P Pчет Pнечет
Пусть t1 < t2 => τ > 0




,следовательно, телеграфная волна эргодический ССП.
Обоснование – должны выполниться следующие свойства
1) Стационарность – нет зависимости от выбора промежутка времени.
2) Отсутствие последействия – в формуле не фигурируют моменты времени.
3) Ординарность
Вероятность не одного события
Вероятность 1-го события
Вероятность более 2-ух событий
при =>
при малых τ стремиться к нулю со скоростью не мене квадрата.



ТЕМА 6. ЦЕПИ МАРКОВА

6.1. Цепи Маркова.

Цепь Маркова – это последовательность событий, в каждом из которых появляются и при том только одно из несовместных событий A1,A2…Ak при этом условная вероятность pij(s) в s-ом испытание наступит событие Ai и условие, что в s-1 испытание произошло событие Aj е зависит от результата предшествующих событий.
Цепью Маркова с дискретными временами называют цепь, изменение состояний которой происходит в фиксированные моменты времени.
Цепью Маркова с непрерывным временем называют цепь изменение состояний которой происходит в произвольный момент времени.
Цепь Маркова называется однородной, если условная вероятность pij(s) перехода в состояние из Ai в Aj не зависит от номера испытания, от s.
Вероятности того, что система в результате испытания переходит из Ai в Aj называется переходными вероятностями однородной цепи Маркова.
Переходные вероятности образуют матрицу переходных вероятностей i=1;…;k
Равенство Маркова
Pij(n) – вероятность перехода системы из состояния Ai в Aj за n испытаний


Следствия
1) n=2; m=1
; Pij(1)=pi,j; P2=(Pi,j(2))=P1P1=P2
2) n=3; m=2
; P3=P3
3) Pn=P12.