Помощничек
Главная | Обратная связь


Археология
Архитектура
Астрономия
Аудит
Биология
Ботаника
Бухгалтерский учёт
Войное дело
Генетика
География
Геология
Дизайн
Искусство
История
Кино
Кулинария
Культура
Литература
Математика
Медицина
Металлургия
Мифология
Музыка
Психология
Религия
Спорт
Строительство
Техника
Транспорт
Туризм
Усадьба
Физика
Фотография
Химия
Экология
Электричество
Электроника
Энергетика

Стохастическая несвязность компонентов случайного вектора



Компоненты случайного вектора – это совместные события, которые могут быть стохастически связанными или не связанными, попарно и/или в совокупности. Условие (24) попарной несвязности совместных событий для функции распределения случайного вектора, которая представляет собой вероятность совместного наступления двух состояний (событий!) её компонентов X и Y, принимает вид:

P(X < x Y < y) = P(X < x) ∙ P(Y < y) → F(x, y) = F1(x) ∙ F2(y). (91)

C учетом (84) и (85), это условие для двумерного дискретного случайного вектора запишется так:

= (" i, j). (92)

Для непрерывного двумерного случайного вектора из того же условия (24) получаем вариант на уровне элементов вероятности:

f(x, y) dx dy = f1(x) dx ∙ f2(y) dy,

откуда, окончательно, на уровне плотностей вероятностей:

f(x, y) = f1(x) ∙ f2(y). (93)

Условие стохастической несвязности в совокупности для n-мерной непрерывной системы случайных величин может быть получено, на основании (93), методом математической индукции:

f(x1, x2,…,xn) = f1(x1) ∙ f2(x2) ∙...∙fn(xn). (94)

2.3.3 Моменты случайного вектора.

Определим математическое ожидание некоторой функции системы случайных величин на пространстве W (сделаем это и всё последующее изложение материала данного параграфа на примере двумерного случайного вектора, не теряя той общности, которая нас интересует):

pij

E(φ(x,y))= (95)

.

Для обобщённой характеристики системы случайных величин используются начальные и центральные моменты, в которых в качестве функции φ(x,y)используется произведение r-ой степени компонента X на s-ую степень компонента Y.

Начальный момент порядка "r плюс s"rs):

αr s= = (96)

.

Центральный момент порядка "r плюс s" rs):

μrs= = (97)

.

где, как и прежде, = XE(X), а = YE(Y).

Наиболее часто используются моменты до второго порядка включительно, таблица которых представлена ниже (Табл. 2.3).

Начальные и центральные моменты двумерного случайного вектора

Табл. 2.3

Порядок rs Моменты
Начальные α r s Центральные μ r s
α 0 0=1 α 1 0=E(X) α 0 1=E(Y) α 2 0=E(X2) α 0 2=E(Y2) α 1 1=E(X·Y) μ 0 0=1 μ 1 0=0 μ 0 1=0 μ 2 0= μ 0 2= μ 1 1 1 1–α 1 0∙ α 0 1

Смешанный центральный момент второго порядка m11 = KXY называют ковариацией или корреляционным моментом. Этот момент служит мерой линейной стохастической связанности компонентов X и Y. Его значение может быть любым: от – ∞до + ∞, а размерность равна произведению размерностей случайных компонентов X и Y. Эти особенности ковариации можно устранить, разделив её на произведение стандартов компонентов:

ρXY = KXY / (sX∙sY). (98)

Величина ρXY называется коэффициентом корреляции. Он не имеет размерности и принадлежит отрезку [– 1;1], т.е. XY| ≤ 1. Доказательство этому будет дано несколько позже в Задаче 2.14.

Можно установить и обратную связь между коэффициентом корреляции и ковариацией:

KXY = ρXY∙sX∙sY. (99)

Когда компоненты случайного вектора попарно не связаны, то их ковариация и, как следствие, коэффициент корреляции равны нулю. Докажем это на примере двумерного дискретного случайного вектора.

Дано: {X,Y} = {дискретный случайный вектор} такой, что pij= ;

σX > 0 и σY > 0.

Доказать: KXY = 0 и ρXY = 0.

Доказательство: По определению ковариации (97), коэффициента корреляции (98) и условию не связанности компонентов двумерного случайного вектора (92) имеем:

KXY= = =

= = = 0 ∙ 0 = 0; →

ρXY= KXY/(sX∙sY)= 0 / (sX∙sY) = 0. #

Утверждение доказано. Для непрерывного случайного вектора доказательство строится аналогично, см., например,[8].

2.3.4 Ковариационная, дисперсионная и корреляционная матрицы случайного вектора.

Для многомерного случайного вектора Xn1 парные ковариации между i-ым и j-ым случайными компонентами вычисляются по формуле (97), принимающей вид

Kij= = E((XiE(Xi))∙(XjE(Xj))). (100)

Совокупность всех ковариаций (100) вектора Xn1 образует симметричную квадратную матрицу размером (n×n):

KX = , (101)

называемую ковариационной матрицей случайного вектора.

Диагональные элементы матрицы KX представляют собой дисперсии i-ых компонентов:

Kii= = D(Xi) = .

Если условиться [9], что символ «E» оператора математического ожидания перед именем какой-то матрицы или вектора означает его распространение на каждый элемент такой матрицы, то мы будем вправе пользоваться следующими записями:

E(X1nT) = , ,...,

или (для ковариационной матрицы)

KX = E = E

KX = E = E (102)

где верхний индекс «T» – символ транспонирования матрицы.

Когда элементы случайного вектора попарно стохастически не связаны, то Kij= 0 (это было показано в предыдущем параграфе). В такой ситуации ковариационная матрица (101) вырождается в дисперсионную:

KX = DX= . (103)

Матрица, составленная из коэффициентов корреляции ρij, называется корреляционной и обозначается RX. Поскольку диагональные коэффициенты корреляционной матрицы RXтождественно равны единице (ρii=Kii/(si∙si)=si2/(si∙si)≡ 1), то матрица RXимеет такую структуру:

RX= . (104)

Ковариационная матрица KX вектора Xn1, компоненты которого характеризуются постоянными дисперсиями σ2, связана с корреляционной матрицей RXпростым соотношением:

KX = σ2RX. (105)

Для стохастически попарно несвязанных (попарно некоррелированных) компонентов коэффициенты корреляции ρij= 0 и ковариационная матрица KX таких компонентов вырождается в произведение постоянной дисперсии σ2 на единичную матрицу IX:

KX = σ2IX= σ2 . (106)

2.3.5 Функции случайного вектора и их числовые характеристики.

Функцией случайного вектора называют функцию, аргументы которой являются компонентами такого вектора:

z = f (X1, X2, … , Xn) = f (X1nT). (107)

Определим её числовые характеристики по соответствующим характеристикам случайных компонентов с учетом вида оператора «f», который полагается известным.

Ниже приводятся несколько теорем о связи числовых характеристик функции случайных величин с числовыми характеристиками её аргументов:

математическое ожидание суммы случайных величин,

математическое ожидание произведения случайных величин,

дисперсия линейной функции случайных величин,

дисперсия произвольной функции случайных величин,

ковариационная матрица линейного преобразования случайного вектора,

ковариационная матрица общего преобразования случайного вектора.

2.3.5.1 Математическое ожидание суммы случайных величин.

При доказательстве теоремы о математическом ожидании суммы случайных величин мы, прежде всего, полагаем, что компоненты случайного вектора, о сумме математических ожиданий которых идет речь, определены на общем пространстве элементарных событий W. Иначе, задача теряет под собой вероятностное обоснование.

Теорема о сумме математических ожиданий. Математическое ожидание суммы двух случайных величин, образующих случайный вектор, равно сумме математических ожиданий этих случайных величин. Проведём доказательство на примере дискретной системы двух случайных компонентов.

Дано: Z = f (X; Y) = X + Y; E(X); E(Y).

Доказать: E(X + Y) = E(X) + E(Y).

Доказательство: Опираясь на определение (95) математического ожидания функции двумерного дискретного случайного вектора и определение вероятностей возможных значений компонентов по вероятностям состояний системы (85), выполняем следующий ряд преобразований:

E(X + Y) = = + =

= + = + = a10 + a01

E(X + Y) = E(X) + E(Y). # (108)

Методом математической индукции данное утверждение распространяется на конечную сумму случайных компонентов произвольной системы случайных величин:

E(X1 + X2 +…+ Xn) = E(X1) + E(X2) +...+ E(Xn), (109)

т.е. математическое ожидание суммы конечного числа случайных величин равно сумме математических ожиданий этих величин.

2.3.5.2 Математическое ожидание произведения двух случайных величин.

По-прежнему, мы полагаем, что случайные компоненты определены на общем пространстве W(83). Докажем сначала теорему о произведении математического ожидания двух случайных величин, входящих в систему.

Теорема о математическом ожидании произведения двух случайных величин. математическое ожидание произведения двух случайных величин, образующих систему, равно произведению математических ожиданий этих случайных величин плюс их ковариация.

Дано: Z = f (X,Y) = XY; E(X); E(Y); KXY = m11.

Доказать: E(XY) = E(X) · E(Y) + KXY.

Доказательство: Воспользуемся формулой (97), определяющей ковариацию двух случайных величин, входящих в систему:

KXY = m11 =E(((X – E(X)) · (Y – E(Y))).

Выполнив умножение и учтя только что доказанную теорему о математическом ожидании суммы случайных величин, получим следующие результаты:

KXY = E(XY – X∙E(Y) – Y∙E(X) + E(X)∙E(Y)) = E(XY) – E(X)∙E(Y).

Отсюда, окончательно, имеем:

E(XY) = E(X)∙E(Y) + KXY. # (110)

Итак, математическое ожидание произведения двух случайных величин равно произведению математических ожиданий этих величин плюс их ковариация.

В отличие от первой теоремы, эта изменяет свой вид, когда случайные сомножители стохастически не связаны попарно (см. 2.3.3):

E(XY) = E(X)∙E(Y), (111)

т.е. математическое ожидание произведения двух попарно некоррелированных случайных величин равно произведению математических ожиданий этих величин.

Поскольку несвязность в совокупности влечет за собой попарную несвязность (см. 2.1.8), то методом математической индукции легко распространить утверждение (111) на n стохастически не связанных в совокупности случайных компонентов произвольной системы случайных величин:

E(X1X2…Xn) = E(X1) ∙ E(X2) ∙...∙ E(Xn),

т.е. математическое ожидание произведения стохастически не связанных в совокупности случайных величин равно произведению математических ожиданий этих величин.

 




Поиск по сайту:

©2015-2020 studopedya.ru Все права принадлежат авторам размещенных материалов.