
238 г
пава
26
M(XY)= j jxyf(x,y)dxdy.
Случайные величины X и Y
называются
независимыми,
если
закон распределения одной из них не зависит от того, какие зна-
чения приняла другая величина.
Характеристикой линейной связи Y = аХ +
b
между случай-
ными величинами X
и
Услужит
коэффициент
корреляции:
^
'ху
г..=^
(12)
о-.^у
Если случайные величины независимы, то г^ =
0.
Коэффи-
циент корреляции удовлетворяет условию
уху\-1-
причем, чем
ближе \г\ к единице, тем связь сильнее.
Если корреляционный момент отличен от нуля, то случай-
ные величины X и Гназываются коррелированными. Если M.vv~
=
О,
то JSf и 7 называются некоррелированными случайными ве-
личинами.
4°.
Пусть в результате
п
испытаний случайные величины X
и 7 принимают значения
{^\^У\)^{^2'У2)^--->{^п'Уп)'
Если п до-
статочно велико и г^
Л/А1~1
^3, то вероятно существует связь
между случайными величинами XHY.
Линейное приближение У от X дается формулой линейной
регрессии
У
- g(X) -аХ
Л-Ь,
где а,Ь — коэффициенты, подле-
жащие определению. Наилучшее приближение, в смысле мето-
да наименьших квадратов, дает функция g(X), которая назы-
вается
среднеквадратической
регрессией У на X,
Прямая линия среднеквадратической регрессии УпаХ имеет
вид
а
g(X)-m^=r^-^(X-mJ,
(13)