Напомним, если величины и независимы, то среднее значение (математическое ожидание) произведения отклонений и равно нулю:
Если же и не являются полностью независимыми, среднее значение произведения их отклонений может быть использовано как количественная мера их зависимости. Наиболее употребительной мерой зависимости двух случайных величин является коэффициент линейной корреляции:
(5.1) |
Нетрудно проверить (с помощью неравенства Коши–Буняковского), что . В частности, для полностью независимых величин коэффициент корреляции равен нулю, , а для линейно зависимых нетрудно получить при и при . Примеры промежуточных случаев представлены на рис. TODO.
Если коэффициент близок к единице, говорят, что величины коррелируют между собой (от англ. correlate — находиться в связи).
Отметим, что (2.6) — необходимое, но не достаточное условие независимости величин. На рис. TODO приведён пример очевидно зависимых и , для которых .
Ещё одна типичная ошибка — исходя из большого коэффициента корреляции () между двумя величинами сделать вывод о функциональной (причинной) связи между и . Рассмотрим конкретный пример. Между током и напряжением на некотором резисторе имеет место линейная зависимость , и коэффициент корреляции действительно равен единице. Однако обратное в общем случае неверно. Например, ток в резисторе коррелирует с его температурой , (больше ток — больше тепловыделение по закону Джоуля–Ленца), однако ясно, что нагрев резистора извне не приведёт к повышению тока в нём (скорее наоборот, так как сопротивление металлов с температурой растёт). Ошибка отождествления корреляции и причинности особенно характерна при исследовании сложных многофакторных систем, например, в медицине, социологии и т.п.
Если измеряется одна физическая величина , то можно поставить задачу по конечному набору данных () оценить параметры случайного распределения, которому подчиняется . В частности, найти среднее значение (математическое ожидание) и дисперсию .
Если результатом оценки параметра является просто число — без указания интервала, в котором может лежать истинное значение, — такую оценку называют точечной. Пример точечных оценок дают формулы для выборочного среднего (1.1):
(5.2) |
и выборочной дисперсии (1.2):
(5.3) |
Оценка параметров должна давать правильное значение хотя бы в пределе большого числа измерений. Если при оценка стремится к истинному значению параметра,
то её называют состоятельной. Можно показать (см. [5]), что если у распределения, которому подчиняется случайная величина, существуют конечные средние и дисперсия, то оценки (5.2), (5.3) являются состоятельными.
Рассмотрим случай малого числа измерений (). Тогда даже если оценка состоятельна, она может давать довольно большую ошибку. При фиксированном функцию оценки можно рассматривать как случайную величину с некоторым распределением, отличающимся от распределения измеряемой величины. Естественно потребовать, чтобы среднее (математическое ожидание) этого распределения совпадало с истинным значением искомого параметра:
В таком случае оценку называют несмещённой.
Нетрудно показать, что выборочное среднее (5.2) является несмещённой оценкой. А вот оценка из (5.3) таким свойством не обладает. Математическое ожидание для величины при фиксированном оказывается равно (предлагаем в качестве упражнения проверить данное утверждение самостоятельно). Именно поэтому при малых для оценки дисперсии рекомендуется использовать формулу (1.4):
Для сравнения разных методов оценки очень важным свойством является их эффективность. На качественном уровне эффективность — величина, обратная разбросу значений при применении к разным наборам данных . Как обсуждалось выше, оценка есть случайная величина, подчиняющаяся некоторому, в общем случае неизвестному, распределению. Среднее по этому распределению определяет смещение оценки. А его дисперсия — как раз мера ошибки в определении параметра. Выбирая между различными методами (минимума хи-квадрат, максимального правдоподобия, наименьших квадратов и т. д.), мы, естественно, хотим, чтобы ошибка была минимальной. Разные статистические методы обладают разной эффективностью и в общем случае при конечном величина никогда не будет равна нулю.
Теорема, устанавливающая максимальное значение эффективности оценки, рассмотрена в п. 5.3.
Максимальная эффективность оценки ограничена теоремой Рао–Крамера.
Пусть оценка параметра является несмещённой, тогда всегда выполняется неравенство:
(5.4) |
где
(5.5) |
Здесь — введённая в п. 3.1 функция правдоподобия (вероятность получить набор результатов при заданном параметре ). Функцию также называют информацией Фишера.
Обозначим
и найдём математическое ожидание этой функции:
Теперь рассмотрим ковариацию параметра и функции :
(5.6) |
Для несмещенных оценок математическое ожидание оценки параметра равно самому значению параметра: , поэтому последнее выражение есть просто единица. Согласно неравенству Коши–Буняковского имеем
откуда и следует сделанное утверждение.
Максимальная эффективность достигается в том случае, если величины и коррелируют друг с другом. Оценка, максимизирующая функцию (метод максимального правдоподобия), является состоятельной, несмещенной, кроме того совпадает с оценкой вида , а значит является максимально эффективной.
Проведём подробный вывод для погрешностей коэффициентов наилучшей прямой и . Воспользуемся общей формулой (2.11) для погрешности косвенных измерений. Считая, что величины известны точно, запишем для погрешности углового коэффициента
Продифференцируем (3.13) по :
где , . Под угловыми скобками здесь понимается выборочное среднее с весами . Тогда
Учитывая, что , получим
(5.7) |
Аналогично, для погрешности свободного члена имеем
где
Отсюда, пользуясь (5.7), приходим к формуле (3.11):
(5.8) |
В частном случае метода наименьших квадратов (п. 3.6.1), формула (5.7) упрощается:
(5.9) |
Здесь величина может быть оценена непосредственно из экспериментальных данных:
(5.10) |
где — число «степеней свободы» для приращений ( точек за вычетом двух связей (3.13)).
Формул (5.9) и (5.10), вообще говоря, достаточно для вычисления погрешности величины по известным экспериментальным точкам. Однако часто их объединяют в одно упрощённое выражение. Для этого преобразуем (5.10) следующим образом: учитывая, что , запишем
Возведём в квадрат, усредним и воспользуемся выражением для в форме (3.9):
Таким образом,
и с помощью (5.9) получаем формулы (3.10), (3.11):
Однопараметрические оценки просты для понимания и реализации, но относительно редко встречаются на практике. Даже при оценке параметров линейной зависимости требуется уже два параметра: наклон смещение . Все рассмотренные выше методы нахождения оптимальных параметров работают и в многомерном случае, но поиск экстремума функций (например, максимума функции правдоподобия или минимума суммы квадратов) и интерпретация результатов требуют, как правило, использования численных методов.
Остановимся подробнее на построении прямой. Пусть некоторым методом получены точечные оценки для наилучших значений и . Однако самих значений мало — нас интересует область, в которой могут оказаться параметры , с некоторой доверительной вероятностью (например, ) — двумерная доверительная область.
Предположим для простоты, что оценки параметров имеют нормальное или близкое к нему распределение (это разумное предположение, если результаты получены из большого числа независимых измерений).
Если бы и были независимы, достаточно было бы найти среднеквадратичные отклонения и , как это сделано в п. 5.4: тогда искомая доверительная область значений параметров на плоскости представляла бы собой эллипс, оси которого параллельны координатным (см. рис. 5.1а).
Однако, если взглянуть, к примеру, на рис. 4.2б, иллюстрирующий графический метод построения прямой, можно убедиться, что при варьировании наклона обязательно меняется и смещение . То есть параметры вообще говоря скореллированы. Количественно отклонения параметров будут характеризоваться ковариационной матрицей:
где , — дисперсии искомых параметров, а
Коэффициент называют коэффициентом корреляции и он служит показателем «связанности» параметров. Для полностью независимых параметров он равен нулю, а в случае, если параметры нельзя отличить друг от друга — единице.
По известной теореме линейной алгебры, симметричную матрицу можно привести к диагональному виду поворотом координатных осей. Поэтому доверительная область в таком случае будет представлять собой наклонный эллипс (см. рис. 5.1б), а наклон его осей будет определяться коэффициентом корреляции .
Принцип построения доверительной области в многомерном случае точно такой же, как и для одномерных доверительных интервалов. Требуется найти такую областью пространства параметров , для которой вероятностное содержание для оценки параметра будет равно некоторой наперед заданной величине :
(5.11) |
Построение многомерной доверительной области на практике сталкивается с тремя проблемами:
Взятие многомерного интеграла от произвольной функции — не тривиальная задача. Даже в случае двух параметров требуется владение методами вычислительной математики. Соответствующие методы реализованы в специализированных программных пакетах.
Определение центрального интервала для многомерной гиперобласти является неоднозначной задачей.
Даже если удалось получить доверительную область, описать многомерный объект в общем случае непросто, так что представление результатов составляет определенную сложность.
Для решения этих проблем пользуются следующим приемом: согласно центральной предельной теореме, усреднение большого количества одинаково распределенных величин дает нормально распределенную величину. Это же верно и в многомерном случае. В большинстве случаев, мы ожидаем, что функция правдоподобия будет похожа на многомерное нормальное распределение:
(5.12) |
где — размерность вектора параметров, — вектор наиболее вероятных значений, а — ковариационная матрица распределения.
Для многомерного нормального распределения, линии постоянного уровня (то есть поверхности, на которых значение плотности вероятности одинаковые) имеют вид гиперэллипса, определяемого уравнением . Для любого вероятностного содержания можно подобрать эллипс, который будет удовлетворять условию на вероятностное содержание. Интерес, правда, представляет не сам эллипс (в случае размерности больше двух, его просто невозможно наглядно изобразить), а ковариацонная матрица. Диагональные элементы этой матрицы являются дисперсиями соответствующих параметров (с учетом всех корреляций параметров).
Существует огромное количество программных пакетов для построения численной оценки параметров. Наиболее доступным и широко используемым является пакет scipy на языке Python. Приведем здесь только пример вызова процедуры оптимизации.
Пусть есть экспериментальные данные, представленные в виде трех колонок: , и . Требуется построить наилучшую прямую, описывающую эти данные. Код для этого будет выглядеть следующим образом:
from scipy.optimize import curve_fit
function = lambda x, a, b: a*x + b
popt, pcov = curve_fit(function, xdata = x, ydata = y, sigma = err)
После выполнения этого кода, переменная popt содержит массив из двух значений, соответствующих оценке a и b, а переменная pcov содержит ковариационную матрицу для полученных параметров.
Погрешности параметров можно получить как корни из диагональных элементов ковариационной матрицы:
import numpy as np
sigma_a = np.sqrt(pcov[0,0])
sigma_b = np.sqrt(pcov[1,1])
Замечание. Следует отметить, что существует огромное количество способов оценки оптимальных значений параметров и ковариационной матрицы. Поэтому при использовании того или иного инструмента, всегда следует сверяться с документацией и выяснять, что именно он делает. Также следует всегда проверять результаты обработки из качественных, «наивных» соображений.