Математические методы

Математическое моделирование физических процессов и математические методы анализа данных являются неотъемлемой частью современной экспериментальной физики. Постоянно возникает потребность как в совершенствовании существующих методов, так и в разработке принципиально новых подходов.


Статистическая регуляризация некорректных обратных задач

Одной из задач, решаемых группой, является популяризация и развитие метода статистической регуляризации, созданного В.Ф. Турчиным в 70-х годах XX века.

Типичной некорректной обратной задачей, возникающей в физике, является уравнение Фредгольма I рода:

f(y)=abdxK(x,y)φ(x)f(y) = \int \limits_a^b dx K(x,y)\varphi(x)

Фактически, это уравнение описывает следующее: аппаратная функция прибора K(x,y)K(x,y) действует на исследуемый спектр или иной входной сигнал φ\varphi, в результате чего исследователь наблюдает выходной сигнал f(y)f(y). Целью исследователя является восстановить сигнал φ\varphi по известным f(y)f(y) и K(x,y)K(x,y). Казалось бы, восстановление сигнала не является сложной задачей, поскольку уравнение Фредгольма имеет точное решение. Но уравнение Фредгольма некорректно — бесконечно малое изменение начальных условий приводит к конечному изменению решения. Таким образом, наличие шумов, присутствующих в любом эксперименте, обесценивает попытки решить это уравнение точно.

Теория

Рассмотрим некую алгебраизацию уравнения Фредгольма:

fm=Kmnφnf_m = K_{mn}\varphi_n

С точки зрения математической статистики мы должны оценить φ\vec{\varphi} по реализации f\vec{f}, зная плотность вероятности для f\vec{f} и содержимое матрицы KK. Действуя в духе теории принятия решений, мы должны выбрать вектор-функцию S\vec{S}, определяющую φ\vec{\varphi} на основе f\vec{f} и называемую стратегией. Для того чтобы определить, какие стратегии более оптимальные, мы введем квадратичную функцию потерь:

L(φ^,S)=(φ^S)2,L\left(\hat{\varphi},\vec{S}\right) = \left(\hat{\varphi}-\vec{S}\right)^2,

где φ^\hat{\varphi} — наилучшее решение. Согласно байесовскому подходу рассмотрим φ\vec{\varphi} как случайную переменную и переместим нашу неопределенность о φ\vec{\varphi} в априорную плотность P(φ)P(\vec{\varphi}), выражающую достоверность различных возможных законов природы и определяемую на основе информации, сущетсвующей до проведения эксперимента. При таком подходе выбор оптимальной стратегии основывается на минимизации апостериорного риска:

rS(φ)EφEf[L(φ,S)φ]r_{\vec{S}}(\vec{\varphi}) \equiv E_{\vec{\varphi}}E_{\vec{f}}\left[L\left(\vec{\varphi},\vec{S}\right)|\vec{\varphi}\right]

Тогда оптимальная стратегия в случае квадратичной функции потерь хорошо известна:

Snopt=E[φnf]=φnP(φf)dφS^{opt} _n= E\left[\varphi_n|\vec{f}\right] = \int \varphi_n P\left(\vec{\varphi}|\vec{f}\right)d\vec{\varphi}

Апостериорная плотность P(φf)P(\vec{\varphi}|\vec{f}) определяется по теореме Байеса:

P(φf)=P(φ)P(fφ)dφP(φ)P(fφ)P\left(\vec{\varphi}|\vec{f}\right)= \frac{P(\vec{\varphi})P\left(\vec{f}|\vec{\varphi}\right)}{\int d\vec{\varphi}P(\vec{\varphi})P\left(\vec{f}|\vec{\varphi}\right)}

Кроме того, такой подход позволяет определить дисперсию полученного решения:

σn2=(φnSnopt)2P(φf)dφ\left\langle \sigma_n^2 \right\rangle = \int \left(\varphi_n - S^{opt}_n\right)^2 P\left(\vec{\varphi}|\vec{f}\right)d\vec{\varphi}

Мы получили решение, введя априорную плотность P(φ)P(\vec{\varphi}). Можем ли мы сказать, что-либо о том мире функций φ(x)\varphi(x), который задается априорной плотностью? Если ответ на этот вопрос отрицательный, то мы должны будем принять все возможные φ(x)\varphi(x) равновероятными и вернуться к нерегуляризованному решению. Таким образом, мы должны ответить на этот вопрос положительно. Именно в этом заключается метод статистической регуляризации — регуляризация решения за счет введения дополнительной априорной информации о φ(x)\varphi(x). Если исследователь уже обладает какой-либо априорной информацией (априорной плотностью P(φ)P(\vec{\varphi})), он может просто вычислить интеграл и получить ответ. В случае, если такой информации нет, в следующем параграфе описывается, какой минимальной информацией может обладать исследователь и как её использовать для получения регуляризованного решения.

Априорная информация

Как показали британские ученые, во всем остальном мире любят дифференцировать. Причем, если математик будет задаваться вопросами о правомерности этой операции, то физик оптимистично верит, что законы природы описываются «хорошим» функциями, то есть гладкими. Иначе говоря, он назначает более гладким φ(x)\varphi(x) более высокую априорную плотность вероятности. Так давайте попробуем ввести априорную вероятность, основанную на гладкости. Для этого мы вспомним, что введение априорной информации — это некоторое насилие над миром, принуждающее законы природы выглядеть удобным для нас образом. Это насилие следует свести к минимуму, и, вводя априорную плотность вероятности, необходимо, что бы информация Шеннона относительно φ(x)\varphi(x), содержащаяся в P(φ)P(\vec{\varphi}), была минимальной. Формализуя выше сказанное, выведем вид априорной плотности, основанной на гладкости функции. Для этого мы будем искать условный экстремум информации:

I[P(φ)]=lnP(φ)P(φ)dφminI[P(\vec{\varphi})] = \int \ln{P(\vec{\varphi})} P(\vec{\varphi}) d\vec{\varphi} \to min

При следующих условиях:

  1. Условие на гладкость φ(x)\varphi(x). Пусть Ω\Omega — некоторая матрица, характеризующая гладкость функции. Тогда потребуем, чтобы достигалось определённое значение функционала гладкости:
(φ,Ωφ)P(φ)dφ=ω\int (\vec{\varphi},\Omega\vec{\varphi}) P(\vec{\varphi}) d\vec{\varphi} = \omega

Внимательный читатель должен задать вопрос об определении значения параметра ω\omega. Ответ на него будет дан далее по тексту.

  1. Нормированность вероятности на единицу:
P(φ)dφ=1\int P(\vec{\varphi}) d\vec{\varphi} = 1

При этих условиях доставлять минимум функционалу будет следующая функция:

Pα(φ)=αRg(Ω)/2detΩ1/2(2π)N/2exp(12(φ,αΩφ))P_{\alpha}(\vec{\varphi}) = \frac{\alpha^{Rg(\Omega)/2}\det\Omega^{1/2}}{(2\pi)^{N/2}} \exp\left(-\frac{1}{2} (\vec{\varphi},\alpha\Omega\vec{\varphi})\right)

Параметр α\alpha связан с ω\omega, но поскольку у нас нет собственно информации о конкретных значениях функционала гладкости, выяснять, как именно он связан, бессмысленно. Что же тогда делать с α\alpha, спросите вы? Здесь перед вами раскрываются три пути:

  1. Подбирать значение параметра α\alpha вручную, и тем самым перейти к регуляризации Тихонова
  2. Усреднить по всем возможным α\alpha, предполагая все возможные α\alpha равновероятными
  3. Выбрать наиболее вероятное α\alpha по его апостериорной плотности вероятности P(αf)P(\alpha|\vec{f}). Этот подход верен, если мы предполагаем, что в экспериментальных данных содержится достаточно информации об α\alpha.

Первый случай нам малоинтересен. Во втором случае мы получим следующую формулу для решения:

φi=dφφiP(fφ)dαP(α)αRg(Ω)2exp(α2(φ,Ωφ))dφP(fφ)dαP(α)αRg(Ω)2exp(α2(φ,Ωφ))\left\langle \varphi_i \right\rangle = \frac{\int d\varphi\, \varphi_i P(f|\varphi) \int\limits d\alpha\,P(\alpha) \alpha^{\frac{Rg(\Omega)}{2}} \exp\left(-\frac{\alpha}{2} (\vec{\varphi},\Omega\vec{\varphi})\right)}{\int d\varphi P(f|\varphi) \int\limits d\alpha\,P(\alpha) \alpha^{\frac{Rg(\Omega)}{2}} \exp\left(-\frac{\alpha}{2} \left(\vec{\varphi},\Omega\vec{\varphi}\right)\right)}

Третий случай будет рассмотрен в следующем разделе на примере гауссовых шумов в эксперименте.

Случай гауссовых шумов

Случай, когда ошибки в эксперименте распределены по Гауссу, замечателен тем, что можно получить аналитическое решение нашей задачи. Решение и его ошибка будут иметь следующий вид:

φ=(KTΣ1K+αΩ)1KTΣ1Tf\vec{\varphi} = \left(K^T\Sigma^{-1}K +\alpha^*\Omega\right)^{-1}K^T\Sigma^{-1^{T}}\vec{f} Σφ=(KTΣ1K+αΩ)1\Sigma_{\vec{\varphi}} = \left(K^T\Sigma^{-1}K+\alpha^*\Omega\right)^{-1}

где Σ\Sigma — ковариационная матрица многомерного распределения Гаусса, α\alpha^* — наиболее вероятное значение параметра α\alpha, которое определяется из условия максимума апостериорной плотности вероятности:

P(αf)=C39;αRg(Ω)2(KTΣ1K+αΩ)1exp(12fTΣ1KT(KTΣ1K+αΩ)1KTΣ1Tf)P\left(\alpha|\vec{f}\right) = C39; \alpha^{\frac{Rg(\Omega)}{2}}\sqrt{\left|\left(K^T\Sigma^{-1}K+\alpha\Omega\right)^{-1}\right|}\exp\left(\frac{1}{2} \vec{f}^T\Sigma^{-1}K^{T}(K^T\Sigma^{-1}K+\alpha\Omega)^{-1}K^T\Sigma^{-1^{T}}\vec{f}\right)

В качестве примера рассмотрим восстановление спектра, состоящего из двух гауссовых пиков, которые попали под действие интегрального ядра-ступеньки (функции Хевисайда).

deconvolution

Оптимальное планирование эксперимента при помощи функций значимости параметров

Under construction...

Этот раздел дорабатывается...