Мы поможем в написании ваших работ!



ЗНАЕТЕ ЛИ ВЫ?

Выбор вида математической модели

Поиск

 

Как мы выяснили, через n точек можно всегда провести кривую, аналитически выражаемую многочленом (n - 1) -й степени. Этот многочлен называют интерполяционным. И вообще, замену функции на функцию так, что их значения совпадают в заданных точках называют интерполяцией.

 

Рис. 33.13. Сглаживание функцией supsmooth.

 

Однако такое решение проблемы не является удовлетворительным, поскольку из-за случайных ошибок измерения и влияния на измерения значений помех и шумов в устройстве. Так что

 

, (33.11)

 

где - некоторая случайная ошибка. Поэтому требуется провести кривую так, чтобы она в наименьшей степени зависела от случайных ошибок. Эта задача называется сглаживанием (аппроксимацией) экспериментальной зависимости и часто решается методом наименьших квадратов. Сглаживающую кривую называют аппроксимирующей.

Как правило, регрессия очень эффективна, когда заранее известен (или, по крайней мере, хорошо угадывается) закон распределения данных. Задача выбора вида функциональной зависимости - задача не формализуемая, так как одна и та же кривая на данном участке примерно с одинаковой точностью может быть описана самыми различными аналитическими выражениями. Так, например, U - образная кривая может быть описана участком параболы, гиперболы, эллипса или синусоиды. Рациональный выбор того или иного аналитического описания может быть обоснован лишь при учете определенного перечня требований.

Главное требование к математической модели - это удобство ее последующего использования. Основное, что обеспечивает удобство математического выражения, - его компактность. Например, известно, что любую функцию можно описать многочленом . Но если же оказывается возможным с приемлемой точностью описать ее одночленом вида , и т. п., то ясно, что такое компактное представление много лучше. Таким образом, компактность модели достигается удачным выбором элементарных функций, обеспечивающих хорошее приближение при малом их числе.

Другое весьма желательное (но не всегда достижимое) требование – это содержательность, иначе говоря, интерпретируемость предлагаемого аналитического описания. Как правило, это достигается путем придания определенного смысла константам или функциям, входящим в найденную математическую модель. Отсюда следует важное практическое обстоятельство. Даже в наше время широкого использования компьютеров в научных исследованиях принятие решения о выборе той или иной математической модели остается за человеком - исследователем и не может быть передано компьютеру. Только человек, а не компьютер, знает, для чего будет в дальнейшем использоваться эта модель, на основе каких понятий будут интерпретированы ее параметры и т. д.

Если подбор вида аппроксимирующей функции - процесс не формальный и не может быть полностью передан компьютеру, то расчет параметров аппроксимирующей функции выбранного вида - операция чисто формальная и ее следует осуществлять на компьютере. Более того, это трудный и утомительный процесс, в котором человек не застрахован от ошибок, а компьютер выполнит его быстрее и качественнее.

В общем случае этот расчет состоит в решении системы нелинейных уравнений. В частных случаях это может быть система уравнений линейных относительно искомых параметров, система уравнений, которые после ряда преобразований сводятся к линейным и, наконец, когда уравнения системы не сводятся к линейным. Так, например, если известны координаты и для n экспериментальных точек, а для аппроксимации принята модель в виде многочлена , то расчет неизвестных коэффициентов, т. е. искомых по известным координатам n точек сводится к решению системы уравнений, линейных относительно коэффициентов.

Как видно из этого примера, число независимых уравнений системы равно числу n поставленных опытов. С другой стороны, для определения k коэффициентов необходимо не менее k независимых уравнений. Но если число n поставленных опытов и число независимых уравнений равно числу искомых коэффициентов, то решение системы единственно, а следовательно, случайно, так как точно соответствует случайным значениям исходных данных. При числе опытов n, большем, чем число k искомых коэффициентов, число независимых уравнений системы избыточно. Из этих уравнений в разных комбинациях можно составить несколько систем уравнений, каждая из которых в отдельности даст свое решение. Но между собой они будут несовместимы. Каждое решение будет соответствовать своей аппроксимирующей функции. Если все их построить на графике, то получим целый пучок аппроксимирующих кривых.

Это открывает при n > k совершенно новые возможности. Во-первых, этот пучок кривых показывает форму и ширину области неопределенности проведенного эксперимента. Во-вторых, может быть произведено усреднение всех найденных кривых. Полученная усредненная кривая будет гораздо точнее и достовернее описывать исследованное явление, так как она в значительной степени освобождена от случайных погрешностей, приводящих к разбросу отдельных экспериментальных точек.

Таким образом, проведение большего числа опытов n, чем минимально необходимое для расчета коэффициентов n = k, позволяет определить область неопределенности по фактическим данным эксперимента и одновременно существенно уменьшить случайную погрешность окончательного результата путем усреднения.

 

Метод наименьших квадратов.

 

Усреднение несовместных решений избыточной системы уравнений может быть произведено различными способами (на глаз, методом медианных центров и т. д.). Наиболее мощный метод был разработан в 1795-180 гг. Лежандром и Гауссом и получил название регрессионного анализа, или метода наименьших квадратов (МНК). Но теперь благодаря возможности широкого доступа исследователей к вычислительной технике этот метод получил второе рождение. Дело в том, что вычисления по МНК черезвычайно громоздки. С появлением компьютеров положение коренным образом изменилось. Программы обработки данных МНК содержатся в математическом обеспечении любого компьютера. Поэтому практически надо только ввести свои данные в соответствии с этой программой и дождаться готового ответа. Но чтобы представлять себе, что делает с нашими данными компьютер по программам МНК, рассмотрим сущность МНК на примере простейших задач.

Задача аппроксимации решается следующим образом. В декартовой прямоугольной системе координат наносят точки (xi, yi). По расположению этих точек высказывается предположение о принадлежности искомой функции к определенному классу функций. Например, линейная функция , квадратичная и т.д. В общем случае . Неизвестные параметры функции определяются из требования минимума суммы квадратов случайных ошибок, т. е. минимума величины

 

(33.12)

 

Величина называется также суммарной невязкой. Необходимым условием минимума функции нескольких переменных является обращение в нуль частных производных невязки:

 

. (33.13)

 

Отсюда и наименование: метод наименьших квадратов.

Решая систему уравнений (33.13), находим неизвестные параметры aj и тем самым полностью определяем функцию, которая наилучшим образом (в смысле наименьших квадратов отклонений от исходных точек или наименьшей суммарной невязки) аппроксимирует (приближает) искомую функцию .

 

Линейная зависимость.

 

Остановимся подробнее на линейной зависимости.

 

. (33.14)

 

Задача состоит в том, чтобы найти параметры m и c, при которых прямая наилучшим образом проходила бы через экспериментальные точки.

Линейная зависимость очень широко распространена в физике. И даже когда зависимость нелинейная, обычно стараются строить график так, чтобы получить прямую линию.

Допустим, что имеется n пар измеренных значений , , …, и предположим, что ошибки содержат лишь величины y. Такое предположение очень часто оправдывается на практике. В противном случае анализ существенно усложняется.

В случае параметров m и c отклонение в i -м измерении составляет

 

. (33.15)

 

Наилучшие значения m и c выбираются так, чтобы сумма

 

(33.16)

 

была минимальной.

 

. (33.17)

 

Таким образом, искомые величины m и c получаются решением системы уравнений

 

. (33.18)

 

Второе уравнение показывает, что наилучшая прямая проходит через точку с координатами

 

, (33.19)

 

т.е. через центр тяжести всех экспериментальных точек. Из уравнений находим

 

. (33.20)

 

Результат обработки данных линейной зависимостью методом наименьших квадратов средствами Mathcad показан на рисунках 33.14 - 33.14.

 

 

Рис. 33.14: Метод наименьших квадратов. Аппроксимация линейной зависимостью средствами Mathcad.

Линеаризация

 

Ввиду простоты расчетов, линейная зависимость используется довольно часто. Кроме того, многие функции, зависящие от двух параметров, можно линеаризовать путем замены переменных. Для этого необходимо подобрать такое преобразование исходной зависимости , в результате которого зависимость приобретает линейный вид . Далее решается задача линейной аппроксимации для новой зависимости и вычисленные коэффициенты b0 и b1 пересчитываются в коэффициенты a0 и a1.

Для ряда часто встречающихся двухпараметрических зависимостей возможные замены переменных приведены в Таблице 33.1.

 

Таблица 33.1.

 

Вид зависимости Замена Ограничения

 

Полиномиальная регрессия

 

Еще одним из наиболее распространенных вариантов обработки набора данных однофакторного эксперимента является аппроксимация полиномами.

 

Рис. 20: Реализация экспоненциальной регрессии.

 

Рассмотрим полином

 

, (33.21)

 

где - подгоночные параметры, m - степень полинома.

Метод наименьших квадратов требует, чтобы сумма квадратов отклонений, т. е. квадратов остатков, была минимальной. Она определяется следующим образом

 

, (33.22)

 

где n - число пар экспериментальных данных (xi, yi). Минимизируем R стандартным методом. Для этого определим производные по каждому из параметров и приравняем их к нулю.

 

. (33.23)

 

В результате мы имеем систему из m уравнений, линейных по неизвестным коэффициентам полинома

 

, (33.24)

 

где суммирование производится по всем точкам. Преобразуя систему уравнений, получим

 

(33.25)

 

Систему линейных уравнений удобно представить в матричном обозначении Aa = b. Матрица A - квадратная симметричная матрица, a - вектор коэффициентов полинома, b - вектор свободных членов.

 

, (33.26)

, (33.27)

. (33.28)

 

Элементы матрицы A легко записать следующим образом

 

, (33.29)

 

где j - номер строки, k - номер столбца.

Подобным же образом запишем выражение для b

 

. (33.30)

 

Из линейной алгебры вы знаете, что решение для вектора a можно найти следующим образом

 

. (33.31)

 

Среднеквадратичная ошибка подгонки и ошибки подгоночных параметров определяются выражениями

 

. (33.32)

 

Качество аппроксимации полиномами различных степеней можно оценить сравнивая значения ѕ. Обратите внимание, что эта величина зависит от разности числа экспериментальных точек и числа подгоночных параметров.

 



Поделиться:


Последнее изменение этой страницы: 2016-12-13; просмотров: 445; Нарушение авторского права страницы; Мы поможем в написании вашей работы!

infopedia.su Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Обратная связь - 3.12.163.120 (0.008 с.)