Определение слова «Наименьших квадратов метод»

Большой энциклопедический словарь:

НАИМЕНЬШИХ КВАДРАТОВ МЕТОДодин из методов теории ошибок для оценки неизвестных величин по результатам измерений, содержащим случайные ошибки. Применяется при обработке наблюдений.

Большая советская энциклопедия:

Наименьших квадратов метод
Один из методов ошибок теории (См. Ошибок теория) для оценки неизвестных величин по результатам измерений, содержащим случайные ошибки. Н. к. м. применяется также для приближённого представления заданной функции другими (более простыми) функциями и часто оказывается полезным при наблюдений обработке (См. Наблюдений обработка). Н. к. м. предложен К. Гауссом (1794—95) и А. Лежандром (1805—06). Первоначально Н. к. м. использовался для обработки результатов астрономических и геодезических наблюдений. Строгое математическое обоснование и установление границ содержательной применимости Н. к. м. даны А. А. Марковым (старшим) и А. Н. Колмогоровым. Ныне Н. к. м. представляет собой один из важнейших разделов математической статистики и широко используется для статистических выводов в различных областях науки и техники.
Сущность обоснования Н. к. м. (по Гауссу) заключается в допущении, что «убыток» от замены точного (неизвестного) значения физической величины и её приближённым значением X, вычисленным по результатам наблюдений, пропорционален квадрату ошибки: (X — )2. В этих условиях оптимальной оценкой естественно признать такую лишённую систематической ошибки величину X, для которой среднее значение «убытка» минимально. Именно это требование и составляет основу Н. к. м. В общем случае отыскание оптимальной в смысле Н. к. м. оценки Х — задача весьма сложная, поэтому практически эту задачу сужают и в качестве Х выбирают линейную функцию от результатов наблюдений, лишённую систематической ошибки, и такую, для которой среднее значение «убытка» минимально в классе всех линейных функций. Если случайные ошибки наблюдений подчиняются нормальному распределению (См. Нормальное распределение) и оцениваемая величина зависит от средних значений результатов наблюдений линейно (случай, весьма часто встречающийся в приложениях Н. к. м.), то решение этой задачи будет одновременно являться и решением общей задачи. При этом оптимальная оценка Х также подчиняется нормальному распределению со средним значением и, следовательно, плотность вероятности случайной величины Х

при х = Х достигает максимума в точке = Х (это свойство и выражает точное содержание распространённого в теории ошибок утверждения «оценка X, вычисленная согласно Н. к. м., — наиболее вероятное значение неизвестного параметра »).
Случай одного неизвестного. Пусть для оценки значения неизвестной величины произведено n независимых наблюдений, давших результаты Y1, Y2,..., Yn, т. е. Y1 = + 1, Y2 = + 2,..., Yn = + n, где 1, 2,..., n — случайные ошибки (по определению, принятому в классической теории ошибок, случайные ошибки — независимые случайные величины с нулевым математическим ожиданием: Еi = 0; если же Ei 0, то Еi, называются систематическими ошибками). Согласно Н. к. м., в качестве оценки величины принимают такое X, для которого будет наименьшей сумма квадратов (отсюда и само название метода):

где pi = k/i2 и i2 = Di = Ei2
(коэффициент k > 0 можно выбирать произвольно). Величину pi называют весом, a i — квадратичным отклонением измерения с номером i. В частности, если все измерения равноточны, то 1 = 2 =... = n, и в этом случае можно положить p1 = p2 =... = pn = 1; если же каждое Yi, — арифметическое среднее из ni, равноточных измерений, то полагают pi = ni.
Сумма S (X) будет наименьшей, если в качестве Х выбрать взвешенное среднее:

Оценка Y величины лишена систематической ошибки, имеет вес Р и дисперсию

В частности, если все измерения равноточны, то Y — арифметическое среднее результатов измерений:

При некоторых общих предположениях можно показать, что если количество наблюдений n достаточно велико, то распределение оценки Y мало отличается от нормального с математическим ожиданием и дисперсией k/P. В этом случае абсолютная погрешность приближённого равенства
—Y
меньше

с вероятностью, близкой к значению интеграла

[напр., I (1,96) = 0,950; I (2,58) = 0,990; I (3,00) = 0,997].
Если веса измерений pi заданы, а множитель k до наблюдений остаётся неопределённым, то этот множитель и дисперсия оценки Y могут быть приближённо оценены по формулам:

и

(обе оценки лишены систематических ошибок).
В том практически важном случае, когда ошибки i подчиняются нормальному распределению, можно найти точное значение вероятности, с которой абсолютная погрешность приближённого равенства
—Y
окажется меньше ts (t — произвольное положительное число). Эту вероятность, как функцию от t, называют функцией распределения Стьюдента с n — 1 степенями свободы и вычисляют по формуле

где постоянная Cn-1 выбрана таким образом, чтобы выполнялось условие: In-1() = 1. При больших n формулу (2) можно заменить формулой (1). Однако применение формулы (1) при небольших n привело бы к грубым ошибкам. Так, например, согласно (1), значению I = 0,99 соответствует t = 2,58; истинные значения t, определяемые при малых n как решения соответствующих уравнений ln-1(t) = 0,99, приведены в таблице:
--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
| n                   | 2                   | 3                   | 4                   | 5                   | 10                 | 20                 | 30                  |
|------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| t                   | 63,66            | 9,92              | 5,84              | 4,60              | 3,25              | 2,86              | 2,76               |
--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Пример. Для определения массы некоторого тела произведено 10 независимых равноточных взвешиваний, давших результаты Yi (в г):
------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
| Yi                    | 18,41               | 18,42               | 18,43               | 18,44               | 18,45               | 18,46                |
|----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| ni                     | 1                      | 3                      | 3                      | 1                      | 1                      | 1                      |
------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
(здесь ni — число случаев, в которых наблюдался вес Yi, причём n = ni, = 10). Так как все взвешивания равноточные, то следует положить pi = ni и в качестве оценки для неизвестного веса , выбрать величину

Задавая, например, I9 = 0,95, по таблицам распределения Стьюдента с девятью степенями свободы можно найти, что t = 2,262, и поэтому в качестве предельной абсолютной погрешности приближённого равенства — 18,431 следует принять величину

Т. о. 18,420 < < 18,442.
Случай нескольких неизвестных (линейные связи). Пусть n результатов измерений Y1, Y2,..., Yn связаны с m неизвестными величинами x1, x2,..., хm (m < n) независимыми линейными отношениями

где aij — известные коэффициенты, а i — независимые случайные ошибки измерений. Требуется оценить неизвестные величины xj (эту задачу можно рассматривать как обобщение предыдущей, в которой = x1 и m = ai1 = 1; i = 1,2,..., n).
Так как Еi = 0, то средние значения результатов измерений yi, = Eyi. связаны с неизвестными величинами x1, x2,..., хm линейными уравнениями (линейные связи):

Следовательно, искомые величины xj представляют собой решение системы (4), уравнения которой предполагаются совместными. Точные значения измеряемых величин yi и случайные ошибки i обычно неизвестны, поэтому вместо систем (3) и (4) принято записывать так называемые условные уравнения

Согласно Н. к. м., качестве оценок для неизвестных xj применяют такие величины Xj, для которых сумма квадратов отклонений

будет наименьшей (как и в предыдущем случае, pi — вес измерения Yi, — величина, обратно пропорциональная дисперсии случайной ошибки i). Условные уравнения, как правило, несовместны, т. е. при любых значениях Xj разности

не могут, вообще говоря, все обратиться в нуль, и в этом случае

также не может обратиться в нуль. Н. к. м. предписывает в качестве оценок выбрать такие значения Xj, которые минимизируют сумму S. В тех исключительных случаях, когда условные уравнения совместны и, значит, обладают решением, это решение совпадает с оценками, полученными согласно Н. к. м.
Сумма квадратов S представляет собой квадратичный многочлен относительно переменных Xj; этот многочлен достигает минимума при таких значениях X1, X2,..., Хm, при которых обращаются в нуль все первые частные производные:

Отсюда следует, что оценки Xj, полученные согласно Н. к. м., должны удовлетворять системе так называемых нормальных уравнений, которая в обозначениях, предложенных Гауссом, имеет вид:

где

Оценки Xj, получающиеся в результате решения системы нормальных уравнений, лишены систематических ошибок (Exj = xj); дисперсии Dxj; величин Xj равны kdjj/d, где d — определитель системы (5), а djj — минор, соответствующий диагональному элементу [раjaj] (иными словами, djj/d — вес оценки Xj). Если множитель пропорциональности k (k называется дисперсией на единицу веса) заранее неизвестен, то для его оценки, а также для оценки дисперсии Dxj служат формулы:
k — S/(n — m) и Dxj — s2j = Sdjj/d (n — m)
(S — минимальное значение исходной суммы квадратов). При некоторых общих предположениях можно показать, что если количество наблюдений n достаточно велико, то абсолютная погрешность приближённого равенства xi — Xj меньше tsj с вероятностью, близкой к значению интеграла (1). Если случайные ошибки наблюдений i подчиняются нормальному распределению, то все отношения (Xj — xj)/sj распределены по закону Стьюдента с n — m степенями свободы [точная оценка абсолютной погрешности приближённого равенства производится здесь с помощью интеграла (2) так же, как в случае одного неизвестного]. Кроме того, минимальное значение суммы S в вероятностном смысле не зависит от X1, X2,..., Xm и поэтому приближённые значения дисперсий оценок Dxj — s2j не зависят от самих оценок Xj.
Один из наиболее типичных случаев применения Н. к. м. — «выравнивание» таких результатов наблюдений Yi, для которых в уравнениях (3) aij = aj (ti), где aj (t) — известные функции некоторого параметра t (если t — время, то t1, t2,... — те моменты времени, в которые производились наблюдения). Особенно часто встречается в приложениях случай так называемой параболической интерполяции, когда aj (t) — многочлены [например, a1(t) = 1, a2(t) = t, a3(t) = t2,... и т.д.]; если t2 — t1 = t3 — t2 =... = tn — tn-1, a наблюдения равноточные, то для вычисления оценок Xj можно воспользоваться таблицами ортогональных многочленов, имеющимися во многих руководствах по современной вычислительной математике. Другой важный для приложения случай — так называемая гармоническая интерполяция, когда в качестве aj (t) выбирают тригонометрические функции [например, aj (t) = cos (j — 1) t, j = 1, 2,..., m].
Пример. Для оценки точности одного из методов химического анализа этим методом определялась концентрация CaO в десяти эталонных пробах заранее известного состава. Результаты равноточных наблюдений указаны в таблице (i — номер эксперимента, ti — истинная концентрация CaO, Ti — концентрация CaO. определённая в результате химического анализа, Yi = Ti — ti — ошибка химического анализа):
--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
| i              | 1             | 2             | 3             | 4             | 5             | 6             | 7             | 8             | 9             | 10           |
|-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| ti             | 4             | 8             | 12,5        | 16           | 20           | 25           | 31           | 36           | 40           | 40           |
|-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| Yi           | - 0,3        | - 0,2        | - 0,4        | - 0,4        | - 0,2        | - 0,5        | + 0,1       | - 0,5        | -0,6         | -0,5         |
--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Если результаты химического анализа не имеют систематических ошибок, то Eyi = 0. Если же такие ошибки имеются, то в первом приближении их можно представить в виде: Eyi = + ti ( называется постоянной ошибкой, а ti — методической ошибкой) или, что то же самое,

где

Для отыскания оценок и достаточно оценить коэффициенты

Условные уравнения в данном случае имеют вид:

поэтому ai1 = 1, ai2 = ti — t (согласно предположению о равноточности наблюдений, все pi = 1). Так как

то система нормальных уравнений записывается особенно просто:
[a1a1] X1 = [Ya1]; [a2a2] X2 = [Ya2],
где

Дисперсии компонент решения этой системы суть

где k — неизвестная дисперсия на единицу веса (в данном случае k — дисперсия любой из величин Yi). Так как в этом примере компоненты решения принимают значения X1 = -0,35 и X2 = -0,00524, то

Dx1 — s12 = 0,00427,
Dx2 — s22 = 0,0000272,
s1 = 0,065, s2 = 0,00522.
Если случайные ошибки наблюдений подчиняются нормальному распределению, то отношения |Xj – xjl/sj (j = 1, 2) распределены по закону Стьюдента. В частности, если результаты наблюдений лишены систематических ошибок, то x1 = x2 = 0 и, значит, закону Стьюдента должны подчиняться отношения |X1|/s1 и |X2|/s2. С помощью таблиц распределения Стьюдента с n – m = 8 степенями свободы можно убедиться, что если действительно x1 = x2 = 0, то с вероятностью 0,999 каждое из этих отношений не должно превосходить 5,04 и с вероятностью 0,95 не должно превосходить 2,31. В данном случае |X1|/s1 = 5,38 > 5,04, поэтому гипотезу отсутствия систематических ошибок целесообразно отвергнуть; в то же время следует признать, что гипотеза об отсутствии методической ошибки (x2 = 0) не противоречит результатам наблюдений, так как |X2|/s2 = 1,004 < 2,31. Т. о., можно заключить, что для определения t по результату наблюдения Т целесообразно пользоваться приближённой формулой t = Т + 0,35.
Во многих практически важных случаях (и в частности, при оценке сложных нелинейных связей) количество неизвестных параметров бывает весьма большим и поэтому реализация Н. к. м. оказывается эффективной лишь при использовании современной вычислительной техники.
Лит.: Марков А. А., Исчисление вероятностей, 4 изд., М., 1924; Колмогоров А. Н., К обоснованию метода наименьших квадратов, «Успехи математических наук», 1946, т. 1, в. 1; Линник Ю. В., Метод наименьших квадратов и основы математико-статистической теории обработки наблюдений, 2 изд., М., 1962; Helmert F. R., Die Ausgieichungsrechnung nach der Methode der kleinsten Quadrate..., 2 Aufl., Lpz., 1907.
Л. Н. Большев.

Математическая энциклопедия:

Один из методов ошибок теории для оценки неизвестных величин по результатам измерений, содержащим случайные ошибки. Н. к. м. применяется также для приближенного представления заданной функции другими (более простыми) функциями и часто оказывается полезным при обработке наблюдений. Н. к. м. предложен К. Гауссом (С. Gauss, 1794-95) и А. Лежандром (A. Legendre, 1805-06). Строгое обоснование и установление границ содержательной применимости Н. к. м. даны А. А. Марковым и А. Н. Колмогоровым. В простейшем случае линейных связей (см. ниже) и наблюдений, не содержащих систематич. ошибок, а подверженных лишь случайным ошибкам, оценки неизвестных величин, полученные с помощью Н. к. м., являются линейными функциями от наблюденных значений. Эти оценки не имеют систематич. ошибок, т. е. являются несмещенными (см. Несмещенная оценка). Если случайные ошибки наблюдений независимы и подчиняются нормальному распределению, то Н. к. м. дает оценки неизвестных с наименьшей дисперсией, т. е. эти оценки являются эффективными (см. Статистическое оценивание). В этом смысле Н. к. м. является наилучшим среди всех остальных методов, позволяющих находить несмещенные оценки. Однако если распределение случайных ошибок существенно отличается от нормального, то Н. к. м. может и не быть наилучшим. При обосновании Н. к. м. (по Гауссу) предполагается, что "убыток" от замены точного (неизвестного) значения нек-рой величины ее приближенным значением X, вычисленным по результатам наблюдений, пропорционален квадрату ошибки оптимальной оценкой считается такая лишенная систематич. ошибки величина X, для к-рой среднее значение "убытка" минимально. Именно это требование и составляет основу Н. к. м. В общем случае отыскание оптимальной в смысле Н. к. м. оценки X — задача весьма сложная, поэтому практически эту задачу сужают и в качестве Xвыбирают линейную функцию от результатов наблюдений, лишенную систематич. ошибки, и такую, для к-рой среднее значение убытка минимально в классе всех линейных функций. Если случайные ошибки наблюдений подчиняются нормальному распределению и оцениваемая величина mзависит от средних значений результатов наблюдений линейно (случай, весьма часто встречающийся в приложениях Н. к. м.), то решение этой задачи будет одновременно являться и решением общей задачи. При этом оптимальная оценка Xтакже подчиняется нормальному распределению со средним значением и, следовательно, плотность вероятности случайной величины X достигает максимума в точке (это свойство и выражает точное содержание распространенного в теории ошибок утверждения: "оценка X, вычисленная согласно Н. к. м.,- наиболее вероятное значение неизвестного параметра "). Случай одного неизвестного. Пусть для оценки значения неизвестной величины произведено пнезависимых наблюдений, давших результаты — случайные ошибки (по определению, принятому в классич. теории ошибок, случайные ошибки — независимые случайные величины с нулевым математич. ожиданием:; если же наз. систематическими ошибками). Согласно Н. к. м. в качестве оценки величины m. принимают такое X, для к-рого будет наименьшей сумма квадратов (отсюда и само название метода): где (коэффициент k>0 можно выбирать произвольно). Величину наз. весом, а -квадратичным отклонением измерения с номером . В частности, если все измерения равноточны, то и в этом случае можно положить если же каждое — арифметич. среднее из равноточных измерений, то полагают Сумма будет наименьшей, если в качестве Xвыбрать взвешенное среднее: Оценка величины лишена систематич. ошибки, имеет вес Ри дисперсию . В частности, если все измерения равноточны, то Y — арифметич. среднее результатов измерений: При нек-рых общих предположениях можно показать, что если количество наблюдений пдостаточно велико, то распределение оценки У мало отличается от нормального с математич. ожиданием m и дисперсией .В этом случае абсолютная погрешность приближенного равенства меньше с вероятностью, близкой к значению интеграла (напр., ). Если веса измерений заданы, а множитель кдо наблюдений остается неопределенным, то этот множитель и дисперсия оценки могут быть оценены по формулам: и (обе оценки лишены систематич. ошибок). В том практически важном случае, когда ошибки подчиняются нормальному распределению, можно найти точное значение вероятности, с к-рой абсолютная погрешность приближенного равенства окажется меньше (t- произвольное положительное число): где постоянная выбрана таким образом, чтобы выполнялось условие ( Стьюдента распре деление с п-1 степенями свободы). При больших пформулу (2) можно заменить формулой (1). Однако применение формулы (1) при небольших ппривело бы к грубым ошибкам. Так, напр., согласно (1) значению I= 0,99 соответствует t=2,58; истинные значения t, определяемые при малых пкак решения соответствующих уравнений приведены в таблице: Пример. Для определения массы нек-рого тела произведено 10 независимых равноточных взвешиваний, давших результаты Yi (в г): (здесь ni — число случаев, в к-рых наблюдалась масса ). Так как все взвешивания равноточные, то следует положить и в качестве оценки для неизвестного веса выбрать величину . Задавая, напр.,по таблицам распределения Стьюдента с девятью степенями свободы можно найти, что и поэтому в качестве предельной абсолютной погрешности приближенного равенства следует принять величину Таким образом, Случай нескольких неизвестных (линейные связи). Пусть презультатов измерений связаны с тнеизвестными величинами независимыми линейными соотношениями где — известные коэффициенты, а — независимые случайные ошибки измерений. Требуется оценить неизвестные величины (эту задачу можно рассматривать как обобщение предыдущей, в к-рой Так как то средние значения результатов измерений связаны с неизвестными величинами линейными уравнениями (линейные связи): Следовательно, искомые величины представляют собой решение системы (4), уравнения к-рой предполагаются совместными. Точные значения измеряемых величин и случайные ошибки обычно неизвестны, поэтому вместо систем (3) и (4) принято записывать так наз. условные уравнения Согласно Н. к. м. в качестве оценок для неизвестных применяют такие величины , для к-рых сумма квадратов отклонений будет наименьшей (как и в предыдущем случае,- вес измерения,- величина, обратно пропорциональная дисперсии случайной ошибки ). Условные уравнения, как правило, несовместны, т. с. при любых значениях разности не могут, вообще говоря, все обратиться в нуль. Н. к. м. предписывает в качестве оценок выбрать такие значения , к-рые минимизируют сумму S. В тех исключительных случаях, когда условные уравнения совместны и, значит, обладают решением, это решение совпадает с оценками, полученными согласно Н. к. м. Сумма квадратов Sпредставляет собой квадратичный многочлен относительно переменных ; этот многочлен достигает минимума при таких значениях при к-рых обращаются в нуль все первые частные производные: Отсюда следует, что оценки , полученные согласно Н. к. м., должны удовлетворять системе т. н. нормальных уравнений, к-рая в обозначениях, предложенных К. Гауссом, имеет вид где и Оценки, получающиеся в результате решения системы нормальных уравнений, лишены систематич. ошибок дисперсии величин равны где d- определитель системы (5), а — минор, соответствующий диагональному элементу (иными словами,- вес оценки ). Если множитель пропорциональности (кназ. дисперсией на единицу веса) заранее неизвестен, то для его оценки, а также для оценки дисперсии служат формулы(S- минимальное значение исходной суммы квадратов). При нек-рых общих предположениях можно показать, что если количество наблюдений пдостаточно велико, то абсолютная погрешность приближенного равенства меньше с вероятностью, близкой к значению интеграла (1). Если случайные ошибки наблюдений подчиняются нормальному распределению, то все отношения распределены по закону Стьюдента с п-то степенями свободы (точная оценка абсолютной погрешности приближенного равенства производится здесь с помощью интеграла (2) так же, как в случае одного неизвестного). Кроме того, минимальное значение суммы Sв вероятностном смысле не зависит от и потому приближенные значения дисперсий оценок не зависят от самих оценок Один из наиболее типичных случаев применения Н. к. м.- "выравнивание" таких результатов наблюдений , для к-рых в уравнениях (3) где — известные функции нек-рого параметра t(если t- время, то — те моменты времени, в к-рые производились наблюдения). Особенно часто встречается в приложениях случай т. н. параболической интерполяции, когда — многочлены (напр., ); если а наблюдения равноточные, то для вычисления оценок можно воспользоваться таблицами ортогональных многочленов. Другой важный для приложений случай — т. н. гармоническая интерполяция, когда в качестве выбирают три-гонометрич. функции (напр., ). Пример. Для оценки точности одного из методов химич. анализа этим методом определялась концентрация СаО в десяти эталонных пробах заранее известного состава. Результаты наблюдений указаны в таблице (г — номер эксперимента, t;- истинная концентрация СаО,- концентрация СаО, определенная в результате химич. анализа, — ошибка химич. анализа): Если результаты химич. анализа не имеют систематич. ошибок, то Если же такие ошибки имеются, то в первом приближении их можно представить в виде:(наз. постоянной ошибкой, а — методической ошибкой) или, что то же самое, где Для отыскания оценок и достаточно оценить величины и . Условные уравнения в данном случае имеют вид поэтому (согласно предположению о равноточности наблюдений все ). Так как то система нормальных уравнений записывается особенно просто: где Дисперсии компонент решения этой системы суть где k — неизвестная дисперсия на единицу веса (в данном случае k- дисперсия любой из величин ). Так как в этом примере компоненты решения принимают значения Х 1= -0,35, и Х 2= — 0,00524, то Если случайные ошибки наблюдений подчиняются нормальному распределению, то отношения j= 1, 2, распределены по закону Стьюдента. В частности, если результаты наблюдений лишены систематич. ошибок, то , и, значит, закону Стьюдента должны подчиняться отношения и . С помощью таблиц распределения Стьюдента с п-m=8 степенями свободы можно убедиться, что если действительно х 1=х 2=0, то с вероятностью 0,999 каждое из этих отношений не должно превосходить 5,04 и с вероятностью 0,95 не должно превосходить 2,31. В данном случае поэтому гипотезу отсутствия систематич. ошибок целесообразно отвергнуть; в то же время следует признать, что гипотеза об отсутствии ме-тодич. ошибки () не противоречит результатам наблюдений, т. к. . Таким образом, можно заключить, что для определения tпо результату наблюдения Тцелесообразно пользоваться приближенной формулой Случай нескольких неизвестных (нелинейные связи). Пусть презультатов измерений связаны с mнеизвестными функциональной зависимостью где — независимые случайные ошибки, а функции (в общем случае нелинейные) дифференцируемы. Согласно Н. к. м. в качестве оценок для xj принимают такие величины , для к-рых сумма квадратов будет наименьшей. Так как функции нелинейные, то решение нормальных уравнений в этом случае может представлять значительные трудности. Иногда нелинейные связи каким-либо преобразованием могут быть приведены к линейным. Напр., при намагничивании железа напряженность магнитного поля H связана с магнитной индукцией Вэмпирич. формулой (коэффициенты и определяются по измеренным значениям при заданных ). Индукция В- нелинейная функция от и . Однако обратная величина индукции зависит от и Линейно. Применение Н. к. м. к исходному и преобразованному равенствам дает, вообще говоря, различные оценки для неизвестных и , но если дисперсия случайных ошибок измерения индукции значительно меньше измеряемых величин , то . Поэтому величинам следует приписать веса ; естественно ожидать, что при этих условиях различие оценок в нелинейном и линейном случаях будет практически несущественным. В тех случаях, когда не удается тождественными преобразованиями заменить нелинейные уравнения линейными, пользуются другим способом линеаризации. Из заданных пуравнений отбирают какие-либо m уравнений, решение к-рых принимают за нулевое приближение для неизвестных xj. Если положить то систему условных уравнений можно записать в виде: Разлагая правые части в ряд по степеням и ограничиваясь линейными членами, получают где — значение функции и ее производных по при Эта система уравнений линейна, и поэтому для оценки неизвестных легко может быть применен Н. к. м. Оценив получают первое приближение для неизвестных Величины берут за исходное приближение, и всю операцию повторяют, пока с заданной точностью не совпадут два последовательных приближения. Если дисперсии ошибок уменьшаются, то процесс сходится. Очень часто при малых оказывается вполне достаточным уже первое приближение: не имеет смысла требовать нахождения с точностью, значительно превышающей Во многих практически важных случаях (и в частности, при оценке сложных нелинейных связей) количество неизвестных параметров бывает весьма большим, и поэтому реализация Н. к. м. оказывается эффективной лишь при использовании современной вычислительной техники. Лит.:[1] Марков А. А., Исчисление вероятностей, 4 изд., М., 1924; [2] Колмогоров А. Н., "Успехи матем. наук", 1946, т. 1, в. 1, с. 57-70; [3] Линник Ю. В., Метод наименьших квадратов и . основы математико-статистической теории обработки наблюдений, 2 изд., М., 1962; [4] Налимов В. В., Применение математической статистики при анализе вещества, М., 1960; [5] Helmert F. R., Die Ausgleichungsrechnung nach der Methode der kleinsten Quadrate, 3 Aufl., Lpz.- В., 1924. Л. Н. Большее.

Смотреть другие определения →


© «СловоТолк.Ру» — толковые и энциклопедические словари, 2007-2020

Top.Mail.Ru
Top.Mail.Ru