Как минимизировать относительную ошибку аппроксимации?
Есть набор измерений и эталонных значений к ним. С помощью МНК аппроксимирую прямой и после применения коэффициентов получаю более точные значения измерений. Суть МНК в минимизации квадратов абсолютного отклонения, поэтому зачастую относительные погрешности при этом увеличиваются (для малых значений измерения). Подскажите как сделать так, чтобы при аппроксимации минимизировалась относительная погрешность, а не абсолютная? Заранее спасибо.
Ну так и минимизируйте именно сумму квадратов относительной погрешности. Да, задача становится нелинейной, но нынче это не проблема, тем более, если параметров немного. Берете, например, Python, выбираете алгоритм из scipy.optimize и вперед...
Androniy: Там не будет линейной системы, если в знаменателе у погрешностей будет стоять значение апроксимированной функции. См.выше. Если - исходное значение, то можно просто расставить веса у каждой точки, равные 1/y[i]^2. Любой приличный стат.пакет это позволяет.
Спасибо. Не идеально, конечно получилось, но работает. Хотелось бы минимизировать все-таки максимум относительной погрешности. Но в результате точность все равно выросла.
Androniy: задача поиска максимума абсолютной величины погрешности, вообще говоря, может не дать однозначного ответа - минимум достигается для некоторого семейства параметров функции. Плюс (минус) сильная нелинейность и еще чрезмерная зависимость от выбросов. Ну и проблема статистической интерпретации результата - если нет сходимости при добавалении экспериментальных точек.