на первый
заказ
Решение задач на тему: Линейная регрессия. Полиномиальная регрессия. Нелинейная регрессия
Купить за 100 руб.Введение
Аппроксимация данных с учетом их статистических параметров относится к задачам регрессии. Они обычно возникают при обработке экспериментальных данных, полученных в результате измерений процессов или физических явлений, статистических по своей природе (как, например, измерения в радиометрии и ядерной геофизике), или на высоком уровне помех (шумов). Задачей регрессионного анализа является подбор математических формул, наилучшим образом описывающих экспериментальные данные.Математическая постановка задачи регрессии заключается в следующем. Зависимость величины (числового значения) определенного свойства случайного процесса или физического явления Y от другого переменного свойства или параметра Х, которое в общем случае также может относиться к случайной величине, зарегистрирована на множестве точек xк множеством значений yк, при этом в каждой точке зарегистрированные значения yк и xк отображают действительные значения Y(хк) со случайной погрешностью к, распределенной, как правило, по нормальному закону. По совокупности значений yк требуется подобрать такую функцию f(xк, а0, а1, …, аn), которой зависимость Y(x) отображалась бы с минимальной погрешностью. Отсюда следует условие приближения:
yк = f(xк, а0, а1, …, аn) + к.
Функцию f(xк, а0, а1, …, аn) называют регрессией величины y на величину х. Регрессионный анализ предусматривает задание вида функции f(xк, а0, а1, …, аn) и определение численных значений ее параметров а0, а1, …, аn, обеспечивающих наименьшую погрешность приближения к множеству значений yк. Как правило, при регрессионном анализе погрешность приближения вычисляется методом наименьших квадратов (МНК). Для этого выполняется минимизация функции квадратов остаточных ошибок:
а0, а1, …, аn) = [f(xк, а0, а1, …, аn) - yк] 2.
Для определения параметров а0, а1, …, аn функция остаточных ошибок дифференцируется по всем параметрам, полученные уравнения частных производных приравниваются нулю и решаются в совокупности относительно всех значений параметров. Виды регрессии обычно называются по типу аппроксимирующих функций: полиномиальная, экспоненциальная, логарифмическая и т.п.
Оглавление
- Введение 3- Линейная регрессия
- Полиномиальная регрессия
- Нелинейная регрессия
- Сглаживание данных
- Предсказание зависимостей
- Литература 15
Список литературы
1. Дьяконов В.П. Вейвлеты. От теории к практике. - М.: СОЛОН-Р, 2002. - 448 с.2. Корн Г., Корн Е. Справочник по математике для научных работников и инженеров. - М.: Наука, 1984.
3. Эконометрика Под ред.И. И. Елисеевой 2002г.
4.А. А. Цыплаков, "Некоторые эконометрические методы. Метод максимального правдоподобия в эконометрии", ЭФ НГУ, 1997.
5. Суслов В.И., Ибрагимов Н.М., Талышева Л.П., Цыплаков А. А.
Эконометрия. - Новосибирск: Издательство СО РАН, 2005. - 744с.
6.В.П. Носко "Эконометрика" (Введение в регрессионный анализ временных рядов) Москва 2002
7. Лекции "Анализ временных рядов" Г.Г. Канторовича (Высшая школа экономики, ГУ-ВШЭ) Опубликовано в "Экономическом журнале ВШЭ" Том.6 (2002), №1,2,3,4 и Том.7 (2003), №1
или зарегистрироваться
в сервисе
удобным
способом
вы получите ссылку
на скачивание
к нам за прошлый год