Содержание
Оглавление
Введение3
Постановка задачи4
Линейная регрессия6
Подбор эмпирических формул7
Степенная зависимость (геометрическая регрессия)7
Показательная зависимость8
Дробно-линейная зависимость9
Дробно-рациональная функция9
Логарифмическая функция9
Гиперболическая зависимость9
Множественная регрессия.10
Пример поиска приближающей функции методом наименьших квадратов11
Заключение.16
Литература18
Выдержка из текста работы
Целью данной работы было исследование точности прогнозирования случайного процесса с использованием метода наименьших квадратов. Для этого проводился машинный эксперимент с использованием программы Mathcad 14. Основой для построения случайной функции являлась линейная функция, на которую был наложен случайный шум, распределенный по логнормальному закону с параметрами М[шума]=0 (математическое ожидание шума) и D[шума]=D (дисперсия шума). После чего полученная случайная функция аппроксимировалась линейным трендом, а также исследовалось расхождение между трендом и прогнозом с последующей оценкой близости распределения расхождений наблюдений и распределения сгенерированного шума по критерию ч2-Пирсона.
Определения и формулы
Математическим ожиданием P(о=xi) дискретной случайной величины о называется сумма парных произведений всех возможных значений случайной величины на соответствующие им вероятности, т.е:
, (1)
где хi — значение случайной величины, pi — вероятность этого значения, n — общее число значений.
Математическим ожиданием P(о=xi) непрерывной случайной величины о с плотностью распределения ц(x) называется число, определяемое равенством:
, (2)
где ц(x) — плотность распределения случайной величины.
Дисперсией (рассеянием) случайной величины называется математическое ожидание квадрата ее отклонения от ее математического ожидания:
Для непрерывной случайной величины формула (3) будет представлена в виде:
(4)
Среднее квадратичное отклонение(СКО) — это статистическая величина, описывающая разброс значений изучаемой величины вокруг ее ожидаемого значения:
В математической статистике оперируют оценками числовых характеристик, которые ищутся по случайной выборке. В отличие от самих параметров, оценки содержат элемент случайности. К оценкам параметров предъявляют определенные требования:
а) состоятельность — оценка, соответствующая этому требованию, с увеличением объема выборки сходится по вероятности к самому параметру;
б) несмещенность — математическое ожидание такой оценки равно оцениваемому параметру;
в) эффективность — дисперсия эффективной оценки минимальна.
Оценка математического ожидания ищется по формуле:
, (6)
где n — объем случайной выборки. Оценка, вычисленная по формуле (6), называется так же статистическим средним.
Оценка дисперсии вычисляется по формуле:
, (7)
где m — оценка математического ожидания случайной величины.
Оценка С.К.О. вычисляется по формуле:
, (8)
т.е. корень квадратный из оценки дисперсии.
При генерации шума мы используем два закона: нормальное и логнормальное распределение.
Нормальный закон: Нормальным называется распределение вероятностей непрерывной случайной величины, которое описывается плотностью вероятности:
Функция распределения F(x) в рассматриваемом случае принимает вид:
(10)
График 1 — распределение плотности вероятности нормального закона:
Рисунок 1. Плотность вероятности нормального закона
Говорят, что случайная величина X имеет логнормальное распределение с параметрами м, у, если X = exp(Y), где Y имеет нормальное распределение с параметрами м, у. Случайная величина с логнормальным распределением является непрерывной, и принимает только положительные значения. Графики плотности (привязан к левой вертикальной оси ординат) и функции (привязан к правой оси ординат) логнормального распределения с параметрами м = 0, у = 0.7 приведен на следующем рисунке 2:
Рисунок 2. Логнормальное распределение
Плотность распределения логнормального закона:
(11)
Функция распределения:
(12)
Для определения степени расхождения теоретической кривой и статистических данных пользуются критериями согласия. Наиболее часто для проверки гипотезы о законе распределения используются 2 критерия: критерий л-Колмогорова и критерий ч2-Пирсона.
Расчетное значение для критерия ч2-Пирсона вычисляется по формуле:
, где (13)
— (14)
вероятность попадания в интервал разбиения с номером i, mi — число значений функции в интервале разбиения, m, у — математическое ожидание и с.к.о. случайной величины X, Ц* — интеграл вероятностей.
Чтобы определить функциональную зависимость между величинами по результатам наблюдений, используем метод наименьших квадратов (МНК):
Пусть из опыта получены точки:
x1, y1,
xn, yn
Требуется найти уравнение прямой y=ax+b (15), наилучшим образом согласующейся с опытными точками. Пусть мы нашли такую прямую. Обозначим через дi расстояние опытной точки от этой прямой (измеренное параллельно оси y).
Из уравнения (15) следует, что:
(16)
Чем меньше числа по абсолютной величине, тем лучше подобрана прямая (15). В качестве характеристики точности подбора прямой (15) можно принять сумму квадратов:
(17)
Покажем, как можно подобрать прямую (15) так, чтобы сумма квадратов S была минимальной. Из уравнений (16) и (17) получаем:
(18)
Условия минимума S будут равны для линейной функции:
(19)
(20)
Уравнения (19) и (20) можно записать в таком виде:
(21)
(22)
По уравнениям (21) и (22) легко найти a и b по опытным значениям xi и yi. Прямая (15), определяемая уравнениями (21) и (22), называется прямой, полученной по методу наименьших квадратов (этим названием подчеркивается то, что сумма квадратов S имеет минимум). Уравнения (21) и (22), из которых определяется прямая (15), называются нормальными уравнениями.
ВВЕДЕНИЕ
1. Построение прямой аппроксимирующей свойства тренда с помощью МНК
2. Прогнозирование дальнейшего продвижения тренда
N |
1 |
2 |
3 |
4 |
5 |
6 |
7 |
8 |
9 |
10 |
11 |
12 |
13 |
|
Д |
0.661 |
0.673 |
0.756 |
2.366 |
0.488 |
3.569 |
0.864 |
5.651 |
2.328 |
0.851 |
1.259 |
1.718 |
0.618 |
|
N |
14 |
15 |
16 |
17 |
18 |
19 |
20 |
21 |
22 |
23 |
24 |
25 |
||
Д |
3.765 |
0.502 |
3.762 |
1.369 |
2.185 |
0.494 |
1.851 |
0.067 |
2.012 |
4.429 |
3.441 |
0.601 |
3. Анализ результатов эксперимента
N |
1 |
2 |
3 |
4 |
5 |
6 |
7 |
8 |
9 |
10 |
11 |
12 |
13 |
|
xL |
3.532 |
0.494 |
1.002 |
3.027 |
2.441 |
0.055 |
0.116 |
1.229 |
0.54 |
0.302 |
1.104 |
2.161 |
1.358 |
|
N |
14 |
15 |
16 |
17 |
18 |
19 |
20 |
21 |
22 |
23 |
24 |
25 |
||
xL |
1.011 |
0.466 |
0.664 |
0.51 |
0.876 |
2.768 |
1.198 |
1.671 |
2.095 |
0.984 |
1.322 |
1.176 |
4. Проверка близости по критерию
Пирсона закона распределения расхождений наблюдений и сгенериро
нного шума
Количество экспериментов |
Критическое значение чІ |
Эмпирическое значение чІ |
Решение |
|
25 |
21.064 |
26.135 |
Гипотеза H0 отвергается |
|
100 |
21.064 |
65.549 |
Гипотеза H0 отвергается |
|
500 |
21.064 |
102.753 |
Гипотеза H0 отвергается |
|
1500 |
21.064 |
241.778 |
Гипотеза H0 отвергается |
Количество
экспериментов |
Критическое значение чІ |
Эмпирическое значение чІ |
Решение |
|
25 |
21.064 |
14.865 |
Гипотеза H0 принимается |
|
100 |
21.064 |
10.266 |
Гипотеза H0 принимается |
|
500 |
21.064 |
9.161 |
Гипотеза H0 принимается |
|
1500 |
21.064 |
32.575 |
Гипотеза H0 отвергается |
|
10000 |
21.064 |
114.286 |
Гипотеза H0 отвергается |
Количество
экспериментов |
Критическое значение чІ |
Эмпирическое значение чІ |
Решение |
|
25 |
21.064 |
12.251 |
Гипотеза H0 принимается |
|
100 |
21.064 |
11.616 |
Гипотеза H0 принимается |
|
500 |
21.064 |
11.503 |
Гипотеза H0 принимается |
|
1500 |
21.064 |
14.31 |
Гипотеза H0 принимается |
|
10000 |
21.064 |
11.275 |
Гипотеза H0 принимается |
Заключение
Список использованных источников