Регрессионный анализ лежит в основе создания большинства эконометрических моделей, к числу которых следует отнести и модели оценки стоимости. Для построения моделей оценки этот метод можно использовать, если количество аналогов (сопоставимых объектов) и количество факторов стоимости (элементов сравнения) соотносятся между собой следующим образом: п > (5 -г-10) х к, т.е. аналогов должно быть в 5-10 раз больше, чем факторов стоимости. Это же требование к соотношению количества данных и количества факторов распространяется и на другие задачи: установление связи между стоимостью и потребительскими параметрами объекта; обоснование порядка расчета корректирующих индексов; выяснение трендов цен; установление связи между износом и изменениями влияющих факторов; получение зависимостей для расчета нормативов затрат и т.п. Выполнение данного требования необходимо для того, чтобы уменьшить вероятность работы с выборкой данных, которая не удовлетворяет требованию нормальности распределения случайных величин.
Регрессионная связь отражает лишь усредненную тенденцию изменения результирующей переменной, например, стоимости, от изменения одной или нескольких факторных переменных, например, местоположения, количества комнат, площади, этажа и т.п. В этом заключается отличие регрессионной связи от функциональной, при которой значение результирующей переменной строго определено при заданном значении факторных переменных.
Наличие регрессионной связи / между результирующей у и факторными переменными х р ..., х к (факторами) свидетельствует о том, что эта связь определяется не только влиянием отобранных факторных переменных, но и влиянием переменных, одни из которых вообще неизвестны, другие не поддаются оценке и учету:
Влияние неучтенных переменных обозначается вторым слагаемым данного уравнения ?, которое называют ошибкой аппроксимации.
Различают следующие типы регрессионных зависимостей:
Основная задача регрессионного анализа - количественное определение тесноты связи между переменными (при парной регрессии) и множеством переменных (при множественной регрессии). Теснота связи количественно выражается коэффициентом корреляции.
Применение регрессионного анализа позволяет установить закономерность влияния основных факторов (гедонистических характеристик ) на изучаемый показатель как в их совокупности, так и каждого из них в отдельности. С помощью регрессионного анализа, как метода математической статистики, удается, во-первых, найти и описать форму аналитической зависимости результирующей (искомой) переменной от факторных и, во-вторых, оценить тесноту этой зависимости.
Благодаря решению первой задачи получают математическую регрессионную модель, с помощью которой затем рассчитывают искомый показатель при заданных значениях факторов. Решение второй задачи позволяет установить надежность рассчитанного результата.
Таким образом, регрессионный анализ можно определить как совокупность формальных (математических) процедур, предназначенных для измерения тесноты, направления и аналитического выражения формы связи между результирующей и факторными переменными, т.е. на выходе такого анализа должна быть структурно и количественно определенная статистическая модель вида:
где у - среднее значение результирующей переменной (искомого показателя, например, стоимости, аренды, ставки капитализации) по п ее наблюдениям; х - значение факторной переменной (/-й фактор стоимости); к - количество факторных переменных.
Функция f(x l ,...,x lc), описывающая зависимость результирующей переменной от факторных, называется уравнением (функцией) регрессии. Термин «регрессия» (regression (лат.) - отступление, возврат к чему-либо) связан со спецификой одной из конкретных задач, решенных на стадии становления метода, и в настоящее время не отражает всей сущности метода, но продолжает применяться.
Регрессионный анализ в общем случае включает следующие этапы:
Указанная последовательность операций имеет место при исследовании как парной связи между факторной переменной и одной результирующей, так и множественной связи между результирующей переменной и несколькими факторными.
Применение регрессионного анализа предъявляет к исходной информации определенные требования:
Требования однородности и полноты выборки находятся в противоречии: чем жестче ведут отбор объектов по их однородности, тем меньше получают выборку, и, наоборот, для укрупнения выборки приходится включать в нее не очень схожие между собой объекты.
После того как собраны данные по группе однородных объектов, проводят их анализ для установления формы связи между результирующей и факторными переменными в виде теоретической линии регрессии. Процесс нахождения теоретической линии регрессии заключается в обоснованном выборе аппроксимирующей кривой и расчете коэффициентов ее уравнения. Линия регрессии представляет собой плавную кривую (в частном случае прямую), описывающую с помощью математической функции общую тенденцию исследуемой зависимости и сглаживающую незакономерные, случайные выбросы от влияния побочных факторов.
Для отображения парных регрессионных зависимостей в задачах по оценке чаще всего используют следующие функции: линейную - у - а 0 + арс + с степенную - у - aj&i + с показательную - у - линейно-показательную - у - а 0 + ар* + с. Здесь - е ошибка аппроксимации, обусловленная действием неучтенных случайных факторов.
В этих функциях у - результирующая переменная; х - факторная переменная (фактор); а 0 , а р а 2 - параметры регрессионной модели, коэффициенты регрессии.
Линейно-показательная модель относится к классу так называемых гибридных моделей вида:
где
где х (i = 1, /) - значения факторов;
b t (i = 0, /) - коэффициенты регрессионного уравнения.
В данном уравнении составляющие А, В и Z соответствуют стоимости отдельных составляющих оцениваемого актива, например, стоимости земельного участка и стоимости улучшений, а параметр Q является общим. Он предназначен для корректировки стоимости всех составляющих оцениваемого актива на общий фактор влияния, например, местоположение.
Значения факторов, находящихся в степени соответствующих коэффициентов, представляют собой бинарные переменные (0 или 1). Факторы, находящиеся в основании степени, - дискретные или непрерывные переменные.
Факторы, связанные с коэффициентами знаком умножения, также являются непрерывными или дискретными.
Спецификация осуществляется, как правило, с использованием эмпирического подхода и включает два этапа:
Тип кривой регрессии не всегда можно выбрать сразу. Для его определения сначала наносят на график точки регрессионного поля по исходным данным. Затем визуально проводят линию по положению точек, стремясь выяснить качественную закономерность связи: равномерный рост или равномерное снижение, рост (снижение) с возрастанием (убыванием) темпа динамики, плавное приближение к некоторому уровню.
Этот эмпирический подход дополняют логическим анализом, отталкиваясь от уже известных представлений об экономической и физической природе исследуемых факторов и их взаимовлияния.
Например, известно, что зависимости результирующих переменных - экономических показателей (цены, аренды) от ряда факторных переменных - ценообразующих факторов (расстояния от центра поселения, площади и др.) имеют нелинейный характер, и достаточно строго их можно описать степенной, экспоненциальной или квадратичной функциями. Но при небольших диапазонах изменения факторов приемлемые результаты можно получить и с помощью линейной функции.
Если все же невозможно сразу сделать уверенный выбор какой- либо одной функции, то отбирают две-три функции, рассчитывают их параметры и далее, используя соответствующие критерии тесноты связи, окончательно выбирают функцию.
В теории регрессионный процесс нахождения формы кривой называется спецификацией модели, а ее коэффициентов - калибровкой модели.
Если обнаружено, что результирующая переменная у зависит от нескольких факторных переменных (факторов) х { , х 2 , ..., х к, то прибегают к построению множественной регрессионной модели. Обычно при этом используют три формы множественной связи: линейную - у - а 0 + а х х х + а^х 2 + ... + а к х к, показательную - у - а 0 a *i а х т- а х ь, степенную - у - а 0 х х ix 2 a 2. .х^или их комбинации.
Показательная и степенная функции более универсальны, так как аппроксимируют нелинейные связи, каковыми и является большинство исследуемых в оценке зависимостей. Кроме того, они могут быть применены при оценке объектов и в методе статистического моделирования при массовой оценке, и в методе прямого сравнения в индивидуальной оценке при установлении корректирующих коэффициентов.
На этапе калибровки параметры регрессионной модели рассчитывают методом наименьших квадратов, суть которого состоит в том, что сумма квадратов отклонений вычисленных значений результирующей переменной у ., т.е. рассчитанных по выбранному уравнению связи, от фактических значений должна быть минимальной:
Значения j) (. и у. известны, поэтому Q является функцией только коэффициентов уравнения. Для отыскания минимума S нужно взять частные производные Q по коэффициентам уравнения и приравнять их к нулю:
В результате получаем систему нормальных уравнений, число которых равно числу определяемых коэффициентов искомого уравнения регрессии.
Положим, нужно найти коэффициенты линейного уравнения у - а 0 + арс. Сумма квадратов отклонений имеет вид:
/=1
Дифференцируют функцию Q по неизвестным коэффициентам а 0 и и приравнивают частные производные к нулю:
После преобразований получают:
где п - количество исходных фактических значений у их (количество аналогов).
Приведенный порядок расчета коэффициентов регрессионного уравнения применим и для нелинейных зависимостей, если эти зависимости можно линеаризовать, т.е. привести к линейной форме с помощью замены переменных. Степенная и показательная функции после логарифмирования и соответствующей замены переменных приобретают линейную форму. Например, степенная функция после логарифмирования приобретает вид: In у = 1пя 0 +а х 1пх. После замены переменных Y- In у, Л 0 - In а № X- In х получаем линейную функцию
Y=A 0 + cijX, коэффициенты которой находят описанным выше способом.
Метод наименьших квадратов применяют и для расчета коэффициентов множественной регрессионной модели. Так, система нормальных уравнений для расчета линейной функции с двумя переменными Xj и х 2 после ряда преобразований имеет следующий вид:
Обычно данную систему уравнений решают, используя методы линейной алгебры. Множественную степенную функцию приводят к линейной форме путем логарифмирования и замены переменных таким же образом, как и парную степенную функцию.
При использовании гибридных моделей коэффициенты множественной регрессии находятся с использованием численных процедур метода последовательных приближений.
Чтобы сделать окончательный выбор из нескольких регрессионных уравнений, необходимо проверить каждое уравнение на тесноту связи, которая измеряется коэффициентом корреляции, дисперсией и коэффициентом вариации. Для оценки можно использовать также критерии Стьюдента и Фишера. Чем большую тесноту связи обнаруживает кривая, тем она более предпочтительна при прочих равных условиях.
Если решается задача такого класса, когда надо установить зависимость стоимостного показателя от факторов стоимости, то понятно стремление учесть как можно больше влияющих факторов и построить тем самым более точную множественную регрессионную модель. Однако расширению числа факторов препятствуют два объективных ограничения. Во-первых, для построения множественной регрессионной модели требуется значительно более объемная выборка объектов, чем для построения парной модели. Принято считать, что количество объектов в выборке должно превышать количество п факторов, по крайней мере, в 5-10 раз. Отсюда следует, что для построения модели с тремя влияющими факторами надо собрать выборку примерно из 20 объектов с разным набором значений факторов. Во-вторых, отбираемые для модели факторы в своем влиянии на стоимостный показатель должны быть достаточно независимы друг от друга. Это обеспечить непросто, поскольку выборка обычно объединяет объекты, относящиеся к одному семейству, у которых имеет место закономерное изменение многих факторов от объекта к объекту.
Качество регрессионных моделей, как правило, проверяют с использованием следующих статистических показателей.
Стандартное отклонение ошибки уравнения регрессии (ошибка оценки):
где п - объем выборки (количество аналогов);
к - количество факторов (факторов стоимости);
Ошибка, необъясняемая регрессионным уравнением (рис. 3.2);
у. - фактическое значение результирующей переменной (например, стоимости); y t - расчетное значение результирующей переменной.
Этот показатель также называют стандартной ошибкой оценки {СКО ошибки ). На рисунке точками обозначены конкретные значения выборки, символом обозначена линия среднего значений выборки, наклонная штрихпунктирная линия - это линия регрессии.
Рис. 3.2.
Стандартное отклонение ошибки оценки измеряет величину отклонения фактических значений у от соответствующих расчетных значений у { , полученных с помощью регрессионной модели. Если выборка, на которой построена модель, подчинена нормальному закону распределения, то можно утверждать, что 68% реальных значений у находятся в диапазоне у ± & е от линии регрессии, а 95% - в диапазоне у ± 2d e . Этот показатель удобен тем, что единицы измерения сг? совпадают с единицами измерения у ,. В этой связи его можно использовать для указания точности получаемого в процессе оценки результата. Например, в сертификате стоимости можно указать, что полученное с использованием регрессионной модели значение рыночной стоимости V с вероятностью 95% находится в диапазоне от (V -2d,.) до (у + 2d s).
Коэффициент вариации результирующей переменной:
где у - среднее значение результирующей переменной (рис. 3.2).
В регрессионном анализе коэффициент вариации var представляет собой стандартное отклонение результата, выраженное в виде процентного отношения к среднему значению результирующей переменной. Коэффициент вариации может служить критерием прогнозных качеств полученной регрессионной модели: чем меньше величина var , тем более высокими являются прогнозные качества модели. Использование коэффициента вариации предпочтительнее показателя & е, так как он является относительным показателем. При практическом использовании данного показателя можно порекомендовать не применять модель, коэффициент вариации которой превышает 33%, так как в этом случае нельзя говорить о том, что данные выборки подчинены нормальному закону распределения.
Коэффициент детерминации
(квадрат коэффициента множественной корреляции):
Данный показатель используется для анализа общего качества полученной регрессионной модели. Он указывает, какой процент вариации результирующей переменной объясняется влиянием всех включенных в модель факторных переменных. Коэффициент детерминации всегда лежит в интервале от нуля до единицы. Чем ближе значение коэффициента детерминации к единице, тем лучше модель описывает исходный ряд данных. Коэффициент детерминации можно представить иначе:
Здесь- ошибка, объясняемая регрессионной моделью,
а - ошибка, необъясняемая
регрессионной моделью. С экономической точки зрения данный критерий позволяет судить о том, какой процент вариации цен объясняется регрессионным уравнением.
Точную границу приемлемости показателя R 2 для всех случаев указать невозможно. Нужно принимать во внимание и объем выборки, и содержательную интерпретацию уравнения. Как правило, при исследовании данных об однотипных объектах, полученных примерно в один и тот же момент времени величина R 2 не превышает уровня 0,6-0,7. Если все ошибки прогнозирования равны нулю, т.е. когда связь между результирующей и факторными переменными является функциональной, то R 2 =1.
Скорректированный коэффициент детерминации:
Необходимость введения скорректированного коэффициента детерминации объясняется тем, что при увеличении числа факторов к обычный коэффициент детерминации практически всегда увеличивается, но уменьшается число степеней свободы (п - к - 1). Введенная корректировка всегда уменьшает значение R 2 , поскольку (п - 1) > {п- к - 1). В результате величина R 2 CKOf) даже может стать отрицательной. Это означает, что величина R 2 была близка к нулю до корректировки и объясняемая с помощью уравнения регрессии доля дисперсии переменной у очень мала.
Из двух вариантов регрессионных моделей, которые различаются величиной скорректированного коэффициента детерминации, но имеют одинаково хорошие другие критерии качества, предпочтительнее вариант с большим значением скорректированного коэффициента детерминации. Корректировка коэффициента детерминации не производится, если (п - к): к> 20.
Коэффициент Фишера:
Данный критерий используется для оценки значимости коэффициента детерминации. Остаточная сумма квадратов представляет собой показатель ошибки предсказания с помощью регрессии известных значений стоимости у.. Ее сравнение с регрессионной суммой квадратов показывает, во сколько раз регрессионная зависимость предсказывает результат лучше, чем среднее у . Существует таблица критических значений F R коэффициента Фишера, зависящих от числа степеней свободы числителя - к , знаменателя v 2 = п - к - 1 и уровня значимости а. Если вычисленное значение критерия Фишера F R больше табличного значения, то гипотеза о незначимости коэффициента детерминации, т.е. о несоответствии заложенных в уравнении регрессии связей реально существующим, с вероятностью р = 1 - а отвергается.
Средняя ошибка аппроксимации (среднее процентное отклонение) вычисляется как средняя относительная разность, выраженная в процентах, между фактическими и расчетными значениями результирующей переменной:
Чем меньше значение данного показателя, тем лучше прогнозные качества модели. При значении данного показателя не выше 7% говорят о высокой точности модели. Если 8 > 15%, говорят о неудовлетворительной точности модели.
Стандартная ошибка коэффициента регрессии:
где (/I) -1 .- диагональный элемент матрицы {Х Г Х)~ 1 к - количество факторов;
X - матрица значений факторных переменных:
X 7 - транспонированная матрица значений факторных переменных;
(ЖЛ) _| - матрица, обратная матрице.
Чем меньше эти показатели для каждого коэффициента регрессии, тем надежнее оценка соответствующего коэффициента регрессии.
Критерий Стьюдента (t-статистика):
Этот критерий позволяет измерить степень надежности (существенности) связи, обусловленной данным коэффициентом регрессии. Если вычисленное значение t . больше табличного значения
t av , где v - п - к - 1 - число степеней свободы, то гипотеза о том, что данный коэффициент является статистически незначимым, отвергается с вероятностью (100 - а)%. Существуют специальные таблицы /-распределения, позволяющие по заданному уровню значимости а и числу степеней свободы v определять критическое значение критерия. Наиболее часто употребляемое значение а равно 5%.
Мультиколлинеарность , т.е. эффект взаимных связей между факторными переменными, приводит к необходимости довольствоваться ограниченным их числом. Если это не учесть, то можно в итоге получить нелогичную регрессионную модель. Чтобы избежать негативного эффекта мультиколлинеарности, до построения множественной регрессионной модели рассчитываются коэффициенты парной корреляции r xjxj между отобранными переменными х. и х
Здесь XjX; - среднее значение произведения двух факторных переменных;
XjXj - произведение средних значений двух факторных переменных;
Оценка дисперсии факторной переменной х..
Считается, что две переменные регрессионно связаны между собой (т.е. коллинеарные), если коэффициент их парной корреляции по абсолютной величине строго больше 0,8. В этом случае какую-либо из этих переменных надо исключить из рассмотрения.
С целью расширения возможностей экономического анализа получаемых регрессионных моделей используются средние коэффициенты эластичности, определяемые по формуле:
где Xj - среднее значение соответствующей факторной переменной;
у - среднее значение результирующей переменной; a i - коэффициент регрессии при соответствующей факторной переменной.
Коэффициент эластичности показывает, на сколько процентов в среднем изменится значение результирующей переменной при изменении факторной переменной на 1 %, т.е. как реагирует результирующая переменная на изменение факторной переменной. Например, как реагирует цена кв. м площади квартиры на удаление от центра города.
Полезным с точки зрения анализа значимости того или иного коэффициента регрессии является оценка частного коэффициента детерминации:
Здесь - оценка дисперсии результирующей
переменной. Данный коэффициент показывает, на сколько процентов вариация результирующей переменной объясняется вариацией /-й факторной переменной, входящей в уравнение регрессии.
Во время учебы студенты очень часто сталкиваются с разнообразными уравнениями. Одно из них - уравнение регрессии - рассмотрено в данной статье. Такой тип уравнения применяется специально для описания характеристики связи между математическими параметрами. Данный вид равенств используют в статистике и эконометрике.
В математике под регрессией подразумевается некая величина, описывающая зависимость среднего значения совокупности данных от значений другой величины. Уравнение регрессии показывает в качестве функции определенного признака среднее значение другого признака. Функция регрессии имеет вид простого уравнения у = х, в котором у выступает зависимой переменной, а х - независимой (признак-фактор). Фактически регрессия выражаться как у = f (x).
В общем, выделяется два противоположных типа взаимосвязи: корреляционная и регрессионная.
Первая характеризуется равноправностью условных переменных. В данном случае достоверно не известно, какая переменная зависит от другой.
Если же между переменными не наблюдается равноправности и в условиях сказано, какая переменная объясняющая, а какая - зависимая, то можно говорить о наличии связи второго типа. Для того чтобы построить уравнение линейной регрессии, необходимо будет выяснить, какой тип связи наблюдается.
На сегодняшний день выделяют 7 разнообразных видов регрессии: гиперболическая, линейная, множественная, нелинейная, парная, обратная, логарифмически линейная.
Уравнение линейной регрессии применяют в статистике для четкого объяснения параметров уравнения. Оно выглядит как у = с+т*х+Е. Гиперболическое уравнение имеет вид правильной гиперболы у = с + т / х + Е. Логарифмически линейное уравнение выражает взаимосвязь с помощью логарифмической функции: In у = In с + т* In x + In E.
Два более сложных вида регрессии - это множественная и нелинейная. Уравнение множественной регрессии выражается функцией у = f(х 1 , х 2 ...х с)+E. В данной ситуации у выступает зависимой переменной, а х - объясняющей. Переменная Е - стохастическая, она включает влияние других факторов в уравнении. Нелинейное уравнение регрессии немного противоречиво. С одной стороны, относительно учтенных показателей оно не линейное, а с другой стороны, в роли оценки показателей оно линейное.
Обратная - это такой вид функции, который необходимо преобразовать в линейный вид. В самых традиционных прикладных программах она имеет вид функции у = 1/с + т*х+Е. Парное уравнение регрессии демонстрирует взаимосвязь между данными в качестве функции у = f (x) + Е. Точно так же, как и в других уравнениях, у зависит от х, а Е - стохастический параметр.
Это показатель, демонстрирующий существование взаимосвязи двух явлений или процессов. Сила взаимосвязи выражается в качестве коэффициента корреляции. Его значение колеблется в рамках интервала [-1;+1]. Отрицательный показатель говорит о наличии обратной связи, положительный - о прямой. Если коэффициент принимает значение, равное 0, то взаимосвязи нет. Чем ближе значение к 1 - тем сильнее связь между параметрами, чем ближе к 0 - тем слабее.
Корреляционные параметрические методы могут оценить тесноту взаимосвязи. Их используют на базе оценки распределения для изучения параметров, подчиняющихся закону нормального распределения.
Параметры уравнения линейной регрессии необходимы для идентификации вида зависимости, функции регрессионного уравнения и оценивания показателей избранной формулы взаимосвязи. В качестве метода идентификации связи используется поле корреляции. Для этого все существующие данные необходимо изобразить графически. В прямоугольной двухмерной системе координат необходимо нанести все известные данные. Так образуется поле корреляции. Значение описывающего фактора отмечаются вдоль оси абсцисс, в то время как значения зависимого - вдоль оси ординат. Если между параметрами есть функциональная зависимость, они выстраиваются в форме линии.
В случае если коэффициент корреляции таких данных будет менее 30 %, можно говорить о практически полном отсутствии связи. Если он находится между 30 % и 70 %, то это говорит о наличии связей средней тесноты. 100 % показатель - свидетельство функциональной связи.
Нелинейное уравнение регрессии так же, как и линейное, необходимо дополнять индексом корреляции (R).
Коэффициент детерминации является показателем квадрата множественной корреляции. Он говорит о тесноте взаимосвязи представленного комплекса показателей с исследуемым признаком. Он также может говорить о характере влияния параметров на результат. Уравнение множественной регрессии оценивают с помощью этого показателя.
Для того чтобы вычислить показатель множественной корреляции, необходимо рассчитать его индекс.
Данный метод является способом оценивания факторов регрессии. Его суть заключается в минимизировании суммы отклонений в квадрате, полученных вследствие зависимости фактора от функции.
Парное линейное уравнение регрессии можно оценить с помощью такого метода. Этот тип уравнений используют в случае обнаружения между показателями парной линейной зависимости.
Каждый параметр функции линейной регрессии несет определенный смысл. Парное линейное уравнение регрессии содержит два параметра: с и т. Параметр т демонстрирует среднее изменение конечного показателя функции у, при условии уменьшения (увеличения) переменной х на одну условную единицу. Если переменная х - нулевая, то функция равняется параметру с. Если же переменная х не нулевая, то фактор с не несет в себе экономический смысл. Единственное влияние на функцию оказывает знак перед фактором с. Если там минус, то можно сказать о замедленном изменении результата по сравнению с фактором. Если там плюс, то это свидетельствует об ускоренном изменении результата.
Каждый параметр, изменяющий значение уравнения регрессии, можно выразить через уравнение. Например, фактор с имеет вид с = y - тх.
Бывают такие условия задачи, в которых вся информация группируется по признаку x, но при этом для определенной группы указываются соответствующие средние значения зависимого показателя. В таком случае средние значения характеризуют, каким образом изменяется показатель, зависящий от х. Таким образом, сгруппированная информация помогает найти уравнение регрессии. Ее используют в качестве анализа взаимосвязей. Однако у такого метода есть свои недостатки. К сожалению, средние показатели достаточно часто подвергаются внешним колебаниям. Данные колебания не являются отображением закономерности взаимосвязи, они всего лишь маскируют ее «шум». Средние показатели демонстрируют закономерности взаимосвязи намного хуже, чем уравнение линейной регрессии. Однако их можно применять в виде базы для поиска уравнения. Перемножая численность отдельной совокупности на соответствующую среднюю можно получить сумму у в пределах группы. Далее необходимо подбить все полученные суммы и найти конечный показатель у. Чуть сложнее производить расчеты с показателем суммы ху. В том случае если интервалы малы, можно условно взять показатель х для всех единиц (в пределах группы) одинаковым. Следует перемножить его с суммой у, чтобы узнать сумму произведений x на у. Далее все суммы подбиваются вместе и получается общая сумма ху.
Как рассматривалось ранее, множественная регрессия имеет функцию вида у = f (x 1 ,x 2 ,…,x m)+E. Чаще всего такое уравнение используют для решения проблемы спроса и предложения на товар, процентного дохода по выкупленным акциям, изучения причин и вида функции издержек производства. Ее также активно применяют в самых разнообразным макроэкономических исследованиях и расчетах, а вот на уровне микроэкономики такое уравнение применяют немного реже.
Основной задачей множественной регрессии является построение модели данных, содержащих огромное количество информации, для того чтобы в дальнейшем определить, какое влияние имеет каждый из факторов по отдельности и в их общей совокупности на показатель, который необходимо смоделировать, и его коэффициенты. Уравнение регрессии может принимать самые разнообразные значения. При этом для оценки взаимосвязи обычно используется два типа функций: линейная и нелинейная.
Линейная функция изображается в форме такой взаимосвязи: у = а 0 + a 1 х 1 + а 2 х 2 ,+ ... + a m x m . При этом а2, a m , считаются коэффициентами «чистой» регрессии. Они необходимы для характеристики среднего изменения параметра у с изменением (уменьшением или увеличением) каждого соответствующего параметра х на одну единицу, с условием стабильного значения других показателей.
Нелинейные уравнения имеют, к примеру, вид степенной функции у=ах 1 b1 х 2 b2 ...x m bm . В данном случае показатели b 1 , b 2 ..... b m - называются коэффициентами эластичности, они демонстрируют, каким образом изменится результат (на сколько %) при увеличении (уменьшении) соответствующего показателя х на 1 % и при стабильном показателе остальных факторов.
Для того чтобы правильно построить множественную регрессию, необходимо выяснить, на какие именно факторы следует обратить особое внимание.
Необходимо иметь определенное понимание природы взаимосвязей между экономическими факторами и моделируемым. Факторы, которые необходимо будет включать, обязаны отвечать следующим признакам:
Существует огромное количество методов и способов, объясняющих, каким образом можно выбрать факторы для уравнения. Однако все эти методы строятся на отборе коэффициентов с помощью показателя корреляции. Среди них выделяют:
Первый метод подразумевает отсев всех коэффициентов из совокупного набора. Второй метод включает введение множества дополнительных факторов. Ну а третий - отсев факторов, которые были ранее применены для уравнения. Каждый из этих методов имеет право на существование. У них есть свои плюсы и минусы, но они все по-своему могут решить вопрос отсева ненужных показателей. Как правило, результаты, полученные каждым отдельным методом, достаточно близки.
Такие способы определения факторов базируются на рассмотрении отдельных сочетаний взаимосвязанных признаков. Они включают в себя дискриминантный анализ, распознание обликов, способ главных компонент и анализ кластеров. Кроме того, существует также факторный анализ, однако он появился вследствие развития способа компонент. Все они применяются в определенных обстоятельствах, при наличии определенных условий и факторов.
Регрессионный анализ исследует зависимость определенной величины от другой величины или нескольких других величин. Регрессионный анализ применяется преимущественно в среднесрочном прогнозировании, а также в долгосрочном прогнозировании. Средне- и долгосрочный периоды дают возможность установления изменений в среде бизнеса и учета влияний этих изменений на исследуемый показатель.
Для осуществления регрессионного анализа необходимо:
наличие ежегодных данных по исследуемым показателям,
наличие одноразовых прогнозов, т.е. таких прогнозов, которые не поправляются с поступлением новых данных.
Регрессионный анализ обычно проводится для объектов, имеющих сложную, многофакторную природу, таких как, объем инвестиций, прибыль, объемы продаж и др.
При нормативном методе прогнозирования определяются пути и сроки достижения возможных состояний явления, принимаемых в качестве цели. Речь идет о прогнозировании достижения желательных состояний явления на основе заранее заданных норм, идеалов, стимулов и целей. Такой прогноз отвечает на вопрос: какими путями можно достичь желаемого? Нормативный метод чаще применяется для программных или целевых прогнозов. Используются как количественное выражение норматива, так и определенная шкала возможностей оценочной функции
В случае использования количественного выражения, например физиологических и рациональных норм потребления отдельных продовольственных и непродовольственных товаров, разработанных специалистами для различных групп населения, можно определить уровень потребления этих товаров на годы, предшествующие достижению указанной нормы. Такие расчеты называют интерполяцией. Интерполяция - это способ вычисления показателей, недостающих в динамическом ряду явления, на основе установленной взаимосвязи. Принимая фактическое значение показателя и значение его нормативов за крайние члены динамического ряда, можно определить величины значений внутри этого ряда. Поэтому интерполяцию считают нормативным методом. Ранее приведенная формула (4), используемая в экстраполяции, может применяться в интерполяции, где у п будет характеризовать уже не фактические данные, а норматив показателя.
В случае использования в нормативном методе шкалы (поля, спектра) возможностей оценочной функции, т. е. функции распределения предпочтительности, указывают примерно следующую градацию: нежелательно - менее желательно - более желательно - наиболее желательно - оптимально (норматив).
Нормативный метод прогнозирования помогает выработать рекомендации по повышению уровня объективности, следовательно, эффективности решений.
Моделирование , пожалуй, самый сложный метод прогнозирования. Математическое моделирование означает описание экономического явления посредством математических формул, уравнений и неравенств. Математической аппарат должен достаточно точно отражать прогнозный фон, хотя полностью отразить всю глубину и сложность прогнозируемого объекта довольно трудно. Термин "модель" образован от латинского слова modelus, что означает "мера". Поэтому моделирование правильнее было бы считать не методом прогнозирования, а методом изучения аналогичного явления на модели.
В широком смысле моделями называются заместители объекта исследования, находящиеся с ним в таком сходстве, которое позволяет получить новое знание об объекте. Модель следует рассматривать как математическое описание объекта. В этом случае модель определяется как явление (предмет, установка), которое находиться в некотором соответствии с изучаемым объектом и может его замещать в процессе исследования, представляя информацию об объекте.
При более узком понимании модели она рассматривается как объект прогнозирования, ее исследование позволяет получить информацию о возможных состояниях объекта в будущем и путях достижения этих состояний. В этом случае целью прогнозной модели является получение информации не об объекте вообще, а только о его будущих состояниях. Тогда при построении модели бывает невозможно провести прямую проверку ее соответствия объекту, так как модель представляет собой только его будущее состояние, а сам объект в настоящее время может отсутствовать или иметь иное существование.
Модели могут быть материальными и идеальными.
В экономике используются идеальные модели. Наиболее совершенной идеальной моделью количественного описания социально-экономического (экономического) явления является математическая модель, использующая числа, формулы, уравнения, алгоритмы или графическое представление. С помощью экономических моделей определяют:
зависимость между различными экономическими показателями;
различного рода ограничения, накладываемые на показатели;
критерии, позволяющие оптимизировать процесс.
Содержательное описание объекта может быть представлено в виде его формализованной схемы, которая указывает, какие параметры и исходную информацию нужно собрать, чтобы вычислить искомые величины. Математическая модель в отличие от формализованной схемы содержит конкретные числовые данные, характеризующие объект Разработка математической модели во многом зависит от представления прогнозиста о сущности моделируемого процесса. На основе своих представлений он выдвигает рабочую гипотезу, с помощью которой создается аналитическая запись модели в виде формул, уравнений и неравенств. В результате решения системы уравнений получают конкретные параметры функции, которыми описывается изменение искомых переменных величин во времени.
Порядок и последовательность работы как элемент организации прогнозирования определяется в зависимости от применяемого метода прогнозирования. Обычно эта работа выполняется в несколько этапов.
1-й этап - прогнозная ретроспекция, т. е. установление объекта прогнозирования и прогнозного фона. Работа на первом этапе выполняется в такой последовательности:
формирование описания объекта в прошлом, что включает предпрогнозный анализ объекта, оценку его параметров, их значимости и взаимных связей,
определение и оценка источников информации, порядка и организации работы с ними, сбор и размещение ретроспективной информации;
постановка задач исследования.
Выполняя задачи прогнозной ретроспекции, прогнозисты исследуют историю развития объекта и прогнозного фона с целью получения их систематизированного описания.
2-й этап - прогнозный диагноз, в ходе которого исследуется систематизированное описание объекта прогнозирования и прогнозного фона с целью выявления тенденций их развития и выбора моделей и методов прогнозирования. Работа выполняется в такой последовательности:
разработка модели объекта прогноза, в том числе формализованное описание объекта, проверка степени адекватности модели объекту;
выбор методов прогнозирования (основного и вспомогательных), разработка алгоритма и рабочих программ.
3-й этап - протекция, т. е. процесс обширной разработки прогноза, в том числе: 1) расчет прогнозируемых параметров на заданный период упреждения; 2) синтез отдельных составляющих прогноза.
4-й этап - оценка прогноза, в том числе его верификация, т. е. определение степени достоверности, точности и обоснованности.
В ходе проспекции и оценки на основании предыдущих этапов решаются задачи прогноза и его оценка.
Указанная этапность является примерной и зависит от основного метода прогнозирования.
Результаты прогноза оформляются в виде справки, доклада или иного материала и представляются заказчику.
В прогнозировании может быть указана величина отклонения прогноза от действительного состояния объекта, которая называется ошибкой прогноза, которая рассчитывается по формуле:
;
;
.
(9.3)
Источники ошибок в прогнозировании
Основными источниками могут быть:
1. Простое перенесение (экстраполяция) данных из прошлого в будущее (например, отсутствие у фирмы иных вариантов прогноза, кроме 10% роста продаж).
2. Невозможность точно определить вероятность события и его воздействия на исследуемый объект.
3. Непредвиденные трудности (разрушительные события), влияющие на осуществление плана, например, внезапное увольнение начальника отдела сбыта.
В целом точность прогнозирования повышается по мере накопления опыта прогнозирования и отработки его методов.
Понятия корреляции и регрессии непосредственно связаны между собой. В корреляционном и регрессионном анализе много общих вычислительных приемов. Они используются для выявления причинно-следственных соотношений между явлениями и процессами. Однако, если корреляционный анализ позволяет оценить силу и направление стохастической связи, то регрессионный анализ - еще и форму зависимости.
Регрессия может быть:
а) в зависимости от числа явлений (переменных):
Простой (регрессия между двумя переменными);
Множественной (регрессия между зависимой переменной (y) и несколькими объясняющими ее переменными (х1, х2...хn);
б) в зависимости от формы:
Линейной (отображается линейной функцией, а между изучаемыми переменными существуют линейные соотношения);
Нелинейной (отображается нелинейной функцией, между изучаемыми переменными связь носит нелинейный характер);
в) по характеру связи между включенными в рассмотрение переменными:
Положительной (увеличение значения объясняющей переменной приводит к увеличению значения зависимой переменной и наоборот);
Отрицательной (с увеличением значения объясняющей переменной значение объясняемой переменной уменьшается);
г) по типу:
Непосредственной (в этом случае причина оказывает прямое воздействие на следствие, т.е. зависимая и объясняющая переменные связаны непосредственно друг с другом);
Косвенной (объясняющая переменная оказывает опосредованное действие через третью или ряд других переменных на зависимую переменную);
Ложной (нонсенс регрессия) - может возникнуть при поверхностном и формальном подходе к исследуемым процессам и явлениям. Примером бессмысленных является регрессия, устанавливающая связь между уменьшением количества потребляемого алкоголя в нашей стране и уменьшением продажи стирального порошка.
При проведении регрессионного анализа решаются следующие основные задачи:
1. Определение формы зависимости.
2. Определение функции регрессии. Для этого используют математическое уравнение того или иного типа, позволяющее, во-первых, установить общую тенденцию изменения зависимой переменной, а, во-вторых, вычислить влияние объясняющей переменной (или нескольких переменных) на зависимую переменную.
3. Оценка неизвестных значений зависимой переменной. Полученная математическая зависимость (уравнение регрессии) позволяет определять значение зависимой переменной как в пределах интервала заданных значений объясняющих переменных, так и за его пределами. В последнем случае регрессионный анализ выступает в качестве полезного инструмента при прогнозировании изменений социально-экономических процессов и явлений (при условии сохранения существующих тенденций и взаимосвязей). Обычно длина временного отрезка, на который осуществляется прогнозирование, выбирается не более половины интервала времени, на котором проведены наблюдения исходных показателей. Можно осуществить как пассивный прогноз, решая задачу экстраполяции, так и активный, ведя рассуждения по известной схеме "если..., то" и подставляя различные значения в одну или несколько объясняющих переменных регрессии.
Для построения регрессии используется специальный метод, получивший название метода наименьших квадратов . Этот метод имеет преимущества перед другими методами сглаживания: сравнительно простое математическое определение искомых параметров и хорошее теоретическое обоснование с вероятностной точки зрения.
При выборе модели регрессии одним из существенных требований к ней является обеспечение наибольшей возможной простоты, позволяющей получить решение с достаточной точностью. Поэтому для установления статистических связей вначале, как правило, рассматривают модель из класса линейных функций (как наиболее простейшего из всех возможных классов функций):
где bi, b2...bj - коэффициенты, определяющие влияние независимых переменных хij на величину yi; аi - свободный член; ei - случайное отклонение, которое отражает влияние неучтенных факторов на зависимую переменную; n - число независимых переменных; N число наблюдений, причем должно соблюдаться условие (N . n+1).
Линейная модель может описывать весьма широкий класс различных задач. Однако на практике, в частности в социально-экономических системах, подчас затруднительно применение линейных моделей из-за больших ошибок аппроксимации. Поэтому нередко используются функции нелинейной множественной регрессии, допускающие линеаризацию. К их числу, например, относится производственная функция (степенная функция Кобба-Дугласа), нашедшая применение в различных социально-экономических исследованиях. Она имеет вид:
где b 0 - нормировочный множитель, b 1 ...b j - неизвестные коэффициенты, e i - случайное отклонение.
Используя натуральные логарифмы, можно преобразовать это уравнение в линейную форму:
Полученная модель позволяет использовать стандартные процедуры линейной регрессии, описанные выше. Построив модели двух видов (аддитивные и мультипликативные), можно выбрать наилучшие и провести дальнейшие исследования с меньшими ошибками аппроксимации.
Существует хорошо развитая система подбора аппроксимирующих функций - методика группового учета аргументов (МГУА) .
О правильности подобранной модели можно судить по результатам исследования остатков, являющихся разностями между наблюдаемыми величинами y i и соответствующими прогнозируемыми с помощью регрессионного уравнения величинами y i . В этом случае для проверки адекватности модели рассчитывается средняя ошибка аппроксимации:
Модель считается адекватной, если e находится в пределах не более 15%.
Особо подчеркнем, что применительно к социально-экономическим системам далеко не всегда выполняются основные условия адекватности классической регрессионной модели.
Не останавливаясь на всех причинах возникающей неадекватности, назовем лишь мультиколлинеарность - самую сложную проблему эффективного применения процедур регрессионного анализа при изучении статистических зависимостей. Под мультиколлинеарностью понимается наличие линейной связи между объясняющими переменными.
Это явление:
а) искажает смысл коэффициентов регрессии при их содержательной интерпретации;
б) снижает точность оценивания (возрастает дисперсия оценок);
в) усиливает чувствительность оценок коэффициентов к выборочным данным (увеличение объема выборки может сильно повлиять на значения оценок).
Существуют различные приемы снижения мультиколлинеарности. Наиболее доступный способ - устранение одной из двух переменных, если коэффициент корреляции между ними превышает значение, равное по абсолютной величине 0,8. Какую из переменных оставить решают, исходя из содержательных соображений. Затем вновь проводится расчет коэффициентов регрессии.
Использование алгоритма пошаговой регрессии позволяет последовательно включать в модель по одной независимой переменной и анализировать значимость коэффициентов регрессии и мультиколлинеарность переменных. Окончательно в исследуемой зависимости остаются только те переменные, которые обеспечивают необходимую значимость коэффициентов регрессии и минимальное влияние мультиколлинеарности.
Лекция 3.
Регрессионный анализ.
1) Числовые характеристики регрессии
2) Линейная регрессия
3) Нелинейная регрессия
4) Множественная регрессия
5) Использование MS EXCEL для выполнения регрессионного анализа
Контрольно-оценочное средство - тестовые задания
1. Числовые характеристики регрессии
Регрессионный анализ — статистический метод исследования влияния одной или нескольких независимых переменных на зависимую переменную. Независимые переменные иначе называют регрессорами или предикторами, а зависимые переменные — критериальными. Терминология зависимых и независимых переменных отражает лишь математическую зависимость переменных, а не причинно-следственные отношения.
Цели регрессионного анализа
Регрессионный анализ нельзя использовать для определения наличия связи между переменными, поскольку наличие такой связи и есть предпосылка для применения анализа.
Для проведения регрессионного анализа первоначально необходимо познакомиться с базовыми понятиями статистики и теории вероятности.
Основные числовые характеристики дискретных и непрерывных случайных величин: математическое ожидание, дисперсия и среднее квадратическое отклонение.
Случайные величине делят на две разновидности:
Закон распределения случайной величины - это соответствие между возможными значениями дискретной случайной величины и ее вероятностями, обычно записывается в таблицу:
Статистическое определение вероятности выражается через относительную частоту случайного события, то есть находится как отношение количества случайных величин к общему числу случайных величин.
Математическим ожиданием дискретной случайной величины X называется сумма произведений значений величины X на вероятности этих значений. Математическое ожидание обозначают или M (X ) .
n
= M (X ) = x 1 p 1 + x 2 p 2 +… + x n p n = S x i p i
i =1
Рассеяние случайной величины относительно её математического ожидания определяется с помощью числовой характеристики, называемой дисперсией. Проще говоря, дисперсия - это разброс случайной величины относительно среднего значения. Для понятия сущности дисперсии рассмотрим пример. Средняя заработная плата по стране составляет около 25 тысяч рублей. Откуда берется эта цифра? Скорее всего, складываются все зарплаты и делятся на количество работников. В данном случае очень большая дисперсия (минимальная зарплата около 4 тыс. руб., а максимальная - около 100 тыс. руб.). Если бы зарплата у всех была одинаковой, то дисперсия была бы равна нулю, и разброса бы не было.
Дисперсией дискретной случайной величины X называют математическое ожидание квадрата разности случайной величины и её математического ожидания:
D = M [ ((X - M (X)) 2 ]
Используя определение математического ожидания для вычисления дисперсии, получаем формулу:
D = S (x i - M (X)) 2 · p i
Дисперсия имеет размерность квадрата случайной величины. В тех случаях, когда нужно иметь числовую характеристику рассеяния возможных значений в той же размерности, что и сама случайная величина, используют среднее квадратичное отклонение.
Средним квадратичным отклонением случайной величины называют корень квадратный из её дисперсии.
Среднее квадратичное отклонение есть мера рассеяния значений случайной величины около ее математического ожидания.
Пример.
Закон распределения случайной величины Х задан следующей таблицей:
Найти её математическое ожидание, дисперсию и среднее квадратичное отклонение.
Используем приведенные выше формулы:
М (Х) = 1 · 0,1 + 2 · 0,4 + 4 · 0,4 + 5 · 0,1 = 3
D = (1-3) 2 · 0,1 + (2 - 3) 2 · 0,4 + (4 - 3) 2 · 0,4 + (5 - 3) 2 · 0,1 = 1,6
Пример.
В денежной лотерее разыгрывается 1 выигрыш в 1000 рублей, 10 выигрышей по 100 рублей и 100 выигрышей по 1 рублю при общем числе билетов 10000. Составьте закон распределения случайного выигрыша Х для владельца одного лотерейного билета и определите математическое ожидание, дисперсию и среднее квадратичное отклонение случайной величины.
X 1 = 1000, Х 2 = 100, Х 3 = 1, Х 4 = 0,
Р 1 = 1/10000 = 0,0001, Р 2 = 10/10000 = 0,001, Р 3 = 100/10000 = 0,01, Р 4 = 1 - (Р 1 + Р 2 + Р 3) = 0,9889.
Результаты поместим в таблицу:
Математическое ожидание - сумма парных произведений значения случайной величины на их вероятность. Для данной задачи его целесообразно вычислить по формуле
1000 · 0,0001 + 100 · 0,001 + 1 · 0,01 + 0 · 0,9889 = 0,21 рубля.
Получили настоящую «справедливую» цену билета.
D = S (x i - M (X)) 2 · p i = (1000 - 0,21) 2 0,0001 + (100 - 0,21) 2 0,001 +
+ (1 - 0,21) 2 0,01 + (0 - 0,21) 2 0,9889 ≈ 109,97
Функция распределения непрерывных случайных величин
Величину, которая в результате испытания примет одно возможное значение (при этом заранее неизвестно какое), называется случайной величиной. Как говорилось выше, случайные величины бывают дискретные (прерывные) и непрерывные.
Дискретной называют случайную величину, принимающую отдельные друг от друга возможные значения с определенными вероятностями, которые можно пронумеровать.
Непрерывной называют случайную величину, которая может принимать все значения из некоторого конечного или бесконечного интервала.
До этого момента мы ограничивались только одной “разновидностью” случайных величин - дискретных, т.е. принимающих конечные значения.
Но теория и практика статистики требуют использовать понятие непрерывной случайной величины - допускающей любые числовые значения, из какого - либо интервала.
Закон распределения непрерывной случайной величины удобно задавать с помощью так называемой функции плотности вероятности. f (х). Вероятность Р (a < X < b) того, что значение, принятое случайной величиной Х, попадет в промежуток (a; b), определяется равенством
Р (a < X < b) = ∫ f (x ) dx
График функции f (х) называется кривой распределения. Геометрически вероятность попадания случайной величины в промежуток (a; b), равна площади соответствующей криволинейной трапеции, ограниченной кривой распределения, осью Ох и прямыми х = а, х = b.
P(a£X
Если от сложного события вычесть конечное либо счетное множество, вероятность наступления нового события останется неизменной.
Функция f(x) - числовая скалярная функция действительного аргумента x называется плотностью вероятности, и существует в точке x, если в этой точке существует предел:
Свойства плотности вероятности:
(если все значения случайной величины Х заключены в промежутке (a;b), то последнее
равенство можно записать в виде ∫ f (x) dx = 1).
Рассмотрим теперь функцию F(х) = Р (Х < х). Эта функция называется функцией распределения вероятности случайной величины Х. Функция F(х) существует как для дискретных, так и для непрерывных случайных величин. Если f (x) - функция плотности распределения вероятности
непрерывной случайной величины Х, то F (х) = ∫ f(x) dx = 1).
Из последнего равенства следует, что f (x) = F" (x)
Иногда функцию f(x) называют дифференциальной функцией распределения вероятности, а функцию F(x) - интегральной функцией распределения вероятности.
Отметим важнейшие свойства функции распределения вероятности:
Понятие функции распределения является центральным в теории вероятностей. Используя это понятие, можно дать другое определение непрерывной случайной величины. Случайная величина называется непрерывной, если ее интегральная функция распределения F(х) непрерывна.
Числовые характеристики непрерывных случайных величин
Математическое ожидание, дисперсия и другие параметры любых случайных величин практически всегда вычисляются по формулам, вытекающим из закона распределения.
Для непрерывной случайной величины математическое ожидание вычисляется по формуле:
М (Х) = ∫ x · f(x ) dx
Дисперсия:
D (X) = ∫ (x - М (Х)) 2 f (x ) dx или D (X) = ∫ x 2 f(x ) dx - (М (Х)) 2
2. Линейная регрессия
Пусть составляющие Х и Y двумерной случайной величины (Х, Y) зависимы. Будем считать, что одну из них можно приближенно представить как линейную функцию другой, например
Y ≈ g(Х) = α + βХ, и определим параметры α и β с помощью метода наименьших квадратов.
Определение. Функция g(Х) = α + βХ называется наилучшим приближением Y в смысле метода наименьших квадратов, если математическое ожидание М(Y - g(Х)) 2 принимает наименьшее возможное значение; функцию g(Х) называют среднеквадратической регрессией Y на Х.
Теорема Линейная средняя квадратическая регрессия Y на Х имеет вид:
где - коэффициент корреляции Х иY.
Коэффициенты уравнения.
Можно проверить, что при этих значениях функция функция F(α, β)
F (α, β ) = M (Y - α - βX )² имеет минимум, что доказывает утверждение теоремы.
Определение. Коэффициент называется коэффициентом регрессии Y на Х , а прямая - - прямой среднеквадратической регрессии Y на Х .
Подставив координаты стационарной точки в равенство, можно найти минимальное значение функции F(α, β), равное Эта величина называется остаточной дисперсией Y относительно Х и характеризует величину ошибки, допускаемой при замене Y на
g(Х) = α+βХ. При остаточная дисперсия равна 0, то есть равенство является не приближенным, а точным. Следовательно, при Y и Х связаны линейной функциональной зависимостью. Аналогично можно получить прямую среднеквадратической регрессии Х на Y:
и остаточную дисперсию Х относительно Y. При обе прямые регрессии совпадают. Сопоставив уравнения регрессии У на Х и Х на У и решив систему из уравнений, можно найти точку пересечения прямых регрессии - точку с координатами (т х, т у), называемую центром совместного распределения величин Х и Y.
Алгоритм составления уравнений регрессии рассмотрим из учебника В. Е. Гмурмана «Теория вероятности и математическая статистика» стр. 256.
1) Составить расчетную таблицу, в которой будут записаны номера элементов выборки, варианты выборки, их квадраты и произведение.
2) Вычислить сумму по всем столбцам, кроме номера.
3) Вычислить средние значения для каждой величины, дисперсии и средне квадратические отклонения.
5) Проверить гипотезу о существовании связи между Х и У.
6) Составить уравнения обеих линий регрессии и изобразить графики этих уравнений.
Угловой коэффициент прямой линии регрессии У на Х - это выборочный коэффициент регрессии
Коэффициент b=
Получим искомое уравнение линии регрессии У на Х:
У = 0,202 Х + 1,024
Аналогично уравнение регрессии Х на У:
Угловой коэффициент прямой линии регрессии У на Х - это выборочный коэффициент регрессии pxy:
Коэффициент b=
Х = 4,119У - 3,714
3. Нелинейная регрессия
Если между экономическими явлениями существуют нелинейные соотношения, то они выражаются с помощью соответствующих нелинейных функций.
Различают два класса нелинейных регрессий:
1. Регрессии, нелинейные относительно включенных в анализ объясняющих переменных, но линейные по оцениваемым параметрам, например:
Полиномы разных степеней
Равносторонняя гипербола - ;
Полулогарифмическая функция - .
2. Регрессии, нелинейные по оцениваемым параметрам, например:
Степенная - ;
Показательная - ;
Экспоненциальная - .
Регрессии нелинейные по включенным переменным приводятся к линейному виду простой заменой переменных, а дальнейшая оценка параметров производится с помощью метода наименьших квадратов. Рассмотрим некоторые функции.
Парабола второй степени приводится к линейному виду с помощью замены: . В результате приходим к двухфакторному уравнению, оценка параметров которого при помощи Метода наименьших квадратов приводит к системе уравнений:
Парабола второй степени обычно применяется в случаях, когда для определенного интервала значений фактора меняется характер связи рассматриваемых признаков: прямая связь меняется на обратную или обратная на прямую.
Равносторонняя гипербола может быть использована для характеристики связи удельных расходов сырья, материалов, топлива от объема выпускаемой продукции, времени обращения товаров от величины товарооборота. Классическим ее примером является кривая Филлипса, характеризующая нелинейное соотношение между нормой безработицы x и процентом прироста заработной платы y .
Гипербола приводится к линейному уравнению простой заменой: . Также можно использовать Метод наименьших квадратов для составления системы линейных уравнений.
Аналогичным образом приводятся к линейному виду зависимости: , и другие.
Равносторонняя гипербола и полулогарифмическая кривая используют для описания кривой Энгеля (математическое описание взаимосвязи доли расходов на товары длительного пользования и общих сумм расходов (или доходов)). Уравнения, в которых входят, применяются в исследованиях урожайности, трудоемкости сельскохозяйственного производства.
4. Множественная регрессия
Множественная регрессия - уравнение связи с несколькими независимыми переменными:
где - зависимая переменная (результативный признак);
Независимые переменные (факторы).
Для построения уравнения множественной регрессии чаще используются следующие функции:
линейная -
степенная -
экспонента -
гипербола - .
Можно использовать и другие функции, приводимые к линейному виду.
Для оценки параметров уравнения множественной регрессии применяют метод наименьших квадратов (МНК). Для линейных уравнений и нелинейных уравнений, приводимых к линейным, строится следующая система нормальных уравнений, решение которой позволяет получить оценки параметров регрессии:
Для ее решения может быть применен метод определителей:
где - определитель системы;
Частные определители; которые получаются путем замены соответствующего столбца матрицы определителя системы данными левой части системы.
Другой вид уравнения множественной регрессии - уравнение регрессии в стандартизированном масштабе, к уравнению множественной регрессии в стандартизированном масштабе применим МНК.
5. Использование MS EXCEL для выполнения регрессионного анализа
Регрессионный анализ устанавливает формы зависимости между случайной величиной Y (зависимой) и значениями одной или нескольких переменных величин (независимых), причем значения последних считаются точно заданными. Такая зависимость обычно определяется некоторой математической моделью (уравнением регрессии), содержащей несколько неизвестных параметров. В ходе регрессионного анализа на основании выборочных данных находят оценки этих параметров, определяются статистические ошибки оценок или границы доверительных интервалов и проверяется соответствие (адекватность) принятой математической модели экспериментальным данным.
В линейном регрессионном анализе связь между случайными величинами предполагается линейной. В самом простом случае в парной линейной регрессионной модели имеются две переменные Х и Y. И требуется по n парам наблюдений (X1, Y1), (X2, Y2), ..., (Xn, Yn) построить (подобрать) прямую линию, называемую линией регрессии, которая «наилучшим образом» приближает наблюдаемые значения. Уравнение этой линии y=аx+b является регрессионным уравнением. С помощью регрессионного уравнения можно предсказать ожидаемое значение зависимой величины y, соответствующее заданному значению независимой переменной x. В случае, когда рассматривается зависимость между одной зависимой переменной Y и несколькими независимыми X1, X2, ..., Xm, говорят о множественной линейной регрессии.
В этом случае регрессионное уравнение имеет вид
y = a 0 +a 1 x 1 +a 2 x 2 +…+a m x m ,
где a0, a1, a2, …, am - требующие определения коэффициенты регрессии.
Коэффициенты уравнения регрессии определяются при помощи метода наименьших квадратов, добиваясь минимально возможной суммы квадратов расхождений реальных значений переменной Y и вычисленных по регрессионному уравнению. Таким образом, например, уравнение линейной регрессии может быть построено даже в том случае, когда линейная корреляционная связь отсутствует.
Мерой эффективности регрессионной модели является коэффициент детерминации R2 (R-квадрат). Коэффициент детерминации может принимать значения между 0 и 1 определяет, с какой степенью точности полученное регрессионное уравнение описывает (аппроксимирует) исходные данные. Исследуется также значимость регрессионной модели с помощью F-критерия (Фишера) и достоверность отличия коэффициентов a0, a1, a2, …, am от нуля проверяется с помощью критерия Стьюдента.
В Excel экспериментальные данные аппроксимируются линейным уравнением до 16 порядка:
y = a0+a1x1+a2x2+…+a16x16
Для получения коэффициентов линейной регрессии может быть использована процедура «Регрессия» из пакета анализа. Также полную информацию об уравнении линейной регрессии дает функция ЛИНЕЙН. Кроме того, могут быть использованы функции НАКЛОН и ОТРЕЗОК для получения параметров регрессионного уравнения и функция ТЕНДЕНЦИЯ и ПРЕДСКАЗ для получения предсказанных значений Y в требуемых точках (для парной регрессии).
Рассмотрим подробно применение функции ЛИНЕЙН (известные_y, [известные_x], [константа], [статистика]): известные_у - диапазон известных значений зависимого параметра Y. В парном регрессионном анализе может иметь любую форму; в множественном должен быть строкой либо столбцом; известные_х - диапазон известных значений одного или нескольких независимых параметров. Должен иметь ту же форму, что и диапазон Y (для нескольких параметров - соответственно несколько столбцов или строк); константа - логический аргумент. Если исходя из практического смысла задачи регрессионного анализа необходимо, чтобы линия регрессии проходила через начало координат, то есть свободный коэффициент был равен 0, значение этого аргумента следует положить равным 0 (или «ложь»). Если значение положено 1 (или «истина») или опущено, то свободный коэффициент вычисляется обычным образом; статистика - логический аргумент. Если значение положено 1 (или «истина»), то дополнительно возвращается регрессионная статистика (см таблицу), используемая для оценки эффективности и значимости модели. В общем случае для парной регрессии y=аx+b результат применения функции ЛИНЕЙН имеет вид:
Таблица. Выводной диапазон функции ЛИНЕЙН для парного регрессионного анализа
В случае множественного регрессионного анализа для уравнения y=a0+a1x1+a2x2+…+amxm в первой строке выводятся коэффициенты am,…,a1,а0, во второй - стандартные ошибки для этих коэффициентов. В 3-5 строках за исключением первых двух столбцов, заполненных регрессионной статистикой, будет получено значение #Н/Д.
Вводить функцию ЛИНЕЙН следует как формулу массива, выделив вначале массив нужного размера для результата (m+1 столбец и 5 строк, если требуется регрессионная статистика) и завершив ввод формулы нажатием CTRL+SHIFT+ENTER.
Результат для нашего примера:
Кроме этого в программе имеется встроенная функция - Анализ данных на вкладке Данные.
С помощью нее можно также выполнять регрессионный анализ:
На слайде - результат регрессионного анализа, выполненного с помощью Анализа данных.
ВЫВОД ИТОГОВ |
||||||||
Регрессионная статистика |
||||||||
Множественный R |
||||||||
R-квадрат |
||||||||
Нормированный R-квадрат |
||||||||
Стандартная ошибка |
||||||||
Наблюдения |
||||||||
Дисперсионный анализ |
||||||||
Значимость F |
||||||||
Регрессия |
||||||||
Коэффициенты |
Стандартная ошибка |
t-статистика |
P-Значение |
Нижние 95% |
Верхние 95% |
Нижние 95,0% |
Верхние 95,0% |
|
Y-пересечение |
||||||||
Переменная X 1 |
Уравнения регрессии, которые мы смотрели ранее также построены в MS Excel. Для их выполнения сначала строится Точечная диаграмма, затем через контекстное меню выбираем - Добавить линию тренда. В новом окне ставим галочки - Показывать уравнение на диаграмме и поместить на диаграмму величину достоверности апроксимации (R^2).
Литература: