1) Типология прогнозов

advertisement
1) Типология прогнозов................................................................................................................................................................................................ 1
2) Альтернативы прогнозированию. ............................................................................................................................................................................ 2
3) Этапы прогнозирования, структура прогноза. ........................................................................................................................................................ 2
4,5) Основные методы прогнозирования: экспертные и статистические, методы экспертного прогнозирования. .............................................. 3
6) Метод Дельфи: структура, преимущества и недостатки. ....................................................................................................................................... 3
7) Методы составления сценариев: метод согласованного мнения, объединение независимых сценариев, матрицы взаимодействия. ............ 4
8) Аспекты и необходимые условия проведения аналогий. Проблемы, связанные с использованием аналогий. ................................................ 4
9) Методология морфологического анализа. ............................................................................................................................................................... 5
10) Методы сглаживания стационарных рядов: наивная модель, скользящие средние и экспоненциальное сглаживание. ................................ 5
11) Способы устранения тренда и сезонности. ........................................................................................................................................................... 6
12) Модели сглаживания с трендом: модели Холта и Брауна. ................................................................................................................................... 6
14) Определение начальных условий модели сглаживания. ...................................................................................................................................... 7
15) Статистические показатели модели простой линейной регрессии. .................................................................................................................... 7
16) Вывод формул коэффициентов зависимости в линейной регрессии. ................................................................................................................. 9
17) Проверка гипотезы о независимости наблюдаемых переменных. ...................................................................................................................... 9
18) Статистический анализ модели многомерной регрессии: ANOVA. ................................................................................................................. 11
19) Проверка мультиколлинеарности независимых переменных. .......................................................................................................................... 11
20) Виды трендовых кривых. Преобразования переменных, сводящие тренд к линейной регрессии. ................................................................ 12
21) Линейный, квадратичный и экспоненциальный рост в экономике. .................................................................................................................. 12
22) S-образная кривая как график распространения нового товара. ....................................................................................................................... 12
23) Примеры производственных функций. ................................................................................................................................................................ 12
24) Описание модели ARIMA. .................................................................................................................................................................................... 12
25) Подбор модели Бокса-Дженкинса по полным и частичным автокорреляциям временного ряда. ................................................................. 12
26) Преимущества и недостатки модели ARIMA. .................................................................................................................................................... 13
27) Применение модели ARIMA к сезонным временным рядам. ............................................................................................................................ 13
28) Средняя квадратичная ошибка как основной критерий адекватности модели. Подбор параметров модели по методу наименьших
квадратов. ..................................................................................................................................................................................................................... 13
29) Основные информационные критерии: AIC и BIC. ............................................................................................................................................ 13
30) Методы анализа независимости остатков............................................................................................................................................................ 13
31) Алгоритм ex post прогнозирования. ..................................................................................................................................................................... 15
32) Устройство типичной нейронной сети. ............................................................................................................................................................... 15
34) Методы прогнозирования показателей NPV и IRR. ........................................................................................................................................... 17
35) Прогнозирование рисков проекта. ....................................................................................................................................................................... 17
36) Составление прогнозов при оценке инноваций. ................................................................................................................................................. 17
37) Роль прогнозирования при выборе инновационной стратегии. ......................................................................................................................... 17
1) Типология прогнозов.
По периоду упреждения — промежутку времени, на который рассчитан прогноз, —
- оперативные (текущие), кратко-, средне-, долго- и дальнесрочные (сверхдолгосрочные)
По объекту исследования
- естествоведческие, научно-технические и обществоведческие (социальные в широком значении этого
термина) прогнозы.
Естествоведческие прогнозы разделяются на следующие направления:
1) метеорологические (погода, воздушные потоки и другие атмосферные явления);
2) гидрологические (морские волнения, режим стока воды, паводков, цунами, штормов, замерзания и вскрытия
акватории, другие гидросферные явления);
3) геологические (залежи полезных ископаемых, землетрясения, срыв лавин и другие литосферные явления);
4) биологические, включая фенологические и сельскохозяйственные (урожайность, заболеваемость и другие
явления в растительном и животном мире, вообще в биосфере);
5) медико-биологические (ныне преимущественно болезни человека);
6) космологические (состояние и движение небесных тел, газов, излучений, всех явлений космосферы);
7) физико-химические прогнозы явлений микромира.
Обществоведческие прогнозы делятся на направления:
1) социально-медицинские (здравоохранение, включая физическую культуру и спорт);
2) социально-географические (перспективы дальнейшего освоения земной поверхности, включая Мировой
океан);
3) социально-экологические (перспектива сохранения равновесия между состоянием природной среды и
жизнедеятельностью общества);
4) социально-космические (перспектива освоения космоса);
5) экономические (перспектива развития народного хозяйства, вообще экономических отношений);
6) социологические, или социальные в узком смысле (перспектива развития социальных отношений);
7) психологические (личность, ее поведение, деятельность);
8) демографические (рост, половозрастная структура, миграция населения);
9) филолого-этнографические, или лингво-этнологические (развитие языка, письменности, личных имен,
национальных традиций, нравов, обычаев);
10) архитектурно-градостроительные (социальные аспекты расселения, развития города и деревни, жилища,
вообще обитаемой среды);
11) образовательно-педагогические (воспитание и обучение, развитие кадров и учреждений в области народного
образования — от детских яслей и садов до университетов и аспирантуры, включая подсистемы повышения
квалификации и переподготовки кадров; самообразование взрослых, образование родителей, дополнительное
образование и др.);
12) культурно-эстетические (материально-техническая база искусства, литературы, всей культуры;
художественная информация, развитие кадров и учреждений культуры — книжного, журнального, газетного
дела, радио и телевидения, кино и театра, музеев и парков культуры, клубов и библиотек, памятников культуры
и т.д.);
13) государственно-правовые, или юридические (развитие государства и законодательства, права и
криминологии, вообще правовых отношений);
14) внутриполитические (внутренняя политика своей и другой страны);
15) внешнеполитические (внешняя политика своей и другой страны, международные отношения в целом);
16) военные (военно-технические, военно-экономические, военно-политические, военно-стратегические, военнотактические, военно-организационные прогнозы).
2) Альтернативы прогнозированию.
- отказ от прогноза
- консерватизм
- прогнозирование «сквозь шоры» (от балды)
- прогнозирование с помощью «гения»
- использование рациональных методов.
3) Этапы прогнозирования, структура прогноза.
1.
Предпрогнозная ориентация (программа исследования). Уточнение задания на прогноз: характер,
масштабы, объект, периоды основания и упреждения и т.д. Формулирование целей и задач, предмета,
проблемы и рабочих гипотез, определение методов, структуры и организации исследования.
2. Построение исходной (базовой) модели прогнозируемого объекта методами системного анализа. Для
уточнения модели возможен опрос населения и экспертов.
3. Сбор данных прогнозного фона методами, о которых говорилось выше.
4. Построение динамических рядов показателей — основы стержня будущих прогнозных моделей
методами экстраполяции, возможно обобщение этого материала в виде прогнозных предмодельных
сценариев.
5. Построение серии гипотетических (предварительных) поисковых моделей прогнозируемого объекта
методами поискового анализа профильных и фоновых показателей с конкретизацией минимального,
максимального и наиболее вероятного значений.
6. Построение серии гипотетических нормативных моделей прогнозируемого объекта методами
нормативного анализа с конкретизацией значений абсолютного (т.е. не ограниченного рамками
прогнозного фона) и относительного (т.е. привязанного к этим рамкам) оптимума по заранее
определенным критериям сообразно заданным нормам, идеалам, целям.
7. Оценка достоверности и точности, а также обоснованности (верификация) прогноза — уточнение
гипотетических моделей обычно методами опроса экспертов.
8. Выработка рекомендаций для решений в сфере управления на основе сопоставления поисковых и
нормативных моделей. Для уточнения рекомендаций возможен еще один опрос населения и экспертов.
Иногда (правда, пока еще редко) при этом строятся серии поствероятностных прогнозных моделейсценариев с учетом возможных последствий реализации выработанных рекомендаций для их
дальнейшего уточнения.
9. Экспертное обсуждение (экспертиза) прогноза и рекомендаций, их доработка с учетом обсуждения и
сдача заказчику.
10. Вновь предпрогнозная ориентация на основе сопоставления материалов уже разработанного прогноза с
новыми данными прогнозного фона и новый цикл исследования, ибо прогнозирование должно быть
таким же непрерывным, как целеполагание, планирование, программирование, проектирование, вообще
управление, повышению эффективности которого оно призвано служить.
Структура прогноза (по его лекциям):
- объект прогноза
- прогнозируемое состояние
- прогнозируемая вероятность
- время прогноза
Прогнозирование
Планирование
Оценка результатов
Принятие решений
4,5) Основные методы прогнозирования: экспертные и статистические, методы экспертного
прогнозирования.
Статистические методы прогнозирования
- Метод наименьших квадратов
- Вероятностно-статистическое моделирование экспертных методов
- Анализ временных рядов
- Эвристические методы: метод скользящих средних, метод экспоненциального сглаживания.
- Регрессия
- Модели авторегрессии
- ARIMA
- Системы экономических уравнений
Экспертные методы прогнозирования
- Прямые (получения и обработки независимого обобщенного мнения коллектива экспертов (или одного из
них) при отсутствии воздействия на мнение каждого эксперта мнения другого эксперта и всего коллектива)
- С обратной связью (в том или ином виде реализуют принцип обратной связи на основе воздействия на
оценку экспертной группы (одного эксперта) мнениями, полученными ранее от этой группы (или от одного из
экспертов).
Методы индивидуальных экспертных оценок
- Метод “интервью”
- Аналитический метод
- Метод написания сценария
- Метод “дерева целей”
Методы коллективных экспертных оценок.
- Метод “комиссий” (мозговая атака в рабочих группах):
- Метод “Дельфи”
- Метод “коллективной генерации идей”
Методы прогнозирования (по лекциям):
1. субъективные (экспертные)
- экспертной оценки
- аналогий
- делфи
- дерево целей (решений)
- морфологический анализ
- метод сценариев
2. Объективные
2.1 Экстраполяционные (наивные)
- экспоненциальное сглаживание
- скользящее среднее
- метод Холта
- метод Брауна
- метод Винтерса
- ARIMA
- Бокс-Дженкинс
2.2 Регрессионные (причинные)
- простая регрессия
- множественная регрессия
- тренды
6) Метод Дельфи: структура, преимущества и недостатки.
мнения экспертов и субъективные суждения в силу необходимости должны заменить точные законы
причинности, отражаемые естественными науками.
а) анонимность экспертов; б) использование результатов предыдущего тура опроса; В) статистическая
характеристика группового ответа.
участники экспертной группы неизвестны друг другу. взаимодействие членов группы при заполнении анкет
полностью устраняется. В результате такой постановки автор ответа может изменить свое мнение без публичного
объявления об этом.
Статистическая характеристика группового ответа предполагает обработку полученных результатов с помощью
следующих методов измерения: ранжирование, парное сравнение, последовательное сравнение и
непосредственная оценка.
В развитии метода «Дельфи» применяется перекрестная коррекция. Будущее событие представляется как
огромное множество связанных и переходящих друг в друга путей развития. При введении перекрестной
корреляции значение каждого события за счет введенных определенных связей будут изменятся либо в
положительную, либо в отрицательную сторону, корректируя тем самым вероятности рассматриваемых
событий. С целью будущего соответствия модели реальным условиям в модель могут быть введены элементы
случайности.
Недостатком данного метода является то, что проблема коррелирующих научно-технических сдвигов является
очень сложной, так как в реальной жизни величину корреляции очень трудно измерить, корреляционные связи
нечетки и варьируют в широких пределах в зависимости от рассматриваемых достижений.
7) Методы составления сценариев: метод согласованного мнения, объединение независимых
сценариев, матрицы взаимодействия.
* получение согласованного мнения (одна из реализаций метода Делфи, ориентированной на получение
коллективного мнения различных групп экспертов относительно крупных событий в той или иной области в
заданный период будущего)
* повторяющаяся процедура независимых сценариев (составление независимых сценариев по каждому из
аспектов, оказывающих существенное влияние на развитие ситуации, и повторяющемся итеративном процессе
согласования сценариев развития различных аспектов ситуации)
* использование матриц взаимодействия и др. (определение на основании экспертных оценок потенциального
взаимовлияния событий рассматриваемой совокупности).
Методы сценариев (по лекциям):
A B C
- метод согласования мнений,
- метод сведения сценариев
A
- матрица взаимодействия факторов (на рисунке, показывает как А влияет на В и С и наоборот и
B
т.д.)
C
8) Аспекты и необходимые условия проведения аналогий. Проблемы, связанные с
использованием аналогий.
Аналогия (традукция) - прием, в котором из сходства двух явлений в одних условиях делается вывод о сходстве
этих явлений в других условиях. В логике аналогия рассматривается как форма получения выводного знания, как
умозаключение, в котором на основании сходства предметов в одних признаках делается вывод о сходстве этих
предметов в других признаках. Метод аналогии широко используется в моделировании, так как модель - аналог
объекта, изучаемого посредством моделирования
Идея метода состоит в вычленении возникшей проблемы и попытке ее решения с помощью идей из других сфер
жизни и науки. Одно время метод применялся настолько успешно, что на его основе родилась целая наука синектика. Ее область, занимающаяся заимствованием технических идей в биологии называется бионикой.
Для использования метода аналогий необходимо
а) вычленить причину затруднений;
б) предельно формализовать ее до уровня, воспринимаемого специалистами из других областей;
в) описать цели будущего решения и объективные ограничения;
г) выделить область жизни или науки, в которой могут быть близкие по своему смыслу решения;
д) подобрать команду специалистов из выбранной области;
е) организовать и провести мозговой штурм;
ж) интерпретировать для исходной области полученные варианты решений;
з) выбрать из них реализуемые и наиболее эффективные.
Одним из способов научного исследования, для которого характерен взгляд на научное познание как на “борьбу
идей” и “естественный отбор”, — такой способ следует квалифицировать как особый метод “доказательства по
аналогии”. Надо заметить, что им пользуются многие, если не все эволюционные эпистемологи. Между тем тот
же Майкл Рьюз, в уже приводимой здесь статье, посвященной проблемам эволюционной эпистемологии,
указывает на ограниченные возможности использования этого метода по отношению к науке, выдвигая в
качестве исчерпывающего аргумента почти афористичное суждение: “наука — лучшее доказательство”[12]. В
чем–то этот афоризм М.Рьюза близок высказанному Тарским суждению, выведенному из анализа логического
содержания объективной теории истины: “истина равна факту”. Оба этих ученых, в особенности Рьюз,
приближаются к мысли о том, что предметная область той или иной науки развивается исходя из внутренних
запросов самой науки, а не только в силу наличия каких бы то ни было конкурирующих между собой теорий или
концепций. Для целей и задач эволюционной эпистемологии важно и то, и другое.
Таким образом, указания на ограниченные возможности метода рассуждения “по аналогии” не опровергают
существование самой аналогии как одного из характерных способов человеческого мышления, а значит, способа
осуществления познания. Метод аналогии, учитывая эти его особенности, следует рассматривать как
определенный общеметодологический способ мышления, соответствующий определенному уровню развития
интеллекта. Тем самым метод рассуждения по аналогии оказывается не только приобщенным непосредственно к
обыденному уровню человеческого понимания и познания, но может рассматриваться также и как общенаучный
принцип, позволяющий сопоставлять различные положения, концепции и теории. Особенно продуктивным
метод рассуждения “по аналогии” оказывается в тех случаях, когда необходимо целостное видение, целостное
освещение проблемы.
9) Методология морфологического анализа.
- определяем пространство поиска, которое обязательно должно включать в себя искомое решение (схему
устройства),
- сужаем это пространство, осуществляя поиск этого решения.
формален и допускает компьютерную реализацию.
Пространство поиска называется морфологическим множеством, а процесс определения это пространства –
морфологическим анализом. Поиск решения называется морфологическим синтезом.
В результате морфологического анализа определяется морфологическое множество или множество альтернатив
(альтернативных решений). Такое множество должно содержать все структурные решения устройств
рассматриваемого класса, как реально существующие, так и потенциально возможные, патентоспособные
структуры. Естественно, задать все такие структуры прямым перебором невозможно, так как мощность
морфологического множества обычно оказывается очень большой. Поэтому для его задания проводят
классификацию устройств, входящих в это множество, выделяя классификационные признаки и определяя их
возможные значения. Особенностью такой классификации является то, что она является строгой в том смысле,
что задав все значения классификационных признаков мы можем однозначно идентифицировать структуру
устройства.
10) Методы сглаживания стационарных рядов: наивная модель, скользящие средние и
экспоненциальное сглаживание.
"Наивные" модели прогнозирования
 некоторый последний период прогнозируемого временного ряда лучше всего описывает будущее этого
прогнозируемого ряда
 прогноз - очень простая функция от значений прогнозируемой переменной в недалеком прошлом.
 Самая простая модель Y(t+1)=Y(t), "завтра будет как сегодня".
 не стоит ждать большой точности. Не учитывает механизмы, определяющие прогнозируемые данные. Не
учитывает сезонные колебания и тренды.
 можно строить "наивные" модели несколько по-другому
Y(t+1)=Y(t)+[Y(t)-Y(t-1)],
Y(t+1)=Y(t)*[Y(t)/Y(t-1)],
такими способами мы пытаемся приспособить модель к возможным трендам
Y(t+1)=Y(t-s),
это попытка учесть сезонные колебания
(по лекциям) Наивная модель: прогноз на следующий период равен последнему прошедшему.
Применяется тогда, когда тренд не проявляется, или же наоборот, когда он четко проявляется.
Средние и скользящие средние
Самой простой моделью, основанной на простом усреднении является
Y(t+1)=(1/(t))*[Y(t)+Y(t-1)+...+Y(1)],
"завтра будет как было в среднем за последнее время".
Такая модель, конечно более устойчива к флуктуациям, поскольку в ней сглаживаются случайные выбросы
относительно среднего. Несмотря на это, этот метод идеологически настолько же примитивен как и "наивные"
модели и ему свойственны почти те же самые недостатки.
В приведенной выше формуле предполагалось, что ряд усредняется по достаточно длительному интервалу
времени. Однако как правило, значения временного ряда из недалекого прошлого лучше описывают прогноз,
чем более старые значения этого же ряда. Тогда можно использовать для прогнозирования скользящее среднее
Y(t+1)=(1/(T+1))*[Y(t)+Y(t-1)+...+Y(t-T)],
Смысл его заключается в том, что модель видит только ближайшее прошлое (на T отсчетов по времени в глубину)
и основываясь только на этих данных строит прогноз.
При прогнозировании довольно часто используется метод экспоненциальных средних, который постоянно
адаптируется к данным за счет новых значений. Формула, описывающая эту модель записывается как
Y(t+1)=a*Y(t)+(1-a)*^Y(t),
где Y(t+1) – прогноз на следующий период времени
Y(t) – реальное значение в момент времени t
^Y(t) – прошлый прогноз на момент времени t
a – постоянная сглаживания (0<=a<=1))
Модель простых средних:
t
1
Yˆt 1   Yi ;
t i 1
t  Yˆt 1  Yt 1
Yˆt  2 
t 1
Модель скользящей средней:
Y  Yt 1  ...  Yt k 1
Y  ...  Yt k 1
; Yˆt  2  Yˆt 1  t 1
, где k – порядок скользящих средних.
Yˆt 1  t
k
k
Если k = t, то получится метод простых средних, если k = 1, то наивный метод. Значит таким методом следует
считать прогнозы, начиная с t = k.
Метод экспоненциального сглаживания
Yˆt 1  Yt  (1   )Yˆt , где  - сглаживающий параметр
Yˆt 1  Yt   (1   )Yt 1   (1   ) 2 Yt 2 …
Все вышеприведенные модели хорошо работают, если тренд отсутствует.
11) Способы устранения тренда и сезонности.
12) Модели сглаживания с трендом: модели Холта и Брауна.
Хольт - усовершенствованный метод экспоненциального сглаживания. Значения уровня и тренда сглаживаются с
помощью экспоненциального сглаживания. Причем параметры сглаживания у них различны.
Здесь первое уравнение описывает сглаженный ряд общего уровня.
Второе уравнение служит для оценки тренда.
Третье уравнение определяет прогноз на p отсчетов по времени вперед.
Частным случаем метода Хольта является метод Брауна, когда a=ß.
Модель Холта
Lt  Yt   (1   ) Lt 1
Tt   ( Lt  Lt 1 )  (1   )Tt 1
Yˆt  p  Lt  pTt , p – просто число

и  - выбираются как показатели точности. Обычно в зависимости от точности предыдущих прогнозов (чем
больше средняя или ещё какая-нить ошибка, тем больше эти параметры).
Для нахождения L мы можем применять обратное прогнозирование.
Модель Брауна
Lt  Yt   (1   ) Lt 1
M t  Lt  (1   ) M t 1
Yˆt  p  Lt  ( Lt  M t )
13) Модели сглаживания с трендом и сезонностью: модель Винтерса.
расширение метода Хольта до трехпараметрического экспоненциального сглаживания. + попытка учесть
сезонные составляющие в данных. Система уравнений, описывающих метод Винтерса выглядит следующим
образом:
Дробь в первом уравнении служит для исключения сезонности из Y(t). После исключения сезонности алгоритм
работает с "чистыми" данными, в которых нет сезонных колебаний. Появляются они уже в самом финальном
прогнозе, когда "чистый" прогноз, посчитанный почти по методу Хольта умножается на сезонный коэффициент.
Модель Винтерса
Lt 
Yt
S t s
 (1   )( Lt 1  Tt 1 )
Tt   ( Lt  Lt 1 )  (1   )Tt 1
St  
Yt
 (1   ) Lt  s
Lt
Yˆt  p  ( Lt  pTt ) * S t  p
14) Определение начальных условий модели сглаживания.
15) Статистические показатели модели простой линейной регрессии.
(заметки) Для линейного регрессионного анализа требуется линейность только по параметрам, поскольку
нелинейность по переменным может быть устранена с помощью изменения определений. Стандартная ошибка
коэффициента множественной регрессии является оценкой стандартного отклонения распределения
коэффициента регрессии вокруг его истинного значения. Используют стандартизованные регрессионные
коэффициенты, т.е. прежде, чем строить модель, все Х стандартизуются, следовательно, все коэффициенты
становятся сравнимы между собой. Плюс – меряют силу влияния, минус – не решают задачу содержательного
смысла. МНК работает даже в случае равномерного распределения точек. Проверка гипотез: нулевая – данная
прямая не берет на себя нисколько дисперсии исходных точек (прямой регрессии нет, нет влияния Х на Y),
общая – есть совокупное влияние Х на Y. Значимость: вероятность того, что коэффициенты регрессии равны
нулю, вероятность принятия нулевой гипотезы.
Рассмотрим реализацию линейной регрессии в SPSS.
Статистика
регрессионные коэффициенты (regression coefficients)
 оценки (estimates) – включает регрессионные коэффициенты и связанные с ними меры.
 доверительные интервалы (confidence intervals) – 95% доверительные интервалы для регрессионных
коэффициентов.
 ковариационная матрица (covariance matrix) – ковариационная и корреляционная матрицы. В
ковариационной матрице на диагонали – дисперсия.
остатки (residuals)
 тест Дарбина-Уотсона (Durbin-Watson) - тест для последовательных корреляций остатков, а также
суммарная статистика для остатков и предсказанных значений. Если значение статистики равно 2, то
третье условие Гаусса-Маркова не нарушается. Если <2, то имеет место положительная
автокорреляция – бич временных рядов, если >2 – то отрицательная автокорреляция.
 диагностика (casewise diagnostic) – «выбросы» за n стандартных отклонений.
разное
 качество модели (model fit) – коэффициент множественной корреляции R, коэффициент детерминации
R 2 (ранее рассматривался в качестве основного индикатора успеха в спецификации модели, но




признание того факта, что даже плохая модель может дать высокий коэффициент детерминации,
привело к снижению значимости коэффициента), скорректированный R-квадрат (коэффициент
детерминации при добавлении объясняющей переменной никогда не уменьшается,
скорректированный коэффициент обеспечивает компенсацию для такого автоматического сдвига
вверх путем наложения «штрафа» за увеличение числа независимых переменных, увеличение
скорректированного коэффициента при добавлении новой переменной не обязательно означает, что
ее коэффициент значимо отличается от нуля), стандартная ошибка, ANOVA – число степеней
свободы, сумма квадратов, средний квадрат, F-значение, ожидаемая вероятность F. F-статистика
используется для проверки нулевой гипотезы о том. что добавляемая переменная не дает
значительного прироста R-квадрата. t-статистика проверяет гипотезу: нет линейной связи между
зависимой и независимыми переменными, или что коэффициенты регрессии равны нулю.
изменение коэффициента детерминации (R squared change) – изменение в R квадрате при добавлении и
извлечении из модели независимых переменных. Если изменение, связанное с переменной большое,
то переменная хорошо вписывается в модель.
описательная статистика (descriptives) – средние, стандартное отклонение, корреляционная матрица.
частная и частичная корреляция (part and partial correlation)
диагностика коллинеарности (collinearity diagnostic) – стойкость отдельных переменных и статистики для
определения проблем с коллинеарностью. Коллинеарность – нежелательная ситуация, когда одна
независимая переменная в модели является линейной функцией других независимых переменных.
Собственные числа (eigenvalues) – показывают, сколько существует независимых векторов в
пространстве. Если существует собственное значение очень близкое к нулю, то имеет место
зависимость. Поэтому небольшие изменения в данных могут привести к большим изменениям в
оценках регрессионных коэффициентов. Индекс состояния (condition index) – квадратный корень из
отношения большего собственного числа к последующему. Если больше 15, то возможны проблемы с
коллинеарностью, если больше 30 – то очень большие проблемы с коллинеарностью. Пропорция
дисперсии (variance proportion) – пропорция дисперсии оценки, объясненная каждой компонентой,
связанной с каждым собственным значением. Коллинеарность – проблема, когда компонента,
связанная с большим индексом состояния, вносит существенный вклад в дисперсию двух или более
переменных.
Сохранение
предсказанные значения (predicted values)
 нестандартизованные (unstandardized) – значение, предсказанное моделью для зависимой переменной.
 стандартизованные (standardized) – преобразование предсказанного значения в стандартную форму
(минус математическое ожидание, поделить на стандартное отклонение).
 скорректированные (adjusted) – предсказанное значение для данного случая, когда этот случай
исключался из вычисления регрессионных коэффициентов.
 стандартная ошибка средних предсказаний (S.E. of mean predictions) – оценка стандартного отклонения от
среднего значения зависимой переменной для случаев, которые имеют одинаковое значение
независимых переменных.
расстояния (distances)
 расстояние Махаланобиса (Mahalonobis) – мера отличия независимых переменных от среднего по всем
случаям. Если значение очень большое, то имеет место случай с экстремальными значениями какихто независимых переменных.
 расстояние Кука (Cook’s) – мера того, как сильно остатки для всех случаев изменятся, если отдельный
случай исключить из вычисления регрессионных коэффициентов.
 (leverage value) – мера влияния точки на качество модели. Изменяется от нуля (нет влияния) до (N1)/N.
предсказанные интервалы (prediction intervals)
 средние (mean) – верхняя и нижняя границы для предсказанного интервала среднего предсказания
отклика.
 индивидуальные (individual) – верхняя и нижняя границы интервала зависимой переменной для
отдельного случая.
остатки (residuals)
 нестандартизованные (unstandardized)
 стандартизованные (standardized)
 стьюдентизованные (studentized) – остатки, деленные на оценку стандартного отклонения, которая
отличается от случая к случаю, в зависимости от расстояния значений независимых переменных от
среднего по независимым переменным.
 удаленные (deleted) – остатки, когда случай был удален при вычислении регрессионных
коэффициентов. Разница между значением зависимой переменной и скорректированным
предсказанным значением.
 стьюдентизованные удаленные (studentized deleted) – удаленные остатки, деленные на стандартную
ошибку.
статистика влияния (influence statistics)
 изменение значений бета (DfBeta(s)) – изменение в регрессионных коэффициентах из-за удаления
отдельного случая при вычислении регрессионных коэффициентов. Считается для всех параметров,
включая константу.
 стандартизованное изменение значений бета (standardized DfBeta(s))
 изменение качества модели (DfFit) – изменение в качестве модели из-за удаления отдельного случая при
вычислении регрессионных коэффициентов.
 стандартизованное изменение качества модели (standardized DfFit)
 ковариационное отношение (covariance ratio) – отношение определителя ковариационной матрицы,
полученной при удалении отдельного случая при вычислении регрессионных коэффициентов, к
определителю матрицы со всеми случаями. Если отношение близко к единице, то случай не сильно
меняет ковариационную матрицу.
Есть метки включения константы в уравнение, задание критических значений F-статистики, различные графики.
16) Вывод формул коэффициентов зависимости в линейной регрессии.
17) Проверка гипотезы о независимости наблюдаемых переменных.
Простая регрессия
Есть 2 набора величин (Х и У) и нужно установить, имеется ли связь между этими величинами.
rX ,Y 
cov( X , Y )
;
var( X ) * var(Y )
var( X )  cov( X , X ) 
cov( X , Y ) 
1 n
 ( xi  x )( yi  y ) ;
n i 1
1 n
( xi  x ) 2

n i 1
Точное равенство означает, что rX ,Y =1
При исследовании корреляционных зависимостей между признаками решению подлежит широкий круг
вопросов, к которым следует отнести :
1)Предварительный анализ свойств моделируемой совокупности единиц;
2)Установление факта наличия связи, определение её формы и направления;
3)Измерение степени тесноты связи между признаками;
4)Построение регрессивной модели, т.е. нахождение аналитического выражения связи;
5)Оценка адекватности модели, её экономическая интерпретация и практическое использование.
Для того, чтобы результаты корреляционного анализа нашли практическое применение и дали желаемый
результат, должны выполняться определённые требования
1.Требование однородности тех единиц, которые подвергаются изучению.
2.Количественная оценка однородности исследуемой совокупности по комплексу признаков (расчет
относительных показателей вариации, коэффициент вариации, отношение размаха вариации к среднему
квадратическому отклонению).
3.Достаточное число наблюдений.
4.Исследуемая совокупность должна иметь нормальное распределение.
5.Факторы должны иметь количественное выражение.
2.2.Статистические методы выявления наличия корреляционной связи между двумя признаками
Простейшим приёмом обнаружения связи является сопоставление двух параллельных рядов – ряда значений
признака-фактора и соответствующих ему значений результативного признака. Значение факторного
признака располагается в возрастающем порядке и затем прослеживается направление изменения величины
результативного признака. Результативный признак (функция) обозначается через y, а факторный признак
через x.
Ниже приведён пример обнаружения корреляционной связи между стажем.
Наличие большого числа различных значений результирующего признака затрудняет восприятие таких
параллельных рядов. В таких случаях целесообразнее воспользоваться для установления факта наличия связи
корреляционной таблицей. Корреляционная таблица позволяет изложить материал сжато, компактно и
наглядно.
Построение корреляционной таблицы начинают с группировки значений фактического и результативного
признаков. В первый столбик следует вписать значения факторного признака (x), а первую строку заполнить
значениями результативного признака (y). Числа, полученные на пересечении строк и столбцов, означают
частоту повторения данного сочетания значений x и y.
Данная корреляционная таблица уже при общем знакомстве даёт возможность выдвинуть предположение о
наличии или отсутствии связи, а также выяснить её направление, Если частоты расположены по диагонали из
верхнего левого угла в правый нижний, то связь между признаками прямая. Если же частоты расположены по
диагонали справа налево, - то связь обратная. В данном случае можно предположить наличие прямой связи.
Корреляционная зависимость чётко обнаруживается только при рассмотрении средних значений
результативного признака, соответствующих определённым значениям факторного признака, т.к. при
достаточно большом числе наблюдений в каждой группе влияние прочих случайных факторов будет
взаимопогашаться, и чётче выступит зависимость результирующего признака от фактора, положенного в
основу группировки.
Для предварительного выявления наличия связи и раскрытия её характера, применяют графический метод.
Используя данные об индивидуальных значениях признака-фактора и соответствующих ему значениях
результативного признака, строится в прямоугольных координатах точечный график, который называют
«полем корреляции». Для данного примера поле корреляции имеет следующий вид ( см. рис. 2.1).
[pic]
Точки корреляционного поля не лежат на одной линии, они вытянуты определённой полосой слева на право.
Нанеся средние значения факторного и результирующего признаков на график и соединяя последовательно
отрезками прямых соответствующие им точки, получают эмпирическую линию связи.
Если эмпирическая линия связи по своему виду приближается к прямой линии, то это свидетельствует о
наличии прямолинейной корреляционной связи между признаками. Если же имеется тенденция
неравномерного изменения значений результирующего признака, и эмпирическая линия связи будет
приближаться к какой-либо кривой, то это может быть связано с наличием криволинейной корреляционной
связи.
2.3. Множественная корреляция
Проведенный выше анализ статистических совокупностей позволяет изучить взаимосвязь только двух
переменных.
На практике же часто приходится исследовать зависимость результирующего признака от нескольких
факторных признаков. В этом случае статистическая модель может быть представлена уравнением регрессии с
несколькими
переменными.
Такая
регрессия
называется
множественной
(множественная корреляция).
Например, линейная регрессия с m независимыми переменными имеет вид: yi = a0x0 + a1x1 + a2x2 + … + amxm,
(2.1) где а0, а1, а2, …, аm – параметры уравнения регрессии,
m – число независимых переменных, х0, х1, х2, …, хm – значения факторного признака, yi – значение
результирующего признака.
При оценке параметров этого уравнения в каждом i-том наблюдении фиксируют значения результирующего
признака у и факторных признаков хi0…хim.
Оценки параметров уравнения регрессии находятся с помощью метода наименьших квадратов, который в
случае множественной регрессии удобнее представить в матричной форме.
Применяются следующие обозначения: а = (аj), j = 0,1,…,m – вектор оценок параметров, m – число неизвестных
параметров; у = (уi), i = 1,2,…,n – вектор значений зависимой переменной, n – число наблюдений; х = (хij) –
матрица значений независимых переменных размерностью n(m+1); е = (ei) – вектор ошибок в уравнении с
оцененными параметрами.
18) Статистический анализ модели многомерной регрессии: ANOVA.
19) Проверка мультиколлинеарности независимых переменных.
Проверка сводится к выяснению линейной независимости полиномов.
20) Виды трендовых кривых. Преобразования переменных, сводящие тренд к линейной
регрессии.
21) Линейный, квадратичный и экспоненциальный рост в экономике.
22) S-образная кривая как график распространения нового товара.
Суть: стадии разработки, внедрения на рынок, роста, зрелости, насыщения, спада....рисуем прибыль и выручку –
они s-образны. По осям – время по оси абсцис, выручка и прибыль – по оси ординат.
23) Примеры производственных функций.
четыре типа производственных функций и изоквант. 1. Функции с полным взаимозамещением ресурсов,
например, Y=a1X1+a2X2 2. Неоклассическая производственная функция, например, Y=X1a1X2a2, a1+a2<=1 3.
Функции с полным взаимодополнением ресурсов, например, 4. Функции смешанного типа, например, Y=y1+y2 :
Xi=>aiy1+biy2, i=1,2.
24) Описание модели ARIMA.
AR(p)+MA(q)->ARMA(p,q)->ARMA(p,q)(P,Q)->ARIMA(p,q,r)(P,Q,R)->...
AR(p) -авторегрессионая модель порядка p.
Модель имеет вид:
Y(t)=f_0+f_1*Y(t-1)+f_2*Y(t-2)+...+f_p*Y(t-p)+E(t)
где
Y(t)-зависимая переменная в момент времени t. f_0, f_1, f_2, ..., f_p - оцениваемые параметры. E(t) - ошибка от
влияния переменных, которые не учитываются в данной модели. Задача заключается в том, чтобы определить
f_0, f_1, f_2, ..., f_p.
MA(q) -модель со скользящим средним порядка q.
Модель имеет вид:
Y(t)=m+e(t)-w_1*e(t-1)-w_2*e(t-2)-...-w_p*e(t-p)
Где Y(t)-зависимая переменная в момент времени t. w_0, w_1, w_2, ..., w_p - оцениваемые параметры.
три типа параметров модели: параметры авторегрессии (p), порядок разности (d), параметры скользящего
среднего (q). В обозначениях Бокса и Дженкинса модель записывается как АРПСС (p, d, q). Например, модель (0, 1,
2) содержит 0 (нуль) параметров авторегрессии (p) и 2 параметра скользящего среднего (q), которые вычисляются
для ряда после взятия разности с лагом 1.
25) Подбор модели Бокса-Дженкинса по полным и частичным автокорреляциям временного ряда.
расчет значений автокорреляционной функции, например, методом МНК
необходимо брать разности ряда до тех пор, пока он не станет стационарным (часто также применяют
логарифмическое преобразование для стабилизации дисперсии). Число разностей, которые были взяты, чтобы
достичь стационарности, определяются параметром d (см. предыдущий раздел). Для того чтобы определить
необходимый порядок разности, нужно исследовать график ряда и автокоррелограмму. Сильные изменения
уровня (сильные скачки вверх или вниз) обычно требуют взятия несезонной разности первого порядка (лаг=1).
Сильные изменения наклона требуют взятия разности второго порядка. Сезонная составляющая требует взятия
соответствующей сезонной разности (см. ниже). Если имеется медленное убывание выборочных коэффициентов
автокорреляции в зависимости от лага, обычно берут разность первого порядка. Однако следует помнить, что
для некоторых временных рядов нужно брать разности небольшого порядка или вовсе не брать их. Заметим, что
чрезмерное количество взятых разностей приводит к менее стабильным оценкам коэффициентов.
1. Один параметр (p): АКФ - экспоненциально убывает; ЧАКФ - имеет резко выделяющееся значение для
лага 1, нет корреляций на других лагах.
2. Два параметра авторегрессии (p): АКФ имеет форму синусоиды или экспоненциально убывает; ЧАКФ
имеет резко выделяющиеся значения на лагах 1, 2, нет корреляций на других лагах.
3. Один параметр скользящего среднего (q): АКФ имеет резко выделяющееся значение на лаге 1, нет
корреляций на других лагах. ЧАКФ экспоненциально убывает.
4. Два параметра скользящего среднего (q): АКФ имеет резко выделяющиеся значения на лагах 1, 2, нет
корреляций на других лагах. ЧАКФ имеет форму синусоиды или экспоненциально убывает.
5. Один параметр авторегрессии (p) и один параметр скользящего среднего (q): АКФ экспоненциально убывает с
лага 1; ЧАКФ - экспоненциально убывает с лага 1.
26) Преимущества и недостатки модели ARIMA.
27) Применение модели ARIMA к сезонным временным рядам.
Сезонные модели. Мультипликативная сезонная АРПСС представляет естественное развитие и обобщение
обычной модели АРПСС на ряды, в которых имеется периодическая сезонная компонента. В дополнении к
несезонным параметрам, в модель вводятся сезонные параметры для определенного лага (устанавливаемого на
этапе идентификации порядка модели). Аналогично параметрам простой модели АРПСС, эти параметры
называются: сезонная авторегрессия (ps), сезонная разность (ds) и сезонное скользящее среднее (qs). Таким
образом, полная сезонная АРПСС может быть записана как АРПСС (p,d,q)(ps,ds,qs). Например, модель (0,1,2)(0,1,1)
включает 0 регулярных параметров авторегрессии, 2 регулярных параметра скользящего среднего и 1 параметр
сезонного скользящего среднего. Эти параметры вычисляются для рядов, получаемых после взятия одной
разности с лагом 1 и далее сезонной разности. Сезонный лаг, используемый для сезонных параметров,
определяется на этапе идентификации порядка модели.
Общие рекомендации относительно выбора обычных параметров (с помощью АКФ и ЧАКФ) полностью
применимы к сезонным моделям. Основное отличие состоит в том, что в сезонных рядах АКФ и ЧАКФ имеют
существенные значения на лагах, кратных сезонному лагу (в дополнении к характерному поведению этих
функций, описывающих регулярную (несезонную) компоненту АРПСС).
28) Средняя квадратичная ошибка как основной критерий адекватности модели. Подбор
параметров модели по методу наименьших квадратов.
29) Основные информационные критерии: AIC и BIC.
30) Методы анализа независимости остатков.
Анализ остатков позволяет получить представление, насколько хорошо подобрана сама модель и насколько
правильно выбран метод оценки коэффициентов. Изучение графика остатков может показать наличие какой-то
зависимости, неучтенной в модели, например, показать необходимость перехода к нелинейной модели или
включения в модель периодических компонент. Для проверки нормальности распределения остатков
используется график нормального распределения, критерии типа Колмогорова-Смирнова, хи-квадрат и др. Для
проверки независимости остатков обычно используются критерий серий и критерий Дарбина-Уотсона. В случае
выявления сильной корреляции остатков следует перейти от регрессионной модели к моделям типа
авторегрессии скользящего среднего и возможно использовать разностные и сезонные операторы удаления
тренда.
Могут быть двугорбые распределения остатков, следовательно, существует несколько прямых регрессий, значит
нужно осуществить разбиение респондентов по какому-то признаку, и построить несколько регрессионных
зависимостей. Смотрим на хвосты:
 резкое отличие от остальных

крайние точки – «выбросы» (outliers)
o ошибки (набора...)
o особые люди
 понять причину возникновения
 выкинуть, но можно рассмотреть отдельно
o если выбросы в находящихся подряд анкетах – интервьюер
Выбросам надо уделять особое внимание, так как их присутствие может грубо искажать значения оценок
(особенно если для их получения используется МНК). Устранение эффектов выбросов может проводиться любо с
помощью удаления этих точек из анализируемых данных, либо с помощью применения методов оценивания
параметров, устойчивых к подобным грубым отклонениям.
Методы выкидывания:
 просто выкинуть (цензурирование)
 заменить модельными значениями
31) Алгоритм ex post прогнозирования.
32) Устройство типичной нейронной сети.
Искусственная нейронная сеть (ИНС, нейронная сеть) - это набор нейронов, соединенных между собой. Как правило,
передаточные функции всех нейронов в нейронной сети фиксированы, а веса являются параметрами нейронной
сети и могут изменяться. Некоторые входы нейронов помечены как внешние входы нейронной сети, а некоторые
выходы - как внешние выходы нейронной сети. Подавая любые числа на входы нейронной сети, мы получаем
какой-то набор чисел на выходах нейронной сети. Таким образом, работа нейронной сети состоит в
преобразовании входного вектора в выходной вектор, причем это преобразование задается весами нейронной
сети.
33) Этапы функционирования нейронной сети: обучение и прогнозирование.
Обучить нейронную сеть - значит, сообщить ей, чего мы от нее добиваемся. Этот процесс очень похож на
обучение ребенка алфавиту. Показав ребенку изображение буквы "А", мы спрашиваем его: "Какая это буква?"
Если ответ неверен, мы сообщаем ребенку тот ответ, который мы хотели бы от него получить: "Это буква А".
Ребенок запоминает этот пример вместе с верным ответом, то есть в его памяти происходят некоторые изменения
в нужном направлении. Мы будем повторять процесс предъявления букв снова и снова до тех пор, когда все 33
буквы будут твердо запомнены. Такой процесс называют "обучение с учителем".
При обучении нейронной сети мы действуем совершенно аналогично. У нас имеется некоторая база данных,
содержащая примеры (набор рукописных изображений букв). Предъявляя изображение буквы "А" на вход
нейронной сети, мы получаем от нее некоторый ответ, не обязательно верный. Нам известен и верный
(желаемый) ответ - в данном случае нам хотелось бы, чтобы на выходе нейронной сети с меткой "А" уровень
сигнала был максимален. Обычно в качестве желаемого выхода в задаче классификации берут набор (1, 0, 0, ...),
где 1 стоит на выходе с меткой "А", а 0 - на всех остальных выходах. Вычисляя разность между желаемым ответом
и реальным ответом сети, мы получаем 33 числа - вектор ошибки. Алгоритм обратного распространения ошибки это набор формул, который позволяет по вектору ошибки вычислить требуемые поправки для весов нейронной
сети. Одну и ту же букву (а также различные изображения одной и той же буквы) мы можем предъявлять
нейронной сети много раз. В этом смысле обучение скорее напоминает повторение упражнений в спорте тренировку.
Оказывается, что после многократного предъявления примеров веса нейронной сети стабилизируются, причем
нейронная сеть дает правильные ответы на все (или почти все) примеры из базы данных. В таком случае говорят,
что "нейронная сеть выучила все примеры", "нейронная сеть обучена", или "нейронная сеть натренирована". В
программных реализациях можно видеть, что в процессе обучения величина ошибки (сумма квадратов ошибок
по всем выходам) постепенно уменьшается. Когда величина ошибки достигает нуля или приемлемого малого
уровня, тренировку останавливают, а полученную нейронную сеть считают натренированной и готовой к
применению на новых данных.
Важно отметить, что вся информация, которую нейронная сеть имеет о задаче, содержится в наборе примеров.
Поэтому качество обучения нейронной сети напрямую зависит от количества примеров в обучающей выборке, а
также от того, насколько полно эти примеры описывают данную задачу. Так, например, бессмысленно
использовать нейронную сеть для предсказания финансового кризиса, если в обучающей выборке кризисов не
представлено. Считается, что для полноценной тренировки нейронной сети требуется хотя бы несколько
десятков (а лучше сотен) примеров.
Повторим еще раз, что обучение нейронных сетей - сложный и наукоемкий процесс. Алгоритмы обучения
нейронных сетей имеют различные параметры и настройки, для управления которыми требуется понимание их
влияния.
Применение нейронной сети
После того, как нейронная сеть обучена, мы можем применять ее для решения полезных задач. Важнейшая
особенность человеческого мозга состоит в том, что, однажды обучившись определенному процессу, он может
верно действовать и в тех ситуациях, в которых он не бывал в процессе обучения. Например, мы можем читать
почти любой почерк, даже если видим его первый раз в жизни. Так же и нейронная сеть, грамотным образом
обученная, может с большой вероятностью правильно реагировать на новые, не предъявленные ей ранее данные.
Например, мы можем нарисовать букву "А" другим почерком, а затем предложить нашей нейронной сети
классифицировать новое изображение. Веса обученной нейронной сети хранят достаточно много информации о
сходстве и различиях букв, поэтому можно рассчитывать на правильный ответ и для нового варианта
изображения.
34) Методы прогнозирования показателей NPV и IRR.
35) Прогнозирование рисков проекта.
36) Составление прогнозов при оценке инноваций.
37) Роль прогнозирования при выборе инновационной стратегии.
Download