36. Сопряженные регрессионные прямые.

advertisement
1. Пространство элементарных событий.
Рассмотрим некоторый эксперимент, все мыслимы исходы которого описываются
конечным числом w (закругленное)1,w2…wn исходов (или счетным числом исходов
w1,w2…wn,…:n принадл N). Множество омега (подковка) = {w1,..wn} (соответственно
омега = {wn|n prinadl N}) называется конечным (счетным) пространством элементарных
событий. Подмножество А множества Омега называется событием.
Таким образом, событие – это любой элемент множества Р(омега), где Р(омега)множество всех подмножеств множества омега. При этом омега называется достоверным
событием о пустое множество (О перечеркнутое) называется невозможным событием.
Рассмотрим алгебру < P(omega), объединение, пересечение, разность, дополнение.
Пусть А, В принадлежат Р(омега), тогда объединение А и В (сумма событий А+В)
= {x|x prinadl A или x prinadl B}
Пересечение (произведение событий А и В - АВ)={x|x prinadl A и x prinadl B}
Разность A\B={x|x prinadl A и x ne prinadl B}
Дополнение A`=omega\A={x prinadl omega|x ne prinadl A} называют событием
противоположным к А.
2. Понятие а-алгебры. Пример.
Алгебра элементарных событий называется сигма алгеброй (о с хвост), если она
замкнута относительно счетных пересечений. Замкнутость алгебры элементарных
событий < Summa, объедин, пересеч, разность, дополнение> относительно счетных
пересечений означает следующее:
Пусть Ai принадл сумм, I принадл N, N – счетное множество. Тогда пересечение Ai
принадл сумм, i принадл N.
Примеры:
1. Пусть омега ={0,1}. Тогда Р(омега)={пустое множество,{0
},{ 1},{0,1}},
положим Сумм = {пустое множество ,{0,1}. Алгебра <cумм, объедин, пересеч, разность,
дополнение> является сигма-алгеброй
2. Пусть омега не=пустому множеству, <Р(омега), объедин, пересеч, разность,
дополнение>- алгебра всех подмножеств омега, А принадл Р(омега), Сумм принадл
{пустое мн, омега, А, А`}. Тогда <сумм, объедин, пересеч, разность, дополнение> сигмаалгебра
3.Конечная подалгебра <сумм, объедин, пересеч, разность, дополнение> алгебры
<Р(омега), объедин, пересеч, разность, дополнение>, омега не равно пустому множеству,
является сигма-алгеброй
4. Пусть А- система множеств А прописное на прямой, каждое из которых есть
объединение конечного числа попарно непересекающихся полуоткрытых интервалов вида
(a,b], минус бесконечность<=a<b<=бесконечн:
А прописное принадл А, если А прописное = объединение от n по i=1 (ai,bi]; n
принадл N
3. Аксиоматический способ А.Н.Колмогорова определения
вероятности. Вероятностная мера. Вероятностное
пространство.
Рассмотрим подалгебру <сумм, объедин, пересеч, разность, дополнение> алгебры
<Р(омега), объедин, пересеч, разность, дополнение> всех подмножеств множества омега
(т.е. основное множество СУММ этой алгебры замкнуто относительно операций объедин,
пересеч, разность, дополнение: для любых А,В принадл СУММ выполняются включения
А объедин В принадл СУММ, А пересеч В принадл СУММ, А-В принадл СУММ, А с
дополнением принадл СУММ). Каждая из алгебр <cумм, объедин, пересеч, разность,
дополнение> называется алгеброй элементарных событий (или алгеброй подмножеств)
Упорядоченная пара <Омега,сигма(сумм)>, где <cумм, объедин, пересеч, разность,
дополнение> алгебра элементарных событий омега называется измеримым
пространством.
Пусть каждому множеству А, принадлежащему сигма-алгебре <cумм, объедин,
пересеч, разность, дополнение> элементарных событий омега, поставлено в соотв число
р(А) такое, что 0<=p(A)<=1, т.е. задана функция p:сигма->[0,1] (из множества в отрезок)
Функция p называется вероятностной мерой или просто вероятностью, если
выполняются след условия:
Условие счетной аддитивности. Мера объединения счетного числа попарно
непересекающихся событий равна сумме их мер
Условие нормировки. Вероятность достоверного события равно 1: р(омега)=1
Упорядоченная тройка <омега, сигма, p> называется вероятностным пространством
4. Классическое определение вероятности. Комбинаторные
методы вычисления вероятности.
Под классическим определением вероятностей подразумевают выбор такого
конечного вероятностного пространства, в котором все элементарные исходы
равновероятны:
|омега (подковка)|<бесконечн, V w(закругл)1 не равно w(закругл)2, P(w1(закругл))=
P(w2(закругл))
P(w(закругл))=1\|omega|
Покажем, что тогда с необходимостью.
Действительно, пусть P(w)=a Vw. Имеем, 1=Summ по осн w принадл омега от
Р(w)= а|омега|, следовательно а = 1\|omega|
Следовательно, вероятность любого события может быть подсчитана по формуле:
P(A)=|A|/|omega|
которая читается так: вероятность события есть отношение числа благоприятных
исходов к общему числу исходов.
Комбинаторные соотношения:
Число перестановок из n различных элементов:
Pn=n!(n!=1*2*3*…n)
Число размещений из н различных элементов по m элементов
An^m=n!/(n-m)!=n(n-1)…(n-m+1)
Число сочетаний из н различн элементов по м элементов
Сn^m=n!/(n-m)!m!
Число перестановок по м элементов из различных н элементов, в которых каждый
элемент может быть использован любое от 0 до м число раз, или число способов
размещения м различных элементов по н различным ячейкам
U(n,m)=n^m
5.Число перестановок из н элементов, среди которых м1 первого вида,…мк к-того
вида, или число способов размещения н различных элементов по к различныс ячейкам при
условии, что в и-той ячейке помещается mi (i=1,..k) элементов
P(n;m1,…mk)=Cn^m1…mk=n!\m1!m2!...mk!
5. Статистическое определение вероятности. Геометрические
вероятности.
Вычисление вероятности событий как отношений числа благоприятных исходов к
общему числу исходов к общему числу возможных исходов:
число перестановок из n различных элементов
Pn=n! (n!=1*2*3*..n)
число размещений из n различных элементов по m элементов
A^m по n= n!/(n-m)!=n(n-1)…(n-m+1)
Число сочетаний из n различных элементов по m элементов
С^m по n= n!/(n-m)!m!
Число перестановок по м элементов из различных н элементов, в которых каждый
элемент может быть использован от 0 до м число раз, или число способов размещения м
различных элементов по н различными ячейками
U(n,m)=n^m
Число перестановок из н различных элементов, в которых имеется ровно к
несмещенных элементов (относительно исходного их расположения)
Геометрич.
Пусть в результате испытания возможно бесконечное число исходов. При этом
исходы несовместны и ни один из них не имеет преимущества перед другими. Для
решения задачи о вероятности используется следующая геометрич интерпретация. Пусть
точка может занимать любое положение в области (Q) меры Q, причем нельзя указать
никакого района преимущественных положений точки. Вероятность события В,
состоящего в том, что точка попадает в область (q) равна
P{B}=q/Q, где q – мера области (q). Пусть интересующее нас событие А
происходит тогда и только тогда, когда осуществляется событие В. Тогда p{A}=p{B}=q/Q
6. Классификация событий. Условные вероятности.
Основные соотношения между вероятностью событий.
Теорема о формуле полной вероятности. Форма Байеса.
Пусть есть вероятностное пространство вкл в себя Ω,Σ,P. Два события А и В
принадлеж Σ назыв несовместными, если их пересечение АВ=пустому множеству,т.е.
наступление одного из них исключает другое. Условная вероятность: А принадл Σ , кот
обладает ненулевой вероятностью.Рассмотрим вероятностн пространство (Ω’;Σ’;P’), где
Ω’=A, Σ’={B∩A│B принадлежит Σ}. Если у нас B принадлежит Σ’, то вероятностную
функцию P’(B)=P(B)÷P(A). Аксиома вероятностного пространства непосредственно
проверяет верность. Данная вероятностное пространство описывает событие кот
происходит при условии наступл события А. Верность события B при условии
наступления события А. P(AB)÷P(A)=P(B⁄A)←вероятность B при условии A. Также назыв
условной вероятностью. Если событие A и B назыв независимыми, если условн
вероятность P(B⁄A)=P(B)P(AB)=P(A)*P(B)-условие того что наступл события А не
влияет на вероятность события В. Независимость события устан обычно при отсутствии
реальной связи между этими событиями.Формула полной вероятности:Полной группой
событий назыв множество событий H1,…,Hn удовлетвор-им след условия: Hi*Hj=пуст
множеству, при любых i≠j, H1+…+Hn=Ω. События входящие в какую-л полную группу
событий назыв гпитезой. Если взять произвольное событие A и полную группу событий
H1…,Hn, то A=AΩ=A(H1+…+Hn)=AH1+…+AHn, эти события несовместные. По формуле
сложения вероятности=>P(A)=P(AH1)+…+AHn. Из опред условной вероятности=>
(A)=P(A│H1)P(H1)+…+P(A│Hn)P(Hn)-формула полной вероятности.Применение ее
основано на том что условные вероятности события А, т.е. вероятности наступл события
А при условии того что одна из гипотиз осущ-сь часто вычисляется проще чем исходная
вероятность события А. Иногда испытание устроено так, что неизвнестно какая из гипотез
данного испытания осущ-лась, но известно что наступило некот событие зависящее от
этих гипотиз, если известны оприорные вероятности и условные вероятности события А,
то можно записать: P(AHi)=(A│Hi)P(H0) P(Hi│A)P(A), P(Hi│A)-назыв апостериорной
вероятностью
Hi
при
условии
что
событие
А
уже
наступило.
P(Hi│A)=(P(A│Hi)P(Hi))÷P(A)
Вопрос 45. Линейная корреляция. Простая линейная корреляция при
несгруппированных данных. Если между двумя явлениями х и у сущ линейное
стохастическое соотношение, линейная регрессия, то степень интенсивности связи можно
измерить с помощью коэфф-та корреляции ryx. Браве и Пирсоном был предложен
следующий метод определения коэффициента корреляции:
Коэфф-т корреляции приним значение в интервале: -1≤ ryx≤+1
Если гух=1, то между отклонениями хi-x и yi-у существует прямая связь, а если гух
=1, то между ними существует обратная связь. Чем больше связь между отклонениями
отличается от прямой или обратной, тем слабее исследуемая связь. Но равенство гух =0
показыв лишь на отсутствие линейной связи между переменными, а не на отсутствие
связи вообще
7. Классическое определение вероятности. Вычисление
вероятности с помощью деревьев возможных исходов.
В ряде случаев испытания может быть представлено как многошаговый процесс, в
котором каждый предшествующий исход имеет несколько последующих исходов. В
общем случае исходы каждого шага испытания неравновероятны. Интересующее событие
может осуществляться после какого-либо одного или нескольких шагов. При большом
числе исходов и шагов простое перечисление всех возможностей,а значит и подсчет
вероятностей события затруднителен. Упорядочивается путем построения графа-дерева
исходов.
8. Определение и классификация случайных величин.
Дискретные случайные величины и способы их задания.
Пусть <омега, сумм, р>- вероятностное пространство. Вещественаая функция
Е(загагуля):омега ->R называется случайной величиной, если для любого x принадл R
множество {w|Ezagag(w)<x}является событием, т.е. принадлежит сигма-алгебре СУММ.
Т.е.
это
функция,
измеримая
относительно
сигма
алгебрыСУММ.
Случайная величина в стат называетя генеральной совокупн (функция, определенная на
множестве элементарных исходов, принимающая различные действительные значения с
определенными вероятностями.
Виды:
Дискретная, если ее значения образуют числовую последовательность
Непрерывная, если множеством ее знач является интервал
Одномерная, если в результате эксперимента регистрируется одно число
Если результатом каждого эксперимента является регистрация набора
характеристик, то собственную случайную величину называют Многомерной.
Ординальная (порядковая) позволяет упорядочить обследуемые в ходе случайных
экспериментов объекты по степени проявления в них анализируемого свойства.
Номинальная (классификационная) позволяет разбивать обследуемые в ходе
экспериментов не поддающиеся упорядочению массивы на однородные по аналируемому
свойству классы.
Если наряду с некоторым свойством известны всевозможные его градации, то
соответствующую номинальную величину называют Категоризированной.
Способы задания
Для задания случайной величины необходимо задать вероятностное пространство
<омега, сумм, р>. В дискретном случае это означает, что тем или иным способом должны
быть перечислены все возможные значения дискретной случайной величины {x1,x2…xn}
и вероятности появления этих значений {p1,p2…pn…}. В этом случае говорят, что
известен закон распределения вероятностей случайной величины.
Если случайная величина Х принимает значения х1,х1,…хн.. соответственно с
вероятностями р1,р2…рн.. при этом х1<x2<….<xn и СУММ от бесконечн до к=1 рк=1, то
таблица
Х х1 х2 х3 …. Хн..
Р р1 р2 р3 …. Рн…
Назвается законом распределения или рядом распределения случайной величины.
Числовыми характеристиками дискретной случ величины являются меры
положения – характерные точки, вокруг которых группируются значения, принимаемые
случайной величиной и меры рассеивания – параметры, показывающие как группируются
эти знач вокруг мер положения, каков характер группировки.
Основные меры положения:
1.
Мода – самое вероятное знач случайной величины (абцисса самой высокой
точки полигона вероятностей)
2.
Медиана определяется так: p {x<мю}= p {x>мю} (мю – середина
распределения вероятностей)
3.
Математич ожидание - средневзвешенное случайной величины с весами
вероятностями
9. Основные меры положения дискретной случайной
величины. Дисперсия и ее свойства.
Дисперсией дискретной случайно величины х называется математ ожидание
квадрата отклонения этой случайной величины от ее математ ожидания: D(x)=(cp(x-cp
x)^2
Дисперсия характеризует степень «сосредоточенности» или «разброс» случ
величины около ее математ ожидания
Раскроем квадрат под знаком математ ожид:
D(x)=(cp(x-cp x)^2= сp (x^2-2x cp x+ cp x^2)=x cp ^2 – cp 2x* cp x+ cp x^2= cp x^2(cp x)^2
Т.е. дисперсия равна разности математ ожид квадрата случайно величины и
квадрата математ ожидания случайной величины. При этом размерность дисперсии может
не совпадать с размерностью случайной величины, тогда используют среднее квадратич
отклонение: o с хв (х)= корень из D(x)
Свойства:
1)Дисперсия постоянной равно 0
Dc=(c- cp c)^2= cp (c-c)^2=0
2) Постоянная выносится за знак дисперсии с возведением в квадрат
D(cx)=cp (cx- cp cx)^2=cp (c(x- cp x))^2=cp c^2(c- cp x)^2=c^2D(x)
3) Дисперсия суммы независ случайных величин равна сумме дисперсий
D(x+y)=D(x)+D(y)
4) Дисперсия произведения независ случайныз величин х,у равна разности
произвденеия математич ожиданий квадратов случайных величин и произведения
квадратов математич ожиданий случайных величин
D(xy)=cp x^2* cp y^2- cp(x)^2*cp(y)^2
10.
Меры рассеяния дискретной случайно величины.
Дисперсия и ее свойства.
Дисперсией дискретной случайно величины х называется математ ожидание
квадрата отклонения этой случайной величины от ее математ ожидания: D(x)=(cp(x-cp
x)^2
Дисперсия характеризует степень «сосредоточенности» или «разброс» случ
величины около ее математ ожидания
Раскроем квадрат под знаком математ ожид:
D(x)=(cp(x-cp x)^2= сp (x^2-2x cp x+ cp x^2)=x cp ^2 – cp 2x* cp x+ cp x^2= cp x^2(cp x)^2
Т.е. дисперсия равна разности математ ожид квадрата случайно величины и
квадрата математ ожидания случайной величины. При этом размерность дисперсии может
не совпадать с размерностью случайной величины, тогда используют среднее квадратич
отклонение: o с хв (х)= корень из D(x)
Свойства:
1)Дисперсия постоянной равно 0
Dc=(c- cp c)^2= cp (c-c)^2=0
2) Постоянная выносится за знак дисперсии с возведением в квадрат
D(cx)=cp (cx- cp cx)^2=cp (c(x- cp x))^2=cp c^2(c- cp x)^2=c^2D(x)
3) Дисперсия суммы независ случайных величин равна сумме дисперсий
D(x+y)=D(x)+D(y)
4) Дисперсия произведения независ случайныз величин х,у равна разности
произвденеия математич ожиданий квадратов случайных величин и произведения
квадратов математич ожиданий случайных величин
D(xy)=cp x^2* cp y^2- cp(x)^2*cp(y)^2
11.
Распределение дискретных случайных величин.
Биноминальное распределение.
Биномин распр объясняет следующая можель:
1.
Схема независ событий. Пусть в результате отдельного испытания событие
А может осуществиться с вероятностью р. Тогда число х появлений события А в н независ
испытаниях будет случайной величиной, подчиненной биномин закону распред
2.
Извлеч с возвращ: Пусть в множестве из N элементов содержится k
элементов с признаком В. Вероятность выбоа элемента с признаком В равна p=k/N. Пусть
производится н извлечений элементов из множества, причем после каждого извлечения и
опознания элемента он возвращается в исходное множество. Кроме этого, будем
предполагать, что эксперимент поставлен так, что при каждом извлечении вероятность р
появления элемента с признаком В не меняется.
Тогда случайная величина х – число извлечений элементов с признаком В – удовл
биномин закону распред
Мода к при биномин законе распред:
Np+p-1<=k<=np+p
12.
Распределение дискретных случайных величин.
Полиноминальное распределение.
Аналогична биноминальной, т.к. полиномиальное является обобщением биномин.
Схема независ испытаний: Пусть в результате испытания может появиться одно из
событий A1,…Am составляющих полную группу событий. Вероятность появления
события А равна pi; p1+..pm=1. Пусть проводится н независ испытаний. Тогда числа
x1…xm появлений событий А1..Ам удовл полиномин закону распр. Т.к. при каждом
испытании обязательно проявляется одно из событий А1…Аь, то х1+х2+хм=н
Извлечение с возвращением: Псть в множестве из N элементов содержится к1
элементов с признаками В1…, km элементов с признако Вm, причем к1+..+км=N.
Вероятность того, что при случайном выборе одного из элементов множес тва будет
выбран элемент Bi равна pi=ki/N, i=1…m
13.
Распределение дискретных случайных величин.
Гипергеометрическое распределение.
Пусть в множестве из N элементов содержится r элементов с признаком В.
Вероятность выбрать элемент с признаком В при одном случайном извлечении из
множества равна p=k/N. Пусть из множества случайным образом извлекают н элементов,
одновременни или последовательно, но без возвращения. Тогда число х элементов с
признаком В, содержащихся в выборке удовлетворяет гипергеометр закону распред.
14.
Распределение дискретных случайных величин.
Распределение Паскаля
Пусть проводится ряд независимых испытаний с вероятностью осуществления
события А в отдельном испытании р. Испытания прекращаются сразу после того, кого
событие А осущ н раз. Тогда число х испытаний, которое надо провести до осуществления
события А разно н раз, удовлетворяет закону Паскаля.
Распред Паскаля отличается от биноминального и гипергеометр тем, что
множество возможных знач случайно величины не ограничено сверху.
Описание – схемы:
1)
за случайную величину принимают общее число испытаний Х1, которое
надо произвести до появления события А ровно н раз, Х1>=н
2)
за случ велич принимают только то число Х2, которое превышает требуемое
число н появлений события А, X2>=0; X1=X2+n
.
15.
Распределение дискретных случайных величин.
Распределение Пуассона.
Пусть некот событие может происх многократно в случ моменты времени (пост
вызовы на телеф станцию). Такое событие назыв потоками событий. Этот поток назыв
стационарным , если Р(пост к событий) к≥0 в заданый интервал времени,зависит только от
продолжительности этого интервала и не зависит от начального момента этого интервала.
Поток событий без последствий, если Р появл-ся к событий в заданном интервале
времени,не зависит от числа появл событий в предшествующем ему промежутке времени.
Назыв ординарным, если Р появл 2 или более событий в малый промежуток времени, от (t;
t+Δt), пренебрежимо мала по сравнению с Р появл-ия 1 события. РΔt ( к≥2) = Ơ( РΔt
(к=1)). Стационар-ый ординарный поток беспоследействия назыв простейшим потоком
событий. Поток харак-ся плотностью(т.е.λ) и =средн числу событий происходящих за
единицу времени, тогда Р того, что за промежуток времени тао(τ) произойдет n
событий=(μn÷n!)e-μ,μ=τλ.Если поток событий простейший, случ величина=числу
появлений события из простейшего потока с λ за промежуток времени τ . может
принимать значение 0,1,2,…,эта величина имеет след ряд распределения:
X
P
0
e-μ
1
μe-μ
…
n
(μn÷n!)e-μ
Этот ряд назыв законом распред-ия Пуасона и он связан с биномиальным законом.
Теорема:если число испытаний n→∞, а Р→0,так что np=μ=const, то Р появл к события
идет к той самой величине. Ckn pkgn-k→( μk÷k!)e-μ; Ckn pkgn-k≈( μk÷k!)eμ;Погрешность=μ2÷n; Mξ=μ; Dξ=μ; σ=√μ
16.
Непрерывные случайные величины. Абсолютно
непрерывные случайные величины. Смешанные
случайные величины. Функция распределения. Функция.
Свойства функции распределения
Непрер случ велич(НСВ)-это некая величина кот возникает в момент испытания.
Фукция распределения НСВξ . назыв функция Fξ(x)=P(ξ<x). По свойствам этой функции
НСВ делятся на абсолютные непрерывные случ величины и смешанные случ величины.
Случ величина ξ назыв абсолютно непрерывной, если сущ такая функция fξ(x), что Fξ(x)=∞∫+∞ fξ(t)dt, в этом случае fξ(x) назыв фунцией плотности вероятности случ величины ξ, и
от суда мы получаем: fξ(x)=F’(x). Это получается почти всюду, кроме как например за
исключ-ого конечного числа точек. Свойства функции распред-ия случ величины:
0≤F(x)≤1, для всех x; F(x) неубывает на всей прямой (-∞;+∞), она обычно монатонна
возрастает x1≥x2 => F(x1)≥F(x2) –неубывает; limx→∞F(x)=0 и limx→+∞F(x)=1.
17.
Функция полной вероятности и ее свойства.
Случ величина ξ назыв абсолютно непрерывной, если сущ такая функция fξ(x), что
Fξ(x)=-∞∫+∞ fξ(t)dt, в этом случае fξ(x) назыв фунцией плотности вероятности случ
величины ξ, и от суда мы получаем: fξ(x)=F’(x).Свойства функции плотности вероятности:
f(x)≥0 ; -∞∫+∞ f(x)dx=1. Значение fξ(x)=lim∆x→0 1/∆x * P(x≤ξ<x=x+∆x. Значение
плотности распределения харак-ет относительную величину вероятности попадения
значения ξ в интервал (x;x+∆x) при малых значениях ∆x.
18.
Мат. Ожидание абсолютно непрерывной случайной
величины. Начальные и центральные моменты.
Асимметрия и эксцесс.
Непрер случ велич(НСВ)-это некая величина кот возникает в момент испытания.
Фукция распределения НСВξ . назыв функция Fξ(x)=P(ξ<x). Матем ожидание:
Мξ=∫tfξ(t)dt.Свойства мат ожид, аналогичны свойствам матем ожидания дискретных случ
величин. Дисперсия: Dξ=M(ξ2)-(Mξ)2=M(ξ-Mξ)2. начальный момент случ величины ξ,
опр-ся так: υk(ξ)=M(ξk),где υ-нью. Центральные моменты случ величины ξ, Mk(ξ)=M(ξMξ)k;Mk = ΣCik υi(-Mξ)k-i Асимметрия: a=M3/σ3, характ-ет отличие рапределения от
симметричного. Эксцесс: e=(M4 ÷σ4)-3, харак-ет крутость плотности распределения, где
M4-метод четвертого центрального ожидания, σ–среднее квадратичное отклонение.
19.
Распределение непрерывных случайных величин.
Нормальное распределение.
Непрер случ велич(НСВ)-это некая величина кот возникает в момент испытания.
Фукция распределения НСВξ . назыв функция Fξ(x)=P(ξ<x). Осн характ-ки НСВ: мода,
медиана, матем ожидание. Мода: xo, что f(x0)=max f(x), x€R. Медиана: G(1/2). Матем
ожидание: Мξ=∫tfξ(t)dt. Дисперсия: Dξ=M(ξ2)-(Mξ)2=M(ξ-Mξ)2. начальный момент случ
величины ξ, опр-ся так: υk(ξ)=M(ξk),где υ-нью. Асимметрия: a=M3/σ3, характ-ет отличие
рапределения от симметричного. Эксцесс: e=(M4 ÷σ4)-3, харак-ет крутость плотности
распределения, где M4-метод четвертого центрального ожидания, σ–среднее квадратичное
отклонение. Нормальное распред-ие случ величины N зависящая от параметров (μ,σ), где
μ-положение,
σ-форма,
у
кот
плотность
распред-ия
задается
формулой:……………………………………
От сюда следует:………………………………….
M(N)=μ ; D(N)=σ2 ; σ(N)=σ
График плотности распред-ия:
График функции распред-ия:
Чем σ больше, тем функция более расплывчатая.
Величина имеющая норм распр-ие с параметрами μ=0, σ=1, назыв стандартной
нормативной случайной величиной. Для решения задач обработки измерений,
наблюдений, оценки вероятностей: бывает необходимо находить значение FN(x) при
произвольных параметрах σ и μ для этого замечают что величина (N-μ) /σ, всегда явл
стандартной норм случ величиной, поэтому FN(x)=Φ((x-μ)÷σ), где Φ(x) функция Лапласа
кот =1/√2π *-∞∫x e-t²/2 dt. Для сокращ-ия объма таблиц часто приводят значение др
функции: Φ*(x)=1/2π* 0∫x e-t/2 dt, только при x>0. С одной строны Φ*(-x)= - Φ*(x), а с
другой стороны Φ(x)=1/2 + Φ*(x), поэтому зная Φ*(x) можем найти положит значение.
20.
Распределение непрерывных случайных величин.
Логнормальное распределение.
Непрер случ велич(НСВ)-это некая величина кот возникает в момент испытания.
Фукция распределения НСВξ . назыв функция Fξ(x)=P(ξ<x). Осн характ-ки НСВ: мода,
медиана, матем ожидание. Мода: xo, что f(x0)=max f(x), x€R. Медиана: G(1/2). Матем
ожидание: Мξ=∫tfξ(t)dt. Дисперсия: Dξ=M(ξ2)-(Mξ)2=M(ξ-Mξ)2. начальный момент случ
величины ξ, опр-ся так: υk(ξ)=M(ξk),где υ-нью. Асимметрия: a=M3/σ3, характ-ет отличие
рапределения от симметричного. Эксцесс: e=(M4 /σ4)-3, харак-ет крутость плотности
распределения, где M4-метод четвертого центрального ожидания, σ–среднее квадратичное
отклонение.
Логнормальное рапред-ие(L): L зависит от параметров масштаба m>0,σ=0.
FL(x)=…………………………………………………………..
При x≥0 и соотв-но FL(x)=0, при x<0. Плотность: fL(x)=………………
Когда x>0. M(L)=m√ω. D(L)=m2ω(ω-1). σ(L)=m√ ω(ω-1). Логнорм распред-ие
использ-ся при моделировании финансовых процессов в частности доходность некот цен
бумаг имеет распред-ие близкому к логнормальному.
21.
Центральная предельная теорема
Под законом больш чисел поним ряд результатов описывающих поведение
среднего значения суммы одинакого распределенных независимых случ величин при
неограниченном увелич их числа.
Центральн придельная теорема означает совок-ть результатов о том что при
выполн опр-ных условий сумма малых малых случайных величин стримится к случайной
величине имеющей нормальное распр-ие. Ее значение в том что случ величины, значение
кот складывается из действия многих малозначительных по отдельности факторов, можно
считать имеющими нормальное распр-ие с каким-то матем ожиданием и какой-то
дисперсией. Неравенство Чебышева: Пусть x случ величина имеющая дисперсию Dx,
тогда для любого E(эпсела)>0, имеет место P(│x-Mx│≥E)=Dx/E2. Эта теорема явл одним
из утверждений о больших числах. Если последовательность {xk} есть
последовательность независимых случ величин имеющих матем ожидание m и дисперсию
D, то для любого E>0 вероятность того что модуль среднего значения x (P(│1/n Σ xim│>E)→0, n→∞, т.е среднее значение такого большого числа случ величин теряет случ
характер приближаясь к константе n.
22.
Законы распределения непрерывных случайных
величин. Равномерное распределение
Непрер случ велич(НСВ)-это некая величина кот возникает в момент испытания.
Фукция распределения НСВξ . назыв функция Fξ(x)=P(ξ<x). Осн характ-ки НСВ: мода,
медиана, матем ожидание. Мода: xo, что f(x0)=max f(x), x€R. Медиана: G(1/2). Матем
ожидание: Мξ=∫tfξ(t)dt. Дисперсия: Dξ=M(ξ2)-(Mξ)2=M(ξ-Mξ)2. начальный момент случ
величины ξ, опр-ся так: υk(ξ)=M(ξk),где υ-нью. Асимметрия: a=M3/σ3, характ-ет отличие
рапределения от симметричного. Эксцесс: e=(M4 ÷σ4)-3, харак-ет крутость плотности
распределения, где M4-метод четвертого центрального ожидания, σ–среднее квадратичное
отклонение.
Равномерное распред-ие: величина ξ имеет равномерное распред-ие на отрезке АВ
если ее значение выбирается из отрезка [а,b], причем все значения равновероятны
(пример6 время ожидания автобуса на остановке, интервал времени фиксирован, а
расписание движения неизвестно). Плотность имеет постоянное значение, интеграл от
плотности=1, из этого следует что
fξ (x)= 0, x непринадлежит [a,b]
1/(b-a), x принадлежит (a,b)
0, x≤a
Fξ (x)= (x-a) ÷ (b-a), a<x≤b
1, x>b
Тепер нарисуй это на графике сама
Матем ожидание: Mξ=(a+b) ÷2
Дисперсия: Dξ=(b-a)2 ÷12
23.
Законы распределения непрерывных случайных
величин. Экспоненциальное распределение
Непрер случ велич(НСВ)-это некая величина кот возникает в момент испытания.
Фукция распределения НСВξ . назыв функция Fξ(x)=P(ξ<x). Осн характ-ки НСВ: мода,
медиана, матем ожидание. Мода: xo, что f(x0)=max f(x), x€R. Медиана: G(1/2). Матем
ожидание: Мξ=∫tfξ(t)dt. Дисперсия: Dξ=M(ξ2)-(Mξ)2=M(ξ-Mξ)2. начальный момент случ
величины ξ, опр-ся так: υk(ξ)=M(ξk),где υ-нью. Асимметрия: a=M3/σ3, характ-ет отличие
рапределения от симметричного. Эксцесс: e=(M4 ÷σ4)-3, харак-ет крутость плотности
распределения, где M4-метод четвертого центрального ожидания, σ–среднее квадратичное
отклонение.
Экспоненциальное распред-ие. Др название показательное рапред-ие. Параметр b,
случайная величина Е, функция распред-ия имеет вид: FE(x)=1-e-x/b, x≥0; fE(x)=1/b*e-x/b,
x>0. M(E)=b; D(E)=b2; σ(E)=b. Это распределение используется например в теории
надежности.
24.
Законы распределения непрерывных случайных
величин. Распределение Коши.
Непрер случ велич(НСВ)-это некая величина кот возникает в момент испытания.
Фукция распределения НСВξ . назыв функция Fξ(x)=P(ξ<x). Осн характ-ки НСВ: мода,
медиана, матем ожидание. Мода: xo, что f(x0)=max f(x), x€R. Медиана: G(1/2). Матем
ожидание: Мξ=∫tfξ(t)dt. Дисперсия: Dξ=M(ξ2)-(Mξ)2=M(ξ-Mξ)2. начальный момент случ
величины ξ, опр-ся так: υk(ξ)=M(ξk),где υ-нью. Асимметрия: a=M3/σ3, характ-ет отличие
рапределения от симметричного. Эксцесс: e=(M4 ÷σ4)-3, харак-ет крутость плотности
распределения, где M4-метод четвертого центрального ожидания, σ–среднее квадратичное
отклонение.
Распред-ие Коши: Если y равномерн распр-ие на интервале ( -π/2 ; π/2), то величина
X=a+b tgy подчиняется распред-ию Коши. Fx(x)=1/2 +(arctg (x-a)/b)÷π ; fx(x)= 1÷[πb(((xa)/b)2+1)]. Матем ожидание и дисперсия не существует.
25.
Законы распределения непрерывных случайных
величин. Распределение Парето.
Непрер случ велич(НСВ)-это некая величина кот возникает в момент испытания.
Фукция распределения НСВξ . назыв функция Fξ(x)=P(ξ<x). Осн характ-ки НСВ: мода,
медиана, матем ожидание. Мода: xo, что f(x0)=max f(x), x€R. Медиана: G(1/2). Матем
ожидание: Мξ=∫tfξ(t)dt. Дисперсия: Dξ=M(ξ2)-(Mξ)2=M(ξ-Mξ)2. начальный момент случ
величины ξ, опр-ся так: υk(ξ)=M(ξk),где υ-нью. Асимметрия: a=M3÷σ3, характ-ет отличие
рапределения от симметричного. Эксцесс: e=(M4 ÷σ4)-3, харак-ет крутость плотности
распределения, где M4-метод четвертого центрального ожидания, σ–среднее квадратичное
отклонение.
Распределение Парето: Единственный параметр c > 0. Функция распред-ия F(x)=1x-c где x≥1. Плотность Вероятности f(x)=cx-c-1, где x≥1.
M=c ÷ c-1, с >1. D=((c ÷ c-2)-(c ÷c-1))2, c >2
26.
Законы распределения непрерывных случайных
величин. Распределение Эрланга.
Это непрерывное распределение сосредоточено на (0,1) и имеет плотность:
<>
Математическое ожидание и дисперсия равны соответственно
<>
Распределение Эрланга названо в честь А. Эрланга (A. Erlang), впервые
применившего его в задачах теории массового обслуживания и телефонии.
Распределение Эрланга с параметрами µ и n является распределением суммы п
независимых, одинаково распределенных случайных величин, каждая из которых имеет
показательное распределение с параметром nµ
При n = 1 распределение Эрланга совпадает с показательным или
экспоненциальным распределением.
27.
Законы распределения непрерывных случайных
величин. Распределение Вейбулла.
Распределение Вейбулла определено для положительных значений параметров b, c
и θ, которые называются соответственно параметрами масштаба, формы и положения.
Плотность распределения Вейбулла:
f(x) = c/b*[(x- )/b]c-1 * exp^{-[(x- )/b]c}
θ < x, b > 0, c > 0
Функция распределения (ФР) Вейбулла:
F(x) = 1 - exp{-[(x- θ)/b]c}
Функция надежности. Функция надежности вычисляется с помощью функции
распределения Вейбулла по формуле:
R(x) = 1 - F(x)
Функция риска (интенсивности). Функция риска описывает вероятность отказа в
течение малого промежутка времени при условии, что до этого момента отказа не
произошло. На основе распределения Вейбулла получается функция риска следующего
вида:
h(t) = f(t)/R(t) = [c*(x- θ)(c-1)] / bc
Кумулятивная функция риска:
H(t) = (x- θ) / bc
В формулах для функции интенсивности и кумулятивной функции риска
использованы те же обозначения, что и в приведенных выше выражениях для функций
плотности и надежности.
28.
Законы распределения непрерывных случайных
величин. Степенное распределение.
29.
Законы распределения непрерывных случайных
величин. Гамма-распределение.
Непрер случ велич(НСВ)-это некая величина кот возникает в момент испытания.
Фукция распределения НСВξ . назыв функция Fξ(x)=P(ξ<x). Осн характ-ки НСВ: мода,
медиана, матем ожидание. Мода: xo, что f(x0)=max f(x), x€R. Медиана: G(1/2). Матем
ожидание: Мξ=∫tfξ(t)dt. Дисперсия: Dξ=M(ξ2)-(Mξ)2=M(ξ-Mξ)2. начальный момент случ
величины ξ, опр-ся так: υk(ξ)=M(ξk),где υ-нью. Асимметрия: a=M3/σ3, характ-ет отличие
рапределения от симметричного. Эксцесс: e=(M4 ÷σ4)-3, харак-ет крутость плотности
распределения, где M4-метод четвертого центрального ожидания, σ–среднее квадратичное
отклонение.
Гамма-распред-ие(обозначается-Г): Случайная величина Г, параметры b и c, где
b>0,c>0. Плотность вероятности опр-ся: fг(x)=(x/b)c-1 * (e-x/b÷bГ(c)), при x≥0. Г(c)-это
спец функция опр-мая таким образом: Г(с)=0∫∞ e-uuc-1du. FГ(x)=0∫x (t/b)c-1 *(et/b÷bГ(c))dt, x≥0. При целых значениях c, имеет место след равенство, например распредие Эрланга. При с=1, экспоненциальное распред-ие.
30.
Законы распределения непрерывных случайных
величин. Х – распределение.
Непрер случ велич(НСВ)-это некая величина кот возникает в момент испытания.
Фукция распределения НСВξ . назыв функция Fξ(x)=P(ξ<x). Осн характ-ки НСВ: мода,
медиана, матем ожидание. Мода: xo, что f(x0)=max f(x), x€R. Медиана: G(1/2). Матем
ожидание: Мξ=∫tfξ(t)dt. Дисперсия: Dξ=M(ξ2)-(Mξ)2=M(ξ-Mξ)2. начальный момент случ
величины ξ, опр-ся так: υk(ξ)=M(ξk),где υ-нью. Асимметрия: a=M3/σ3, характ-ет отличие
рапределения от симметричного. Эксцесс: e=(M4 ÷σ4)-3, харак-ет крутость плотности
распределения, где M4-метод четвертого центрального ожидания, σ–среднее квадратичное
отклонение. χ – хи. Распред-ие случ величины равной Σ n квадратов независимых случ
величин,каждая из кот имеет стандартное нормальное распред-ие назыв распредел-ием χ2
с n степенями свободы. Значения ее не отриц-ые. Плотность вероятности: f(x)=(x (n-2)/2 ex/2)÷(2n/2 Г(n/2); x≥0, (при n=1, получ 1 квадрат). F(x)=(1 ÷ 2n/2 Г(n/2) 0∫x t(n-2)/2 e-t/2dt.
Матем ожидание: по теме о св-вах матем ожидания квадрата каждого=1, значит Mχ=n.
Дисперсия: Dχ=2n. Распределение χ2 использ-ся при:
проверки гипотезы о виде неизвестного распределения
проверки значимости некот коэфф-ов в частности коэфф-та корреляции
построении интервальных оценок некот параметров.
31.
Законы распределения непрерывных случайных
величин. Т-распределение Стьюдента.
Пусть ξ |= N (0,1), ŋ |=X2n и они независимы. Распределением Стьюдента с n
степенями свободы Tn называется распределение (ξ ŋ) / ŋ случайной величины. В
принципе, поскольку плотности распределений ξ и ŋ нам известны, то нетрудно найти и
плотность Tn. Она равна
Можно также заметить несколько употребительных свойств этого распределения.
Во-первых, оно симметрично. Действительно, если ζ |= Tn то, воспользовавшись
симметричностью N(0,1), имеем
где значок означает совпадение распределений. Отсюда, как и для нормального
распределения легко вывести, что для произвольного x
Во-вторых, поскольку
и независимы, то, согласно закону больших чисел,
следовательно,
т.е. при большом числе степеней свободы распределение Стьюдента практически
совпадает со стандартным нормальным.
32.
Причинная связь. Основные типы причинных связей.
Функциональные и стохастические зависимости. Понятие
регрессии. Регрессия как односторонняя стохастическая
зависимость. Различные виды регрессии: простая,
множественная, линейная, нелинейная, положительная,
отрицательная, непосредственная, косвенная, нонсенсрегрессия.
Причинной связью называется такое соединение явлений и процессов реальной
действительности, при котором измение одного из факторов является следствием
изменения другого. Типы:
1) Х причина –> у следствие (фактор х влечет фактор у)
2) x->y1->y2 явление влечет за собой несколько других явлений (у1-з.п. у2 наличие
оборотных средств=производит труда)
3) x<->y взаимодействие факторов х и у (з.п, производит труда)
4) x1->X2-> yX3->
Несколько явлений являются причинами одного явления у (технич ур
производства, производств навыки работы, природно-экономич условия производств
процесса – у Ур производит труда
5) последовательное соединение причин x3->x2->x1->y
Функц завис : для любого х принадл А существует и при том единственное у
принадл В, такое что y=f(x)
Стохаст завис: для заданного значения объясняющей переменной можно указать
ряд значений (ряд распред) зависимой переменной, случайным образом рассеянных в
интервале.
Регрессия – односторонняя стохаст зависимость. Различие между функц завис и
регрессией заключается в том, что при функц зависимости факторный прихнак х
полностью определяет результативный признак у, а при стохаст – нет
Факторный признак х ->у результативный. При функциональной зависмости
функция обратима. Если сущ только стохастическая, то необратима. Функция регрессии
формально устанавливает соответствие между переменными, хотя они могут и не состоять
в причинно-следственных отношениях. Необходимо определить причинные щависимости.
Виды:
Простая (между двумя переменными)
Множественная (между завис перменной у и несколькими причинно обусловл
объясняющими – независимыми или предсказывающими переменными x1,x2…xm)
Линейная: однофакторная y=b0+b1x, множественная y=b0+b1x1+b2x2+…)
Нелинейная: квазилинейная – не явл линейной относительно включенных в анализ
переменных x, но явл линейными по неизвестным параметрам bk, k=1,…m
Положит: с увеличением значений объясняющей переменной значения зависмой
переменной увелич
Отрицат: с увелич знач объясняющей переменной знач зависимой перемен
уменьшаются
По типу соедин: непосредств – зависимая и объясняющая переменные связаны
непосредств друг с другом x->y; косв - объясняющая и зависимые переменные состоят
непосредственно в причинно-следств отношениях; нонсенс - ложная
33.
Приемы предварительного анализа зависимости
между двумя переменными: диаграмма рассеяния, метод
частных средних.
С помощью Функции регрессии y=f(x1,x2,…x m) количественно оценивается
зависимость между исследуемыми переменными.
Номер столбца к показывает номер соответствующей переменной, номер строки i
показывает номер наблюдения. Значения у и х являются эмпирическими данными.
Случайная переменная u=y-y cp, характеризующая отклонение от средней величины,
называется возмущающей переменной.
Диаграмма рассеяния: при анализе зависимости между двумя переменными по
таблице можно построить. В результате действия побочных факторов каждому
фиксированному знач переменной xk может соответствовать несколько значений
переменной y. Диаграмма позволяет произвести визуальный анализ эмпирических
данных, по ней можно графическим путем определить функцию регрессии, которая
обязательно должна проходить через точку M(x cp k, y cp)- центр рассеяния, и которая
должна по возможности хорошо отражать характер скопления точек.
Метод частных средних. Среднее, связанное с определенными предположениями
или вычисленное при определенных условия называется частным, условным или
групповым средним. Формула: ч среднее житое = сумма от n житое до i = 1 * хij/ nj,
j=1,2,…,q;
yp cp = сумма от np до i=1 * yip/np; p=1,2…s
Где x cp житое- частное среднее переменной x для jой группы значений
переменной у, n – число отдельных значений в группе j и группе р
34.
Простая линейная регрессия.
Простая регрессия – односторонняя стохастич зависимость результативной
переменной только от одной объясняющей переменной: y с домиком = f(x). Простая
линейная: y c домиком = b0+b1x (b – неизвестные параметры регрессии. В качестве меры
отклонений: сумма квадратов отклонений F= сумм от n до i=1(yi-y с домиком i)^2 и
модулей F= сумм от n до i=1|yi-y с домиком i|
35.
Построение регрессионной прямой с помощью метода
наименьших квадратов по не сгруппированным данным.
Теорема Гаусса-Маркова Способ наименьших квадратов состоит в том, что оценки
параметров регрессии определяются из условия: сумма квадратов отклонений
наблюдаемых значений величины Y от величины определенных данными параметрами
должна быть наименьшей.
b0,b1….bm из условия что сума от i=1 до n Yi вычитается b0 вычитаем b1xi и
возводим в квадрат и равняется Фи. b0,b1….bm мы должны минимизировать, то есть
берутся все частные производные от b0,b1….bm и приравниваются к 0, получается система
уравнений называемая нормальная система уранений.
36.
Сопряженные регрессионные прямые.
Cсопряженная регрессия: х c домиком= b0*+b1* y.
Тогда b1*=о с хвостиком по основанию xy/о с хв по осн y^2 и поэтому B по осн
yx=b1b1*, r po osn yx=koren iz b1b1*
Из этих соотношений легко получить геометрич интерпретацию коэффициента
корреляции r по ух. Запишем уравнение линейной регрессии у на х в следующем виде:
Y^=y cp +b1(x-x cp)
Y^-y cp=b1(x-x cp); b1=r po son yx * o с хвост по у/о с хвост по х, поэтому
Y^-y cp=( r по ух * (о с хв по у/о с хвост по х)) (х-х ср), откуда
Y^-y cp/ o с хв по у= r по ух* (х-х ср/о с хв по х)
Определим стандартизированные переменные х` и у`, полагая
Y`= y – y cp/o c xB no y, x`=x-x cp/o c XB no x
При стандартизации постоянная регрессия исчезает и мы получаем
Y`^= r по ух* X`
X`^= r по ух* Y`
В декартовой системе координат построим график обоих уравнений регрессии для
стандартизированных переменных
37.
Построение регрессионной прямой по
сгруппированным данным.
при большом числе наблюдений производят группировку данных по одной или
нескольким переменным. Для исследования зависимостей желательно использовать
равные по ширине интервалы группировок. Неравные интерв могут привести к
искажению регрессии и ошибочным выводам. При большом объеме изучаемой
сововкупности наиболее целесообразно образовывать 9-10 интервалов, равномерно
заполненных частотами. При небольших объемах совокупности нет смысла производить
группировку данных. Оценки, вычисленные по сгруппиров материалу, отличаются от
оценок, вычисленных по несгруппированному материалу. При большом объеме данных
считается, что неточности в результатх за счет группировки искупаются упрощением
процедуры вычисления.
38.
Логарифмическая, экспоненциальная, степенная
регрессия.
Различают два класса нелинейных регрессий:
1.
регрессии, нелинейные относительно включенных в анализ объясняющих
переменных, но линейные по оцениваемым параметрам
2.
регрессии, нелинейные по оцениваемым параметрам
Пример: равносторонняя гипербола: y=a+b\x+E загагуля
Степенная y=a*x^b*E
Показательная y=a*b^x*E
Экспоненциальная y=e^(a+bx)*E
Определяется методом наименьших квадратов
39.
Линейная множественная регрессия.
Y ср =b0+b1x1+b2x2+…+bmxm, koeff bk. K=0 – параметры регрессии. B0
выполняет функцию выравнивания, определяет точку пересечения гиперповерхности
регрессии с осью у. b1…bm – оценки коэф регрессии, измеряет усредненное частное
влияние изменения переменной xk, k=1,…m. Нет различия с точки зрения методолгич стат
между множеств и частной регрессией.
40.
Исходные предпосылки регрессионного анализа.
Предпосылки регрессионного анализа.
1. предполагается, что при заданных значениях переменных xk, k=1,…m на
зависмую переменную у не оказывают влияние никакие другие систематичеки
действующие факторы случайности. Влияние этих прочих факторов и случайносте
учитывается случайной возмущенной переменной и равно 0. u cp = 0
2. Свойство гомоскедатичности. Дисперсия случайной переменной u должна быть
для всех ui одинакова и постоянна – const
3. Значения случайной переменной u попарно некоррелированы или, еше более
сильная предпосылкаЮ они попарно независимы в вероятностном смысле: uiui-s
среднее=0 для s не равного 0
4.Число наблюдений должно превышать число параметров (n>m)
5. Объясняющие переменные не должны коррелировать с возмущающей
переменной u, то есть xik*ui cp=0
6. Возмущающая переменная удовлетворяет нормальному закону распределения.
Кроме того, предполагается, что она не оказывает сушественного влияния на переменную
у и представляет собой суммарный эффект от большого числа незначит
некоррелированных влияющих факторов, тем самым предполагается, что переменные у и
хк, к=1,…m распределены нормально
41.
Не линейная регрессия. Квазилинейная функция.
Уравнения регрессии назыв квазилинейным если оно линейно, относительное
параметров уравнения, но возможно не явл. линейным относительно объясняющих
факторов.
В этом случае параметры уравнения регрессии можно определить методом
наименьших квадратов. Берутся отклонения наблюдений значений от теоретических и ∑
квадратов в этих отношениях минимизируются.
Из необходимого условия минимума получается относительная система линейных
уравнений относительно независимых параметров, решая кот получаем оценки для
неизвестных параметров уравнения регрессии.
42.
Не линейная регрессия. Не линейные функции
второго класса.
Используют линеаризующие преобразования, сводят не линей6ые уравнения
квазилинейным. Свойства оценок могут теряться.
43.
Понятие корреляции. Различные виды корреляций:
положительная или прямая, отрицательная или обратная,
множественная, частная, линейная, не линейная,
непосредственная, косвенная, нонсенс-корреляция.
Понятие корреляции – связь, соотношение между объективно существующими
явлениями и процессами. Если случайные переменные причинно обусловлены и можно в
вероятностном смысле высказаться об их связи, то имеет место корреляц (стохаст) связь
или корреляция. Понятия регрессии и коррел тесно связаны между собой: в регресс
анализе изучается форма связи зависимых переменных, в корреляц оценивается сила
связи зависимых переменных.
Корреляция не вскрывает прияинного характера связи. Нельзя указать, какое из
явлений является причиной, а какое- следствием.
Виды:
Положительная (равнонаправленная или прямая): с увеличением значений одной
переменной значения другой переменной увеличиваются
Y=f(x1,x2,…xn)
Отрицательная обратная : с увеличением значений одной переменной значения
другой переменной уменьшаются
Y=f(x1,x2,…xn) x1<x1=>x2<x2
Множественная: между более чем двумя переменными
Y=f(x1,x2,…xn)
Частная – между двумя переменными при фиксированном влиянии остальных
переменных, включенных в анализ
Линейная: между исследуемыми переменными существуют линейные отношения
Y=f(x1,…xi,…,xj,…,xn); xj=axi+b
Непосредственная: объясняющая переменная оказывает прямое влияние на
зависимую переменную
Y=f(x1,…,xi,…,xj,..) из xi непосредственно вытекает xj
Косвенная – изучаемые переменные не имеют непосредственной причинноследственной связи, а определяются общей для них причиной
Y=f(x1,…,xk,…xi,…xj,…xn)
Ложная: чисто формальная связь между явлениями, основанная лишь на
количественно соотношении между ними, и не находящая никакого логического
объяснения (при вычислении индексов, процентных чисел)
44.
Задачи корреляционного и регрессионного анализа.
Особенности исследования корреляционных связей между
экономическими явлениями. Средние значения
Понятие корреляции – связь, соотношение между объективно существующими
явлениями и процессами. Если случайные переменные причинно обусловлены и можно в
вероятностном смысле высказаться об их связи, то имеет место корреляц (стохаст) связь
или корреляция. Понятия регрессии и коррел тесно связаны между собой: в регресс
анализе изучается форма связи зависимых переменных, в корреляц оценивается сила
связи зависимых переменных.
Корреляция не вскрывает причинного характера связи. Нельзя указать, какое из
явлений является причиной, а какое- следствием.
Своеобразие исследования:
1)
вряд ли можно пользоваться экспериментом
2)
определение
причинной
зависимости
затруднено,
причинная
обусловленность явлений едва ли может быть обнаружена при одной реализации
причинного комплекса
Средние значения.
При проверке статист гипотез используют критерии значимости, однозначно
устанавливающие условия, при которых гипотезу либо следует отвергнуть, либо считать
не противоречащей данным наблюдений. Выборочные характеристики представляют
собой случайные величины. Средние различных выборок случайно рассеиваются вокруг
среднего генеральной совокупности, выборочные коэффициенты корреляции – вокруг
среднего генеральной совокупности. Стат совокупности состоят обычно из большого
числа единиц и поэтому трудно обозримы. Для получения информации о поведении
изучаемого признака и для сравнения совокупностей удобнее пользоваться некоторыми
обобщающими характеристиками. Например, для характеристики уровней признака,
свойственным единицам совокупности, используют средние значения:
Среднее арифмет n чисел x1,x2,…xn:
X cp = x1+x2…+xn/n = сумм от n до i=1 *xi/n
Среднее геометр n неотрицат чисел x1>=0, x2>=0….
G=корень n-ой степени из
x1*x2*…*xn
Среднее гармоническое n чисел x1, x2,….xn: h= n/(1/x1+1/x2+..1/xn)
Среднее квадратическое: s=koren iz x^2 по 1+x^2 2+…x^2 n/n
45.
Линейная корреляция. Простая линейная корреляция
при не сгруппированных данных.
46.
Простая линейная корреляция при сгруппированных
данных. Связь между коэффициентами корреляции,
регрессии и детерминации.
47.
Линейная множественная корреляция. Частная
корреляция. Соотношение между коэффициентами
множественной и частной корреляции, регрессии и
детерминации.
Множественная корреляция оценивает Ур-е множеств-й регрессии. Хар-т тесноту
связи рассматриваемого набора факторов с исследуемым признаком (влияние факторов на
результат).
Показатель множественной корреляции Мб найден как индекс множественной
корреляции: Ryx1..xp=корень из (1- σ2ост/ σ2у), σ2y- общ дисперсия результативного
признака, σ2ост- остат дисп для Ур-я y=f(x1…xp). Ryx1..xp Мб от 0 до 1, чем ближе к 1
тем теснее связь. Можно польз-ся след формулой индекса множественной корреляции при
линейн зав-ти: Ryx1..xp=корень из(∑βxi*ryxi). βxi-стандатизированные коэф-ты
регрессии, ryxi- парные к-ты корреляции рез-та с кажд фак-ром.
Формула индекса множественной корреляции для линейн регр-и получ назв-е
линейн к-та множеств корреляции (совокуп-го коэф-та корреляции), кот можно опр-ть ч/з
матрицу парных к-тов коррел-ции. Ryx1..xp=корень из (1- ∆К/ ∆К11). ∆К-опр-ль матрицы
парных к-тов корреляции, ∆К11- опред-ль матрицы межфакт-й корреляции. Для Ур-я
y=a+b1*x1+b2*x2
∆К= 1
rx1х2 rх1x3 rx1у
∆К11= 1
rx1х2 rх1x3
rх2x1 1
rx2х3 rx2у
rх2x1
1
rx2х3
rх3x1 rx3x2 1
rx3у
rх3x1 rx3x2
1
ryx1 rуx2 rуx3
1
Множественный коэф-т корреляции(rx1,x2=[∑(х1i-х1ср)*(х2i-х2ср)]/[корень из
∑(х1i-х1ср)^2*корень из ∑(х2i-х2ср)^2]
Ранжирование факторов линейной МР м.б. – через стандартизованные к-ты
регрессии (В-к-ты); для лин связей – частные коэф-ты корреляции. При нелинейной вз/св
- частные индексы детерминации.
Частные показатели корреляции широко используются при решении проблемы
отбора факторов: целесообразность включения того или иного фактора в модель
доказывается величиной показателя частной корреляции.
Частные коэффициенты
(индексы) корреляции характеризуют тесноту связи между результатом и
соответствующим фактором при устранении влияния других факторов, включенных в
уравнение регрессии, в основном их используют на стадии формирования модели.
Показатели частной корреляции представляют собой отношение сокращения остаточной
дисперсии за счет дополнительного включения в анализ нового фактора к остаточной
дисперсии, имевшей место до введения его в модель. Пример: предположим. Что
зависимость объема продукции от затрат труда х1 характеризуется уравнением:
Yx1= 27,5 + 3,5*х1, парный коэф-т корреляции ryx1 =0,58,
Подставив в это уравнение факт значение х1, найдем теоретич величины объема
продукции Yx1 и величину остаточной дисперсии S2:
S2yx1=(yi-yxi)2/n,
Включив в уравнение регрессии доп фактор х2 – технич оснащенность
производства, получим ур-ие регрессии вида:
Yx1x2=20,2 + 2,8*х1+ 0,2*х2.
Предположим, что S2yx1х2 = 3,7, а S2yx1=6. чем большее число факторов
включено в модель, тем меньше величина остаточной дисперсии. Сокращение остат
дисперсии за счет доп включения фактора х2 составит 6-3,7=2,3. Чем больше доля этого
сокращения в остаточной вариации до введения доп фактора, т.е. в S2yx1, тем теснее
связь между y и х2 при постоянном действии фактора х1. Корень квадратный из этой
величины и есть индекс частной корреляции, показывающий в чистом виде тесноту связи
y и х2. Следовательно влияние фактора х2 на рез-т y определяется по формуле:
ryx2.x1=корень квадр из (( S2yx1 - S2yx1х2)/S2yx1),
а чистое влияние х1:
ryx1.x2=корень квадр из (( S2yx2 - S2yx1х2)/S2yx2),
Если выразить остат дисперсию через показатель детерминации S2остат=2y*(1r2). Соответственно формула примет вид:
ryx1.x2=корень квадр из (( S2yx2 - S2yx1х2)/S2yx2)= корень квадр из (1 S2yx1х2/S2yx2)= корень квадр из(1-(1-R2yx1x2)/(1-r2yx2),
для х1: ryx2.x1= корень квадр из(1-(1-R2yx1x2)/(1-r2yx1),
Рассмотренные показатели частной корреляции принято называть коэффициентами
(индексами) частной корреляции 1-го порядка, ибо они фиксируют тесноту связи двух
переменных при закреплении одного фактора. Если рассматривается регрессия с числом
факторов р, то возможно частные коэффициенты корреляции не только 1-го, но и 2-го, 3го и .. (р-1) порядка, т.е. влияние фактора х1 можно оценить при разных условиях
независимости действия других факторов:
ryx1.x2 - при постоянном действии фактора х2;
ryx1.x2х3 - … факторов х2,х3;
ryx1.x2…хр - … всех факторов.
В практических исследованиях предпочтение отдают показателям частной
корреляции самого высокого порядка, т.к. они являются дополнением к уравнению
множественной регрессии.
48.
Простая нелинейная регрессия при не
сгруппированных данных. Квазилинейные функции.
49.
Простая нелинейная регрессия при не
сгруппированных данных. Нелинейные функции второго
класса.
50.
Кластерный анализ.
Термин кластерный анализ в действительности включает в себя набор различных
алгоритмов классификации.
Фактически, кластерный анализ является не столько обычным статистическим
методом, сколько "набором" различных алгоритмов "распределения объектов по
кластерам". Существует точка зрения, что в отличие от многих других статистических
процедур, методы кластерного анализа используются в большинстве случаев тогда, когда
вы не имеете каких-либо априорных гипотез относительно классов, но все еще находитесь
в описательной стадии исследования. Следует понимать, что кластерный анализ
определяет "наиболее возможно значимое решение". Поэтому проверка статистической
значимости в действительности здесь неприменима, даже в случаях, когда известны pуровни.
Древовидная кластеризация. Назначение этого алгоритма состоит в объединении
объектов (например, животных) в достаточно большие кластеры, используя некоторую
меру сходства или расстояние между объектами. Типичным результатом такой
кластеризации является иерархическое дерево. Меры расстояния метод древовидной
кластеризации используется при формировании кластеров несходства или расстояния
между объектами. Эти расстояния могут определяться в одномерном или многомерном
пространстве. Евклидово расстояние. Это, по-видимому, наиболее общий тип
расстояния. Оно попросту является геометрическим расстоянием в многомерном
пространстве и вычисляется следующим образом: расстояние(x,y) = {∑i (xi - yi)2 }1/2.
Квадрат евклидова расстояния. Иногда может возникнуть желание возвести в квадрат
стандартное евклидово расстояние, чтобы придать большие веса более отдаленным друг
от друга объектам. Это расстояние вычисляется следующим образом: расстояние(x,y) = ∑i
(xi - yi)2. Расстояние Чебышева. Это расстояние может оказаться полезным, когда
желают определить два объекта как "различные", если они различаются по какой-либо
одной координате (каким-либо одним измерением). Расстояние Чебышева вычисляется по
формуле: расстояние(x,y) = Максимум|xi - yi| Степенное расстояние. Иногда желают
прогрессивно увеличить или уменьшить вес, относящийся к размерности, для которой
соответствующие объекты сильно отличаются. Это может быть достигнуто с
использованием степенного расстояния. Степенное расстояние вычисляется по формуле:
расстояние(x,y) = (∑i |xi - yi|p)1/r где r и p - параметры, определяемые пользователем.
Несколько примеров вычислений могут показать, как "работает" эта мера. Параметр p
ответственен за постепенное взвешивание разностей по отдельным координатам, параметр
r ответственен за прогрессивное взвешивание больших расстояний между объектами.
Если оба параметра - r и p, равны двум, то это расстояние совпадает с расстоянием
Евклида. На первом шаге, когда каждый объект представляет собой отдельный кластер,
расстояния между этими объектами определяются выбранной мерой. Однако когда
связываются вместе несколько объектов, возникает вопрос, как следует определить
расстояния между кластерами? Другими словами, необходимо правило объединения или
связи для двух кластеров. Здесь имеются различные возможности: например, вы можете
связать два кластера вместе, когда любые два объекта в двух кластерах ближе друг к
другу, чем соответствующее расстояние связи. Другими словами, вы используете
"правило ближайшего соседа" для определения расстояния между кластерами; этот метод
называется методом одиночной связи. Это правило строит "волокнистые" кластеры, т.е.
кластеры, "сцепленные вместе" только отдельными элементами, случайно оказавшимися
ближе остальных друг к другу. Как альтернативу вы можете использовать соседей в
кластерах, которые находятся дальше всех остальных пар объектов друг от друга. Этот
метод называется метод полной связи. Существует также множество других методов
объединения кластеров, подобных тем, что были рассмотрены.
Одиночная связь (метод ближайшего соседа). Как было описано выше, в этом
методе расстояние между двумя кластерами определяется расстоянием между двумя
наиболее близкими объектами (ближайшими соседями) в различных кластерах. Это
правило должно, в известном смысле, нанизывать объекты вместе для формирования
кластеров, и результирующие кластеры имеют тенденцию быть представленными
длинными "цепочками".
Полная связь (метод наиболее удаленных соседей). В этом методе расстояния
между кластерами определяются наибольшим расстоянием между любыми двумя
объектами в различных кластерах (т.е. "наиболее удаленными соседями"). Этот метод
обычно работает очень хорошо, когда объекты происходят на самом деле из реально
различных "рощ". Если же кластеры имеют в некотором роде удлиненную форму или их
естественный тип является "цепочечным", то этот метод непригоден.
Невзвешенное попарное среднее. В этом методе расстояние между двумя
различными кластерами вычисляется как среднее расстояние между всеми парами
объектов в них. Метод эффективен, когда объекты в действительности формируют
различные "рощи", однако он работает одинаково хорошо и в случаях протяженных
("цепочного" типа) кластеров. Отметим, что в своей книге Снит и Сокэл (Sneath, Sokal,
1973) вводят аббревиатуру UPGMA для ссылки на этот метод, как на метод
невзвешенного попарного арифметического среднего - unweighted pair-group method using
arithmetic averages.
Взвешенное попарное среднее. Метод идентичен методу невзвешенного попарного
среднего, за исключением того, что при вычислениях размер соответствующих кластеров
(т.е. число объектов, содержащихся в них) используется в качестве весового
коэффициента. Поэтому предлагаемый метод должен быть использован (скорее даже, чем
предыдущий), когда предполагаются неравные размеры кластеров. В книге Снита и
Сокэла (Sneath, Sokal, 1973) вводится аббревиатура WPGMA для ссылки на этот метод, как
на метод взвешенного попарного арифметического среднего - weighted pair-group method
using arithmetic averages.
Невзвешенный центроидный метод. В этом методе расстояние между двумя
кластерами определяется как расстояние между их центрами тяжести. Снит и Сокэл
(Sneath and Sokal (1973)) используют аббревиатуру UPGMC для ссылки на этот метод, как
на метод невзвешенного попарного центроидного усреднения - unweighted pair-group
method using the centroid average.
Взвешенный центроидный метод (медиана). тот метод идентичен предыдущему,
за исключением того, что при вычислениях используются веса для учёта разницы между
размерами кластеров (т.е. числами объектов в них). Поэтому, если имеются (или
подозреваются) значительные отличия в размерах кластеров, этот метод оказывается
предпочтительнее предыдущего. Снит и Сокэл (Sneath, Sokal 1973) использовали
аббревиатуру WPGMC для ссылок на него, как на метод невзвешенного попарного
центроидного усреднения - weighted pair-group method using the centroid average.
Метод Варда. Этот метод отличается от всех других методов, поскольку он
использует методы дисперсионного анализа для оценки расстояний между кластерами.
Метод минимизирует сумму квадратов (SS) для любых двух (гипотетических) кластеров,
которые могут быть сформированы на каждом шаге. Подробности можно найти в работе
Варда (Ward, 1963). В целом метод представляется очень эффективным, однако он
стремится создавать кластеры малого размера.
51.
Математическое моделирование в финансовой сфере
деятельности.
52.
Математическая модель финансового рынка: простые
и сложные проценты. Временная структура процентных
ставок.
Простая процентная ставка
Виды простых ставок
Любые проблемы, связанные с финансами, имеют множество нюансов. И это в
полной мере относится к расчетам. Причем в практических проблемах, связанных с
расчетом процентов, эти нюансы в основном касаются определения длительности займа t.
Отметим некоторые из них. Для этого еще раз напомним, что мы договорились считать
единицей времени год.
В краткосрочном контракте по предоставлению кредита срок его действия
естественно измерять днями. Поэтому при выбранной единице времени длительность
займа удобно записывать в виде t=n/N (1)
где n - длительность контракта в днях, а N - число дней в году. При этом
оказывается, что в разных странах мира сложилась своя практика, банковская и
коммерческая, в отношении базы времени N . Возможны следующие четыре
варианта:N=360, N=3б5, N=365,25, N = 366.из которых первый во многих странах
называется коммерческим годом.
Но выбор одного из этих вариантов еще не вносит полную ясность в расчет t
поскольку не меньше подходов к определению числа n. Так, оно может быть точным
числом дней от одной даты до другой, включающим или не включающим в себя границы.
Хотя наиболее распространенная практика определения числа дней ссуды по календарю
такая: первый день не учитывается, а последний – учитывается. Но это же число может
получаться совсем по-другому.
Начисленные за весь срок проценты:
I=Pni
Наращенная сумма:
S = Р + I = Р (1+ni)
Это - формула простых процентов. Множитель - множитель наращения проема
процентов.
Переменные ставки
Если предусмотрены изменяющиеся во времени процентные ставки, то
наращенная сумма будет определяться следующим образом:
S = Р (1 +n1i2+ n2i2 + ... +nmim)
Где ik – процентная ставка в период k,
nk – продолжительность периода к.
В ряде практических приложений финансового анализа встает вопрос об
определении первоначальной суммы долга по накопленной сунне, в зависимости от
используемой
ставки
он
решается
путей
использования
математического
дисконтирования или банковского учета.
Математическое дисконтирование является точным формальным решением
обратной задачи. Р = S/(1+ni)
Множитель:1
1 + ni называют дисконтным множителем.
Сложные проценты
Идея сложных процентов очень проста. В них, в отличие от простых процентов,
существует период времени, по истечении которого проценты начисляются не только на
имеющуюся в начале этого периода сумму, но и на накопившиеся к его концу проценты.
Конечно, интервал этот может быть разным по длине, например, месяц или год. Но если
уж он выбран, то является циклическим, т.е. на некотором промежутке ось времени
разбивается этими периодами, а равные части, как линейка на сантиметры. Но если без
простых процентов нельзя обойтись из-за соображений удобства в обращении или,
скажем, ощущения справедливости линейной зависимости вознаграждения от суммы
кредита и времени, то в случае сложных процентов основную роль играет наличие
свободной конкуренции.
Формула наращения сложных процентов S = P(1 + i)n
Р - первоначальная сумма долга;
S - наращенная сумма, или сумма в конце срока;
i - ставка наращения (десятичная дробь);
n - срок ссуды.
53.
Математические модели ценных бумаг (акции,
облигации, рента). Математические модели финансовых
операций. Показатели эффективности финансовых
операций. Наращение. Дисконтирование.
Краткосрочные ценные бумаги со сроком погашения до 1 года являются
важнейшим источником текущего финансирования как для предприятий, так и для
государственных и местных органов управления. Как правило, предприятия
осуществляют выпуск краткосрочных обязательств для пополнения оборотных средств, а
также для отсрочки платежей (получения коммерческого кредита), при расчетах с
поставщиками.
Крупнейшими эмитентами краткосрочных обязательств являются государственные
и местные органы К основным видам краткосрочных ценных бумаг, имеющих хождение
на территории РФ, следует отнести: бескупонные облигации, депозитные сертификаты,
банковские и корпоративные векселя и др.
В настоящее время краткосрочные обязательства являются наиболее популярными
объектами инвестиций в России, а также одним из важнейших источников разрешения
кризиса неплатежей.
Несмотря на сравнительно небольшую продолжительность краткосрочных
операций, фактор времени при их проведении играет не менее важную роль, чем при
осуществлении долгосрочных инвестиций и также требует применения специальных
количественных методов оценки. В данной главе будут рассмотрены методы
количественного
анализа
краткосрочных
обязательств,
базирующиеся
на
фундаментальной концепции временной стоимости денег, а также технология
автоматизации соответствующих вычислений в среде ППП EXCEL.
Концепции временной ценности денег и ее роли в финансовом менеджменте была
посвящена первая глава настоящей книги. Напомним, что учет фактора времени при
проведении финансовых операций осуществляется с помощью методов наращения и
дисконтирования, в основу которых положена техника процентных вычислений.
С помощью этих методов осуществляется приведение денежных сумм,
относящихся к различным временным периодам, к требуемому моменту времени в
настоящем или будущем. При этом в качестве нормы приведения используется
процентная ставка.
Как правило, в процессе анализа краткосрочных финансовых операций, для
дисконтирования и наращения используют простые проценты. Базой для исчисления
процентов за каждый период в этом случае является первоначальная (исходная) – PV,
либо конечная сумма сделки – FV.
Наращение по простым процентам В общем случае, наращение по годовой
ставке простых процентов осуществляют по следующей формуле:
FV = PV(1 + r ´ n),
где FV – будущая стоимость (величина); PV – современная величина; n – число
периодов; r – процентная ставка.
На практике продолжительность краткосрочной операции обычно меньше года. В
этом случае, срок проведения операции в соотношении (3.1) корректируется следующим
образом:
,
где t – число дней проведения операции; B – временная база (число дней в году:
360, 365 или 366).
С учетом корректировки срока операции ее будущую стоимость можно определить
как:
. (3.3)
Обычно при определении продолжительности проведения операции даты ее начала
и окончания считаются за 1 день.
В процессе проведения анализа в качестве временной базы В часто удобно
использовать условный или финансовый год, состоящий из 360 дней (12 месяцев по 30
дней). Исчисляемые по такой базе проценты называют обыкновенными или
коммерческими.
Точные проценты получают при базе равной фактическому числу дней в году, т.е.
при В = 365 или 366.
В свою очередь, срок продолжительности операции t также может быть
приблизительным (когда месяц принимается равным 30 дням) и точным (фактическое
число дней в каждом месяце).
Таким образом, в зависимости от параметров t и B, возможны следующие варианты
начислений процентов:
o
365 / 365 – точное число дней проведения операции и фактическое
количество дней в году;
o
365 / 360 – точное число дней проведения операции и финансовый год (12
месяцев по 30 дней);
o
360 / 360 – приближенное число дней проведения операции (месяц
принимается равным 30 дням) и финансовый год (12 месяцев по 30 дней).
3.1.2 Дисконтирование по простым процентам Прорабатывая материал
предыдущих глав вы уже убедились, что важнейшей характеристикой любой финансовой
операции является современная стоимость (величина) потоков платежей PV, определяемая
методом дисконтирования.
В зависимости от вида процентной ставки, при анализе краткосрочных финансовых
операций применяют два метода дисконтирования – математическое и коммерческое (т.н.
банковский учет).
В первом случае в качестве нормы приведения используют ставку r, применяемую
при наращении (3.1). Во втором случае в роли нормы приведения выступает т.н. учетная
ставка, для обозначения которой в дальнейшем будет использоваться символ d.
Математическое дисконтирование
Математическое дисконтирование представляет собой задачу обратную
наращению и сводится к определению величины PV по известным значениям величин FV,
r, n. С учетом принятых обозначений формула дисконтирования по ставке r будет иметь
следующий вид:
. (3.4)
Разность FV - PV называют дисконтом или скидкой, а используемую норму
приведения r – декурсивной ставкой процентов.
54.
Модель оптимизации портфеля ценных бумаг
Морковицы.
Модель состоит в следующем, инвестор приобретает ц.б. и вкладывает сой какойто капитал. Ц.б. хар-ся следующими параметрами:
1.
доходность
2.
риск
На рынке n ц.б. (1…. n), каждый из них хар-ся своей доходностью
Где Wi1 – цена данной бумаги на конец владения
Wi0 – цена данной бумаги на начало владения.
ri – оценка доходности.
Если портфель ц.б. составлен из каких-то величин, то rp – доходность портфеля.
Р = (р1…..рn) характеризуются данными: р1+….+ рn = 1; рi ≥ 0.
Р – портфель.
С точки зрения теории в качестве риска разумно рассмотреть величину дисперсии
или среднее квадратичное ожидание rp.
σр = σ(rр) – сигма пэ равна сигма эр от пэ.
Оптимизировать два критерия на кот-ые ориентирован инвестор.
rp → max, ожидаемая доходность портфеля была max;
σр → min, Риск min/
Подход Марковица состоит в том что для каждого инвестора опред кривые
безразличия.
Кривые безразличия кот мы построим в системе координат
Они показывают какие сочетания значения доходности и риска явл для инвестора
одинаково приемлемы с точки зрения инвестора.
При одном и том же уровне риска инвестор выбирает точку max доходность
портфеля, а с фиксированы риск, то min точку риска.
Все точки кривой расположены правей и ниже менее приемлемы, чем левей и
выше.
55.
Модель Шарпа (САРМ).
Модель Шарпа связь доходности и риска в ходе линейной зависимости.
Модель оценок финансовых активов.
Инвесторы оценивают портфель по ожидаемой доходности и риску.
2 принципа не насыщаемости инвестор пред-ет портфель с более высокой
доходностью при одинаковом риск.
3 принцип осторожность доходности портфель с меньшим риском.
4 принцип бесконечная делимость средств частных актив постоянно делиться.
5 принципов сущ-ет безрисковый процентная ставка, при кот инвестор может взять
в займы или дать в займы денежные ср-ва.
6 принцип налоги и операционные издержки несущ-ны.
Дополнительные предположения:
7 безрисковая процентная ставка одинакова для всех инвесторов.
8 информационная свободна и незамедлит доступна для всех инвесторов.
Рынки ц.б. предполагают совершенными рынками в смысле что нет факторов
препятствующих инвестициям.
Теорема разделения. Оптимальная для инвесторов комбинация рискованных
активов не зависит от его предпочтений дохода и риска.
Начальная цена акций падает отсюда увеличивается доходность.
Соотношение долей ц.б. в оптимальном портфеле в состоянии равновесия
соответствует соотнош долей в рыночном портфеле или относит рыночной ст-ти каждой
ц.б., а относительно рыночная ст-ть =ь (совокупная рыночная ст-ть данной бумаги) /
(сумму совокуп рыночную ст-ть всех бумаг)
Поскольку связь между риском и доходностью линейная, то прямая на кот лежат
риски и доходности наз-ся рыночной линией и имеет след уравнение
rp = rf + (rμ – rф) / σμ * σp
rμ – доходность рыночного портфеля
σμ- стандартное отклонение рыноч портфеля
rf – безрисковая ставка доходности.
1.
Пространство элементарных событий.............................................................................1
2.
Понятие а-алгебры. Пример. ............................................................................................2
3.
Аксиоматический способ А.Н.Колмогорова определения вероятности.
Вероятностная мера. Вероятностное пространство. ..................................................................3
4.
Классическое определение вероятности. Комбинаторные методы вычисления
вероятности. ...................................................................................................................................4
5.
Статистическое определение вероятности. Геометрические вероятности. .................5
6.
Классификация событий. Условные вероятности. Основные соотношения между
вероятностью событий. Теорема о формуле полной вероятности. Форма Байеса. ................6
7.
Классическое определение вероятности. Вычисление вероятности с помощью
деревьев возможных исходов. ......................................................................................................7
8.
Определение и классификация случайных величин. Дискретные случайные
величины и способы их задания. .................................................................................................8
9.
Основные меры положения дискретной случайной величины. Дисперсия и ее
свойства. .........................................................................................................................................9
10.
Меры рассеяния дискретной случайно величины. Дисперсия и ее свойства. ...........10
11.
Распределение дискретных случайных величин. Биноминальное распределение. ..11
12.
Распределение дискретных случайных величин. Полиноминальное распределение.
12
13.
Распределение дискретных случайных величин. Гипергеометрическое
распределение. .............................................................................................................................13
14.
Распределение дискретных случайных величин. Распределение Паскаля................14
15.
Распределение дискретных случайных величин. Распределение Пуассона. ............15
16.
Непрерывные случайные величины. Абсолютно непрерывные случайные
величины. Смешанные случайные величины. Функция распределения. Функция. Свойства
функции распределения ..............................................................................................................16
17.
Функция полной вероятности и ее свойства. ................................................................17
18.
Мат. Ожидание абсолютно непрерывной случайной величины. Начальные и
центральные моменты. Асимметрия и эксцесс. .......................................................................18
19.
Распределение непрерывных случайных величин. Нормальное распределение. .....19
20.
Распределение непрерывных случайных величин. Логнормальное распределение.20
21.
Центральная предельная теорема ..................................................................................21
22.
Законы распределения непрерывных случайных величин. Равномерное
распределение ..............................................................................................................................22
23.
Законы распределения непрерывных случайных величин. Экспоненциальное
распределение ..............................................................................................................................23
24.
Законы распределения непрерывных случайных величин. Распределение Коши. ..24
25.
Законы распределения непрерывных случайных величин. Распределение Парето. 25
26.
Законы распределения непрерывных случайных величин. Распределение Эрланга.
26
27.
Законы распределения непрерывных случайных величин. Распределение Вейбулла.
26
28.
Законы распределения непрерывных случайных величин. Степенное
распределение. .............................................................................................................................28
29.
Законы распределения непрерывных случайных величин. Гамма-распределение. .29
30.
Законы распределения непрерывных случайных величин. Х – распределение........30
31.
Законы распределения непрерывных случайных величин. Т-распределение
Стьюдента. ...................................................................................................................................31
32.
Причинная связь. Основные типы причинных связей. Функциональные и
стохастические зависимости. Понятие регрессии. Регрессия как односторонняя
стохастическая зависимость. Различные виды регрессии: простая, множественная,
линейная, нелинейная, положительная, отрицательная, непосредственная, косвенная,
нонсенс-регрессия. ......................................................................................................................32
33.
Приемы предварительного анализа зависимости между двумя переменными:
диаграмма рассеяния, метод частных средних. ........................................................................33
34.
Простая линейная регрессия. .........................................................................................34
35.
Построение регрессионной прямой с помощью метода наименьших квадратов по
не сгруппированным данным. ....................................................................................................35
36.
Сопряженные регрессионные прямые. ..........................................................................36
37.
Построение регрессионной прямой по сгруппированным данным. ..........................37
38.
Логарифмическая, экспоненциальная, степенная регрессия. .....................................38
39.
Линейная множественная регрессия. ............................................................................39
40.
Исходные предпосылки регрессионного анализа. .......................................................40
41.
Не линейная регрессия. Квазилинейная функция. .......................................................41
42.
Не линейная регрессия. Не линейные функции второго класса. ................................42
43.
Понятие корреляции. Различные виды корреляций: положительная или прямая,
отрицательная или обратная, множественная, частная, линейная, не линейная,
непосредственная, косвенная, нонсенс-корреляция. ...............................................................43
44.
Задачи корреляционного и регрессионного анализа. Особенности исследования
корреляционных связей между экономическими явлениями. Средние значения ................44
45.
Линейная корреляция. Простая линейная корреляция при несгруппированных
данных. .........................................................................................................................................45
46.
Простая линейная корреляция при сгруппированных данных. Связь между
коэффициентами корреляции, регрессии и детерминации. ....................................................45
47.
Линейная множественная корреляция. Частная корреляция. Соотношение между
коэффициентами множественной и частной корреляции, регрессии и детерминации. .......46
48.
Простая нелинейная регрессия при несгруппированных данных. Квазилинейные
функции. .......................................................................................................................................46
49.
Простая нелинейная регрессия при несгруппированных данных. Нелинейные
функции второго класса. .............................................................................................................48
50.
Кластерный анализ. .........................................................................................................49
51.
Математическое моделирование в финансовой сфере деятельности. .......................51
52.
Математическая модель финансового рынка: простые и сложные проценты.
Временная структура процентных ставок.................................................................................52
53.
Математические модели ценных бумаг (акции, облигации, рента). Математические
модели финансовых операций. Показатели эффективности финансовых операций.
Наращение. Дисконтирование. ..................................................................................................54
54.
Модель оптимизации портфеля ценных бумаг Морковицы. ......................................56
55.
Модель Шарпа (САРМ). .................................................................................................57
Download