Определение структуры причинно

advertisement
Определение структуры причинно-следственных отношений
событий по их стохастическим связям
Натан А.А.
Накопление информации о стохастических (вероятностных)
зависимостях между различными факторами, объединенными некоторым изучаемым явлением, приводит к естественным попыткам
использовать такие данные для выявления причинно-следственных
(«генетических») отношений между этими факторами. По мере развития компьютерных средств получения, хранения и обработки информации, указанная тенденция проникает в самые различные сферы человеческой деятельности, в частности – в такие области научных исследований, как биология, медицина, экономика, социология
и т.д., где стохастические методы и модели стали применяться сравнительно недавно и потому еще слабо развиты.
Нечеткое представление о принципиальном различии между
причинно-следственными и вероятностными связями между событиями (наблюдаемыми фактами) нередко приводит к курьезным выводам типа: «повышенное потребление соленых огурцов сокращает
длительность жизни». Заметим, что вину за подобные «парадоксы»,
основанные на ошибочном отождествлении причинно-следственных
и стохастических связей между событиями, подчас неоправданно
возлагают на математическую статистику, иронически утверждая,
что «статистика может все».
Рассмотрим типичную схему возникновения подобных недоразумений. Пусть A и B – два случайных события, которые (предположительно) могут находиться в причинно-следственных отношениях; для определенности положим, что A обозначает предполагаемую
причину, а B – следствие. Предположим, далее, что экспериментально установлена вероятностная зависимость события B от события A,
что выражается в неравенстве условных вероятностей (точнее – их
оценок)
P( B | A)  P( B | A ).
Можно ли на этом основании заключить, что между событиями действительно существует причинно-следственная связь, в которой событие A играет роль причины?
Следует, во-первых, заметить, что, в отличие от причинноследственной связи, вероятностная связь между событиями симметрична: из зависимости B от A следует и зависимость A от B, т.е.
P( A | B)  P( A | B ).
Это означает, что с обнаружение вероятностной связи между событиями не позволяет установить, какое из них является причиной, а
какое – следствием.
Во-вторых, что еще более важно, вероятностная связь между событиями вовсе не означает существование между ними причинноследственной связи. Пусть существует некоторое третье (не наблюдаемое) событие C, играющее роль причины в причинноследственных отношениях с событиями – следствиями A и B (см.
рис.1, на котором причинно-следственные связи между событиями
обозначены сплошными, а вероятностные – пунктирными стрелками). При такой схеме связей между событиями вероятностная зависимость между событиями A и B оказывается неадекватной их причинной связи, существуя и при отсутствии между ними непосредственных причинно-следственных отношений.
C
A
B
Рис.1
Поясним это следующей моделью.
Рассмотрим вероятностное пространство G = <,F,P> и пусть
A и B – пара случайных событий из G, осуществление которых никак
не связано с остальными событиями из G; назовем такую пару событий изолированными от «внешнего мира».
Заметим, что к изолированной паре событий можно придти,
если зафиксировать все события в G, которые связаны A и B, т.е.
рассматривать условное (относительно таких событий) вероятностное пространство.
Естественно предположить, что необходимым и достаточным
условием существования вероятностной связи между изолированными событиями является нахождения их в непосредственном причинно-следственном отношении. Поэтому, экспериментально обнаружив значимую вероятностную связь между ними, следует сделать
вывод и об их причинной связи. При этом, однако, надо учитывать
отмеченное выше существенное различие свойств причинноследственной и вероятностной связей: направленность первой и
симметричность второй. Поэтому, обнаружив вероятностную связь
событий A и B, нельзя установить какое из них является причиной,
а какое – следствием (не проводя дополнительного управляемого
эксперимента).
Следовательно, в терминах теории вероятностей необходимым
и достаточным условием отсутствия причинно-следственной связи
между изолированными событиями A и B является одно из эквивалентных равенств
P( A  B)  P( A) P( B) , P( A | B)  P( A | B ) , P( A | B)  P( A) , P( B | A)  P( B)
(здесь и далее предполагается, что события A и B имеют ненулевую
и не равную единице вероятность; для краткости будем называть их
ненулевыми). События, между которыми одновременно отсутствуют
вероятностная и причинно-следственная связи, назовем вполне независимыми.
Пусть теперь вместе с исходно вполне независимыми событиями A и B ведено в рассмотрение случайное событие C, которое имеет вероятностную связь с событиями A и B. Если P(C) = 1 (событие
C достоверно), то события A и B остаются вполне независимыми.
Это следует из равенства
P( A  B | C ) 
P( A  B  C )
 P( A  B)  P( A) P( B) ( P(C )  1, A  B  C ).
P(C )
Такой же результат получается и в том случае, если событие С – невозможное (P(C) = 0) (чтобы в этом убедиться, достаточно заменить
C на C ) .
Иначе обстоит дело, если 0 < P(C) < 1. Действительно, тогда в
общем случае получим
P( A  B)  P( A  B  C )  P( A  B  C )
и нетрудно подобрать условия, при которых имеет место неравенство
P( A  B)  P( A) P( B) ,
т.е. события оказываются взаимозависимыми в вероятностном
смысле, оставаясь при этом причинно независимыми.
Чтобы убедиться в этом, рассмотрим пример распределения
вероятностей на тройке событий A, B, C, представленного таблицей
1, в первых трех столбцах которых приведены значения индикаторов
этих событий ZA, ZB, ZC, а в четвертом – вероятности конъюнкций
A Z  B Z  C Z ( A1  A, A0  A и т.д.).
При этих условиях получаем
A
B
C
P( A  B)  0.2  P( A) P( B)  0.19
и
P( B | A)  0.3, P( B | A )  0.25
(1)
т.е. получен пример, когда события, не находящиеся между собой в
причинно-следственной связи, оказываются взаимозависимыми в
стохастическом смысле в результате вероятностной связи с третьим
событием.
Придадим приведенному примеру содержательный смысл. Известно, что существует предположение о вредном воздействии на
нервную систему человека частое использование им мобильного телефона. Предположим, что получена статистика, позволяющая оценить вероятности совместного осуществления событий A (частое
пользование мобильным телефоном) и B (нервное заболевание), и
Таблица 1
JA
0
0
0
0
1
1
1
1
JB
0
0
1
1
0
0
1
1
P( A j A  B jB  C jC )
JC
0
1
0
1
0
1
0
1
0.16
0.08
0.04
0.04
0.16
0.32
0.04
0.16
пусть их значения таковы, что имеет место равенство (1). Этот результат можно трактовать как подтверждение высказанного предположения и сделать вывод о том, что применение «мобилки» повышает вероятность нервного заболевания примерно на 20%. Однако
существуют факторы (события), которые могут быть одновременно
связаны с событиями A и B, корректируя полученный вывод. К ним
относится, например, событие C – проживание пользователя «мобилки» в крупном городе. Пусть таблица 1 представляет собой результат обработки выборки конъюнкций A j  B j  C j . Из таблицы
легко получим значения условных вероятностей (с точностью до
оценки)
A
B
C
P( B | A  C )  P( B | A  C )  P( B | C )  0.33(3)
P( B | A  C )  P( B | A  C )  P( B | C )  0.2,
из которых следует, что при фиксированном месте проживания (C–
город, C – провинция) пользование «мобилкой» (событие A) не влияет на вероятность нервного, заболевания (событие B), и делать вывод о вреде мобильного телефона на основании приведенных данных нельзя (приведенный пример имеет чисто иллюстративное
предназначение и не претендует, конечно, на какое либо содержательное заключение о проблеме).
Существенное различие природы и свойств причинных и вероятностных связей между событиями ставит вопрос о том, в какой
мере вероятностные зависимости, получаемые в результате обработ-
ки экспериментальных данных, позволяют выявить причинноследственные связи, существующие в исследуемом явлении.
Ниже рассматриваются некоторые возможные подходы к решению этой проблемы.
Пусть A = Ai iN1 – конечное множество событий, находящихся
между собой в причинно-следственных отношениях, отвечающих
следующим постулатам и определениям.
1. Причинно-следственная связь между событиями Ai и Aj (если она существует) имеет детерминированный характер, т.е. вызвана
объективными законами, достоверно определяющими событие –
причину и событие - следствие, и не содержащими элементов случайности.
2. События Ai и Aj находятся в непосредственной причинноследственной связи, если эта связь существует и не зависит от других событий из A.
3. Всякое событие Ai из A является непосредственным следствием не более одного события из A \{ Ai}.
4. Существует единственное событие Ak из A, являющееся
непосредственной причиной хотя бы одного события из A \{ Ak}.
Назовем его начальным событием и положим, перенумеровав события, k = 1.
5.Схема причинно-следственных отношений событий в A не
содержит циклов (замкнутых контуров).
Из перечисленных условий вытекает, что нами рассматриваются частный вид структур причинно-следственных связей, имеющих древовидный односвязный характер: каждая пара событий из A
находятся в непосредственной или опосредованной связи. Этот тип
структур будем называть линейными L(N) – структурами.
Пример такой L(10) – структуры причинно-следственных отношений событий в A приведен на рис. 2.
A7
A1
A3
A5
A2
A8
A4
A6
A10
Рис.2
Обозначим Zi индикатор события Ai:
0, когда событие Ai не присходит;
Zi  
 1, когда событие Ai присходит.
A9
Обозначая надлежащим образом события в A, получим, что
все события Ai и Aj, находящиеся в непосредственной причинноследственной связи, находятся в отношении эквиваленции Aj  Ai,
т.е.
Zj = Zi.
(2)
Отсюда следует, что, поначалу, индикаторы всех событий в A
одновременно равны единице или нулю (в зависимости от индикатора Z1 начального события A1).
Предположим теперь, что причинно-следственная связь между
событиями из A зашумлена, т.е. переход от причины Ai к ее непосредственному следствию Aj имеет случайный характер благодаря
действию помехи Eij, случайным образом изменяющей значение индикатора Zj на обратное. Источниками таких помех могут быть
внешние события, не входящие в A, но оказывающие влияние на события из A. Тогда, полагая, что Eij – бернуллиевая случайная величина, вместо (2) получим
Zj = Zi  Eij
( – сложение по модулю 2), откуда следует, что индикаторы {Zi}
событий из A – бернуллиевые случайные величины, значения которых не обязаны совпадать.
Допустим, что для каждой пары событий Ai и Aj, находящиеся
в непосредственной причинно-следственной связи, распределение
Бернулли помехи Eij имеет параметр qij(zi), различный, в общем случае, для различных пар (i,j), зависящий от значения zi индикатора Zi
события Ai и не зависящий от остальных событий из A
P{Eij   | Z i  zi }  qij ( zi )(1  qij ( zi ))1 ,   0, 1, zi  0,1.
Тогда переходные вероятности для событий Ai и Aj, т.е. условные вероятности перехода «причина – следствие», равны
P( A j | Ai )  P{Z j  1 | Z i  1}  1  qij (1),
P( Aj | Ai )  qij (1),
(3)
P( Aj | Ai )  P{Z j  1 | Zi  0}  qij (0)
P( Aj | Ai )  qij (0)
(следует заметить, что при сделанных предположениях о свойствах
структуры L этот переход обладает марковским свойством).
Выше мы полагали, что события Ai и Aj находятся в непосредственной причинно-следственной связи. Все сказанное, однако, распространяется и на случай, когда событие Ai является причиной,
воздействующей на событие-следствие Aj через ряд событий, расположенных между ними (как это имеет место, например, для событий
Ai = A2 и Aj = A9). Зная переходные вероятности (3) для смежных событий, можно получить переходные вероятности и для событий, не
являющихся смежными.
Решаемая нами задача формулируется теперь следующим образом: имея оценки вероятностных зависимостей между случайными событиями из A, т.е. переходных вероятностей (3), найти структуру причинно-следственных связей на этом множестве событий.
Прежде всего заметим, что в нашей схеме существование причинной связи между событиями всегда сопровождается и существованием между ними вероятностной связи. Однако, напомним, что в
отличие от направленного характера первой, вероятностная связь
симметрична; обнаружив наличие между событиями вероятностной
связи, определить, какое из них причина, какое – следствие без дополнительного анализа невозможно.
Более того, как мы установили, вероятностная связь между событиями не означает существование между ними причинноследственных отношений.
Начнем попытку решения поставленной задачи со случая, когда N = 3: A = A(3) = (A1, A2, A3). На рис.3 приведены все девять возможных вариантов структуры L(3) причинно-следственных отношений между событиями в A(3).
a1:
A1
A2
A3
a2:
A2
A1
A3
a3:
A1
A3
A2
b1:
A3
A2
A1
b2:
A3
A1
A2
b3:
A2
A3
A1
c1:
A1
A2
A3
c2:
A2
A3
A2
A1
A3
c3:
A1
Рис.3
При каждой из этих структур между событиями A1, A2 и A3 существует попарная вероятностная связь, независимо от того, находятся ли данная пара событий в непосредственной причинноследственной связи или нет. Так, для структуры c2 имеем
P( A3 | A2 )  P( A3 | A1  A2 ) P( A1 | A2 )  P( A3 | A1  A2 ) P( A1 | A2 ) 
 P( A3 | A1 ) P( A1 | A2 )  P( A3 | A1 ) P( A1 | A2 ) 

P( A1 | A3 ) P( A3 ) P( A1 | A2 ) (1  P( A1 | A3 )) P( A3 )(1  P( A1 | A2 ))


P( A1 )
1  P( A1 )
 P( A3 )[
P( A1 | A3 ) P( A1 | A2 )(1  P( A1 ))  (1  P( A1 | A3 ))(1  P( A1 | A2 )) P( A1 ))
].
P( A1 )(1  P( A1 ))
Нетрудно проверить, что отсутствие вероятностной зависимости между событиями A2 и A3 (равенство единице выражения в квадратных скобках последнего равенства) имеет место тогда и только
тогда, когда выполняются равенства
(4)
P( A1 | A2 )  P( A1 ) и P( A1 | A3 )  P( A1 ),
т.е. когда отсутствует вероятностная связь событий A2 и A3 с событием A1 (заметим, что оба равенства (4) выполняются или не выполняются одновременно). Поскольку, однако, события A2 и A3 находятся с событием A1 в причинно-следственной связи (в рассматриваемой структуре c2 A2 и A3 являются следствиями A1), равенства (4) не
выполняются, и между событиями A2 и A3 существует вероятностная зависимость, хотя они и не находятся в причинно-следственных
отношениях. Полученный вывод является обобщением рассмотренного выше примера с событиями A, B, C.
Приведенные на рис.3 девять возможных структур причинных
связей между событиями из A(3) можно разбить на три группы, каждой из которых соответствует свой тип вероятностной связи между
событиями. Так, группе 1, включающей варианты структур причинной связи a1, b1, c1, соответствует вероятностная связь событий,
выраженная равенством
P( A3 | A1  A2 )  P( A3 | A2 )
(5)
(или равносильным равенством
P( A1 | A2  A3 )  P( A1 | A2 ) ).
(5)
Группе 2, содержащей варианты a2, b2, c2, соответствует равенство
P( A3 | A1  A2 )  P( A3 | A1 )
(6)
(или равносильное равенство
P( A2 | A1  A3 )  P( A2 | A1 ) ),
(6)
а группе 3 (варианты a3, b3, c3)– равенство
P( A2 | A1  A3 )  P( A2 | A3 )
(7)
(или равносильное равенство
P( A1 | A2  A3 )  P( A1 | A3 ) ).
(7)
Следовательно, установив, какое из приведенных равенств
имеет место, можно определить, к какой из групп принадлежит
структура причинной связи в данной тройке событий. Дальнейшая
детализация типа их причинной связи (внутри группы) по типу вероятностной связи невозможна и требует дополнительного анализа,
основанного на содержательном смысле событий и, возможно, на их
реализации во времени.
Непосредственная достаточно достоверная проверка равенств
(5) – (7) требует обработки больших массивов эмпирических данных. Некоторое облегчение этой процедуры можно получить, заменив эти равенства соотношениями между попарными коэффициентами корреляции индикаторов событий. Для этого перепишем равенства (5), (6), (7) в виде (соответственно):
P{Z 3  z3 | Z1  z1 , Z 2  z 2 }  P{Z 3  z3 | Z 2  z 2 }
(8),
P{Z 3  z3 | Z1  z1 , Z 2  z 2 }  P{Z 3  z3 | Z1  z1},
(9)
P{Z 2  z 2 | Z1  z1 , Z 3  z3 }  P{Z 2  z 2 | Z 3  z3 }
(10)
(zi принимают значения 0 или 1).
Обозначим для простоты записи
P{Z j  z j | Z i  zi }  p j|i ( z3 | z 2 ), P{Z i  zi }  pi ( zi ),
P{Z i  zi , Z j  z j }  pij ( zi z j ),
P{Z i  zi | Z j  z j , Z k  z k }  pijk ( zi z j z k ).
Для математического ожидания и дисперсии индикатора Zi
имеем
0
mi  MZ i  pi (1),  i2  M ( Z i ) 2  pi (1) pi (0),
а коэффициент корреляции индикаторов Zi и Zj равен
0
 ij 
0
M (Z i Z j )
i  j

pij (11)  pi (1) p j (1)
pi (1) p j (1) pi (0) p j (0)
.
(11)
Покажем, что для группы 1 структуры связей событий условие
(5) (и, соответственно, (8)), влечет за собой равенство
(12)
13  1223.
Представим (12) с учетом (11) в виде равенства
 p13 (11)  p1 (1) p3 (1) p2 (1) p2 (0)   p12 (11)  p1 (1) p2 (1) p23 (11)  p2 (1) p3 (1). (13)
Далее, чтобы установить справедливость этого равенства при условии (5), представим это условие (в форме (5)) равенством
P( A3  A1  A2  A3 ) P( A1  A2 )

P( A2  A3 )
P ( A2 )
или (при введенных обозначениях)
p123 (111) p12 (11) p123 (101) p12 (01)

,

,
p23 (11)
p2 (1)
p23 (01)
p2 (0)
и в результате тождественных преобразований левой части (13) приходим к (12):
 p13 (11)  p1 (1) p3 (1)  p2 (1) p2 (0)   p123 (111)  p123 (101)  p1 (1) p2 (1)  p2 (0) p2 (1) 
 p (111) p23 (11) p123 (101) p23 (01)

  123

 p1 (1) p2 (1)  p2 (0) p2 (1) 
p23 (11)
p23 (01)


 p (11) p23 (11) p12 (10) p23 (01)

  12

 p1 (1) p2 (1)  p2 (0) p2 (1) 
p2 (1)
p2 (0)


 p12 (11) p23 (11) p2 (0)  p12 (10) p23 (01) p2 (1)  p1 (1) p2 (1) p3 (1) p2 (0) 
 p12 (11) p23 (11)  p1 (1) p23 (11) p2 (1)  p12 (11) p3 (1) p2 (1)  p1 (1) p22 (1) p3 (1) 
  p12 (11)  p1 (1) p2 (1)  p23 (11)  p2 (1) p3 (1) .
  p12 (11)  p1 (1) p2 (1)
Аналогично из принадлежности структуры связей между событиями ко второй и третьей группам с необходимостью следуют
равенства
–для группы 2:
(14)
23  1213.
–для группы 3
(15)
12  1323.
Возвращаясь к примеру распределения вероятностей трех событий, заданному таблицей 1, получим значения коэффициентов
попарной корреляции: AB = 0.045835, BC =0.315063, AC = 0.145479.
Переобозначив A = A1, B = A2, C = A3 и проверяя равенства (12), (14)
и (15), находим, что из них выполняется только равенство (15), т.е.
тройка событий (A, B, C) однозначно соответствует группе 3, которая содержит содержательно объяснимую структуру причинных
связей (событие C – причина, A и B – следствия).
Из приведенных результатов можно сделать следующие выводы.
1. При выполнении принятых нами условий, которым должна
удовлетворять структура причинных связей между тройкой событий, корреляционная связь между ними с необходимостью отвечает
одному (и только одному) из равенств (12), (14) или (15) в зависимости от группы структур (однозначность выбора группы связано с
тем, что нами постоянно рассматривается невырожденный случай:
i, j 0 |  ij | 1 ).
2. Определение конкретного вида структуры причинноследственных отношений событий внутри группы по исходным статистическим данным невозможно и требует содержательного анализа исследуемых зависимостей и, возможно проведения направленного (управляемого) эксперимента.
3. Анализ стохастических зависимостей между событиями, не
приводя к однозначному определению структуры их причинных свя-
зей, позволяет сократить число таких структур, подлежащих содержательно верификации.
4. На практике проверка равенств (12), (14), (15) должна проводиться с точностью до статистической значимости, определяемой
объемом исходных данных, используемых для формирования таблиц типа таблицы 1.
Вернемся к общему случаю L(N)-структуры на множестве A(N)
событий.
Назовем L(0N ) - структурой структуру причинно-следственных
связей на множестве A(N) событий, определенную с точностью до
направления этих связей. Каждой L(0N ) - структуре соответствует, таким образом, множество L(N)-структур с определенными направлениями причинных связей. При N = 3, следовательно, знание вероятностных связей между событиями позволяет восстановить лишь L(03) структуру. Это относится и к случаю N > 3.
Будем говорить, что три события Ai, Aj, Ak образуют простую
цепочку, если они в указанном порядке последовательно расположены на линейном отрезке L(0N ) - структуры. Так, например, в структуре, показанной на рис.2, простые цепочки образованы тройками
событий (A1, A3, A5), (A7, A4, A6), (A9, A4, A10) и др., в то время как
тройки (A1, A8, A9), (A7, A6, A10) простых цепочек не образуют.
Подчеркнем, что создание тройкой событий простой цепочки
зависит от порядка их перечисления. Так, тройка (A7, A6, A4) не образует простой цепочки в отличие от тройки (A7, A4, A6).
Простым признаком принадлежности трех событий одной
простой цепочке является нарушение связи между двумя крайними
событиями при исключении третьего (среднего) события.
Рассмотрим произвольную тройку событий (Ai, Aj, Ak) из A(N).
Повторяя вычисления, выполненные для N = 3, убедимся, что необходимым условием того, что эта тройка представляет собой простую
цепочку, является равенство (см.(11))
ik  ij  jk .
(16)
Покажем, что это равенство является и достаточным условием
того, что эта тройка – простая цепочка.
Пусть тройка событий (Ai, Aj, Ak) не образует простой цепочки.
Это может иметь место только в двух случаях:
a) эти события находятся на одном линейном фрагменте
структуры, но расположены в другом порядке, т. е. образуют,
например, простую цепочку (Ai, Ak, Aj).
b) события (Ai, Aj, Ak) не расположены на одном линейном
фрагменте структуры.
В первом случае с необходимость справедливо равенство
 ij  ik  kj ,
которое совпадает с (16) только при |  kj | 1, т.е. в вырожденном случае, который не рассматривается.
Во втором случае всегда существует событие Al (см. рис.4),
при котором тройки (Ai, Al, Aj) и (Ai, Al, Ak) образуют простые цепочки, т.е. имеют место равенства
ik  il lk , ij  il lj ,  jk   jl lk ,
которые совместимы с (16) только в вырожденном случае |jl| =1.
Al
Ai
Aj
Ak
Рис.4
Итак, равенство (16) в невырожденном случае является необходимым и достаточным условием образования тройкой событий
(Ai, Aj, Ak) простой цепочки.
Отметим, что события (Ai, Aj, Ak) в структуре причинных связей не обязательно должны располагаться рядом.
Полученные результаты позволяют предложить следующий
алгоритм определения L(0N ) - структуры по статистическим данным –
оценкам вероятностей P(Z1  Z 2    Z N ) , где {Zi} – индикаторы событий
{Ai} (заметим, что нумерация событий здесь произвольна).
Эти вероятности ипользуются для вычисления согласно (11)
попарных коэффициентов корреляции ij для всех пар событий (Ai,
Aj); обозначим матрицу их значений R  ij , ii  1, | ij | 1.
Пусть (Ai, Aj, Ak) – произвольная тройка событий из A(N). Находим для нее в R значения ij, ik, jk и проверяем, выполняется ли одно их равенств
 ik   ij  jk ,  ik   ij  jk ,  jk   ji ik .
(17)
Если ни одно из этих равенств не выполняется, то, как мы видели,
события (Ai, Aj, Ak) не образуют простой цепочки. Напротив, при выполнении одного из этих равенств события образуют простую цепочку, располагаясь в ней в соответствие с реализованным равен-
ством: i  j  k , i  j  k , j  i  k для, соответственно, первого, второго и третьего равенства. Для каждой тройки событий, образующих
простую цепочку, фиксируются пары номеров событий, оказавшихся рядом (так, при выполнении первого равенства в (17) фиксируются (i,j) и (j,k) и т.д.).
Перебирая все C N3 троек событий и ведя счет числа случаев kij,
когда пары событий (Ai, Aj) располагались в них рядом, получаем
матрицу K= k ij , показывающую, как часто та или иная пара событий оказывались рядом простых цепочках. Нетрудно заключить, что
для пары событий (Ai, Aj), расположенных рядом в L(0N ) - структуре,
справедливо равенство
kij = N - 2,
В то время как для пары событий, разделенных в L(0N ) - структуре
другими событиями, имеет место неравенство
kij < N – 2.
Следовательно, имея матрицу K, можно определить все связи
событий в A(N), оставляя, однако, открытым вопрос о направлении
этих связей, что означает восстановление L(0N ) - структуры.
В тех случаях, когда описанный алгоритм не приводит к успеху, следует заключить, что не выполнены условия, постулирующие
свойства L0 - структуры.
Отметим некоторые свойства матрицы R для простых типов
линейных структур L.
Пусть L – односвязная (однолинейная) структура причинных
связей событий, т.е. такая структура, в которой каждое событие
(кроме первого) является следствием предыдущего и (кроме последнего) – причиной следующего (см. рис.5).
A1  A2    AN
Ðèñ.5
Матрица R для такой структуры имеет вид
R
1,
12 ,
   , 1N
12 ,

1,

, 2 N

 
1N ,  2 N ,   

,1
1,
12 ,
12 23 ,    , 12 23     N -1,N
12 ,
1,
 23 ,







,1
12 23     N -1,N ,  23 34     N -1,N ,
(18)
   ,  23 34     N -1,N
(здесь использовано равенство  k ,k l   k ,k 1     k l 1,k l , которое следует
из (16) по индукции).
Покажем, что для N, N > 1, определитель матрицы R в этом
случае равен
N 1
det R   N   (1   i2,i 1 ).
(19)
i 1
Для N = 2 и 3 это проверяется непосредственно. Далее, действуя по индукции, полагаем
k 2
 k -1   (1   i2,i 1 ).
i 1
Разлагая определитель k матрицы R при N = k (см.(18)) по элементам последнего столбца, замечаем, что миноры, соответствующие
первым k-2 элементам этого столбца, равны нулю (в силу пропорциональности элементов последних двух строк). Поэтому
~
 k   k 1   k 1,k ,
где
1,
12 ,    , 12     k 3,k 2 , , 12     k 2,k 1





12     k -3,k -2 ,


,1,
 k 2,k 1
12     k 2,k 1 k -1,k ,


 k 2,k 1 k 1,k ,
,  k 1,k
~

  k 1,k  k 1 .
Отсюда
k 1
 k   k 1 (1   2k 1,k )   (1   i2,i 1 ),
i 1
что приводит к (19), которое является, следовательно, необходимым
условием того, что структура L имеет однолинейную структуру.
Важно отметить, что значение определителя N зависит от порядка нумерации событий. Поэтому проверка выполнения равенства
(19) должна выполняться для
N!
вариантов нумерации событий (с
2
учетом эквивалентности «зеркальных» вариантов).
Рассмотрим теперь структуру причинных связей, имеющей
«пучковый» характер: среди N событий из A(N) одно (пусть, например, A1) является причиной всех остальных N-1 событий (A2,…,AN),
находясь с ними в непосредственной причинной связи (см. рис.6).
Для такой структуры матрица R имеет вид
R 
1,
12 ,
12 ,
1,


13 ,

, 1,N
1213 ,    , 121,N
   1,N , 121N ,





,1
.
A2
A3
.
.
.
.
.
A1
AN
Рис.6
Покажем, что в этом случае определитель матрицы R удовлетворяет равенству
N
det R   N   (1  12i ).
(20)
i 2
Для N = 2 и N = 3 это очевидно. Допуская, далее, справедливость
(20) для N = k-1 и снова разлагая k по элементам последнего столбца, получим
~
 k   k 1  1,k ,
где теперь
12 ,
1,
13,
1213 ,
~
  

1,k 1 121,k 1
1,k
121,k
1213 ,   
, 121,k 1
1,

131,k 1




   1,k 2 1,k 1
   1,k 11,k

поскольку все миноры, соответствующие элементам последнего
столбца k с номерами от 2 до k-1 равны нулю из-за пропорциональности элементов первой и последней строк. Далее, вынося общий
множитель последней строки, получаем
~
  1k  k 1
и
k
 k   k 1 (1  12,k )   (1  12i ).
i 2
Поскольку значение N зависит от выбора первого события,
для обнаружения пучковой структуры следует выполнить N вычислений (20) с перебором всех событий в роли общей причины.
Полученные соотношения в некоторых случаях могут быть
полезны для проверки предположений о типе структуры L.
Дальнейшее
исследование
соотношений
причинноследственных и вероятностных связей целесообразно вести в следующих направлениях.
1.Расширение типов структур причинно-следственных отношений, включая случаи многопричинности;
2. Распространение полученных выводов на связи между случайными величинами;
3. Рассмотрение соотношений причинно-следственных и вероятностных связей в многомерном регрессионном анализе.
(добавить об отборе)
Download