Модели информационного влияния и информационного управления в социальных сетях

Тип работы:
Реферат
Предмет:
Физико-математические науки


Узнать стоимость

Детальная информация о работе

Выдержка из работы

УДК 519. 83,517. 977
МОДЕЛИ ИНФОРМАЦИОННОГО влияния Н ИНФОРМАЦИОННОГО УПРАВЛЕНИЯ В СОЦИАЛЬНЫХ СЕТЯХ
Д. А. Губанов, Д. А. Новиков, А.Г. Чхартишвили
Формирование и динамика мнений в социальной сети смоделированы при помощи цепей Маркова. Сформулированы и решены для ряда частных случаев задачи управления мнениями агентов, образующих социальную сеть, а также теоретико-игровые задачи информационного противоборства.
Ключевые слова: социальная сеть, информационное влияние, информационное управление, информационное противоборство.
ВВЕДЕНИЕ
С появлением Web 2.0 [1] возрастает важность ресурсов нового типа — онлайновых социальных сетей — как средств распространения мнений, влияющих на действия пользователей сети. Например, в последней президентской избирательной компании США для данных целей Барак Обама и его сторонники широко использовали онлайновые социальные сети, что, по утверждению аналитиков, в немалой степени способствовало его победе [2].
Социальную сеть можно представить графом, вершинами которого являются индивидуумы (агенты), а ребрами — различные отношения между ними. Из социальной психологии [3, 4] известно, что мнение индивидуума в социальной сети в значительной мере определяется мнением влиятельных для него соседей. Зная это, некто за пределами сети или внутри нее для достижения своих целей может попытаться изменить мнения небольшого множества ключевых пользователей в популярных онлайновых социальных сетях (таких как Livejoumal (www. livejournal. ru), НаЬгаИаЬг (habrahabr. ru)), посредством которых произойдет распространение мнений по всей сети.
В социальной сети агенты часто не имеют достаточно информации или не могут обработать ее, решения агентов могут основываться на наблюдаемых ими решениях других агентов. Следует отметить, что несущественные изменения в решениях могут привести к крупным информационным кас-
кадным изменениям в зависимости от структуры сети (того, кто кому доверяет) [5]. Существуют модели, связанные с диффузией информации и такими информационными каскадами, в основе которых лежит некая фиксированная сеть и локальные правила взаимодействия ее членов. В том числе, известны две базовые модели: модель с линейным порогом (Linear Threshold Model) и модель независимых каскадов (Independent Cascade Model). В этих моделях узел сети может быть в двух состояниях: активном и неактивном, причем узел может перейти из активного состояния в неактивное. Если в первой модели [6] узел и испытывает влияние своих соседей w так, что? w m 1,
^ u, v ' v активным узел-сосед u u, v '
и становится активным в зависимости от выбранного им порога tu е [0, 1] (в некоторых моделях значение фиксируется для всех одинаковым [7], в других моделях выбирается случайно, согласно некоторому вероятностному распределению [8]? w & gt- t, то во второй модели
v активным узел-соседu u, v u' ^ «
[8, 9], когда узел и становится активным в некоторый момент времени, то он получает единственный шанс активировать на следующем шаге каждого из своих соседей v с вероятностью wuv (причем соседи могут пытаться независимо активировать и другие узлы). В статье [7] предлагается обобщение каждой из перечисленных моделей и показывается их эквивалентность. В работе [10] предлагается расширение модели на основе введения нелинейных пороговых функций- в работе [8] изучаются каскадные эффекты в аспекте топологии сети.
В настоящей работе изучается формирование и динамика мнений в социальной сети, моделируемое при помощи цепей Маркова: динамика влияний описывается марковским процессом, а мнения рассчитываются при помощи графа влияний. Выводы, полученные в рамках модели, согласуются с эвристикой: например, в группе «тесно связанных» вершин устанавливается одинаковое мнение. Формулируются и решаются для ряда частных случаев как задачи управления мнениями агентов, образующих социальную сеть, так и теоретико-игровые задачи информационного противоборства.
1. ПРЯМОЕ И КОСВЕННОЕ ИНФОРМАЦИОННОЕ ВЛИЯНИЕ
Будем описывать агентов, входящих в социальную сеть, множеством N = {1, 2, …, n}. Агенты в сети влияют друг на друга, и степень влияния задается матрицей прямого влияния t размерности n х n, где t. 1 0 (от англ. trust) обозначает степень доверия i-го агента j-му агенту. Здесь и далее мы будем говорить как о влиянии, так и о доверии, и считать, что эти два понятия являются противоположными в следующем смысле: выражение «степень доверия i-го агента j-му равна t.» тождественно по смыслу выражению «степень влияния j-го агента на i-го равна t.».
Доверие в социальной сети можно наглядно изображать в виде стрелок с весами, соединяющих вершины. Например, стрелка от i-го агента к j-му с весом t. (рис. 1) означает соответствующую сте-
i.
пень доверия.
Будем считать, что агент i достоверно знает только «свою» (i-ю) строчку матрицы t = ||t. || - ко-
i.
му и насколько он доверяет.
Будем считать выполненным условие норми-
П
ровки: Vi е N у t. = 1, т. е. предположим, что i.
} = 1
Рис. 1. Прямое (непосредственное) доверие
Рис. 2. Косвенное доверие (влияние)
«суммарное доверие» агента равно единице. Это условие означает, что матрица t является стохастической [11]. Отметим, что 1-й агент может доверять и самому себе, чему соответствует tii & gt- 0.
Если 1-й агент доверяет j-му, а j-й доверяет к-му (рис. 2), то это означает следующее: к-й агент косвенно влияет на /-го (хотя последний может даже не знать о его существовании).
Это соображение побуждает к поиску ответа на вопрос о том, кто в итоге формирует мнение в социальной сети.
2. ФОРМИРОВАНИЕ И ДИНАМИКА МНЕНИЙ АГЕНТОВ
Пусть у каждого агента в некий начальный момент времени имеется мнение по некоторому вопросу, мнение i-го агента отражает вещественное число b. Мнение всех агентов сети отражает вектор-столбец мнений b (от англ. belief) размерности п.
Агенты в социальной сети взаимодействуют, обмениваясь мнениями. Этот обмен приводит к тому, что мнение каждого агента меняется в соответствии с мнениями агентов, которым данный агент доверяет. Будем считать это изменение линейным, т. е. мнение агента в следующий момент времени представляет собой взвешенную сумму мнений агентов, которым он доверяет (весами служат степени доверия t.): j
b (k) = у t b (k -1} bl у lij bj ,
где индекс к означает момент времени.
Нетрудно убедиться, что в векторной записи первое измененное мнение агентов равно произведению матрицы непосредственного доверия на
вектор начальных мнений: b (1) = tb. Если обмен мнениями продолжается и далее, то вектор мне-
(2) 2 (3) 3
ний агентов становится равным b = t b, b = t b
и т. д.
Если взаимодействие агентов продолжается достаточно долго, то их мнения стабилизируются — сходятся к результирующему мнению B = lim b (n)
П ^ ю
(об условиях существования предела см. далее).
Будем называть матрицей результирующего влияния предел T = lim tn (об условиях существования
П ^ ю
предела см. далее). Тогда можно записать соотношение B = Tb, где b — вектор начальных мнений, T — матрица результирующего влияния, B — вектор итоговых мнений.
Структуру косвенного доверия (влияния) также удобно изображать в виде ориентированного графа
Рис. 3. Преобразование прямых доверий (а) в результирующее (б)
(агенты — вершины), где стрелками обозначено доверие агентов (стрелка идет от агента к тем агентам, кому он доверяет- если степень доверия равна нулю, то стрелка не проводится).
Пример 1. Пример преобразования прямых доверий (влияний) в результирующие приведен на рис. 3.
На рис. 3, б видно, что все доверие агентов сети сосредоточено на двух агентах с номерами 3 и 6. Именно эти два агента, по сути, определяют мнение в данной социальной сети. ¦
Чтобы описать структуру результирующего доверия (влияния) в общем случае нам понадобятся некоторые понятия, определению которых посвящен следующий параграф данной статьи.
3. ГРУППЫ И СООБЩЕСТВА
Назовем сообществом множество агентов, которые не подвергаются влиянию агентов вне него. Формально, сообщество — это подмножество Б с N такое, что V/ е Б V] е NБ (t. = 0). Обозначим через
ц
X множество таких подмножеств.
Назовем группой сообщество агентов, которые взаимодействуют таким образом, что каждый агент влияет или подвергается влиянию каждого другого агента группы прямым или косвенным образом. Формально, группа — это «минимальное» сообщество, т. е. такое, внутри которого нельзя выделить никакое другое сообщество, т. е. множество
О е Xтакое, что е X (Б с О).
Спутник — агент, подвергающийся влиянию агентов тех или иных групп, однако не оказывающий влияния ни на одну из них (ни на одного из агентов ни одной из групп). Это агент, не входящий ни в одну из групп.
Таким образом, каждый агент либо принадлежит ровно одной группе, либо является спутни-
ком. В то же время, агент может принадлежать нескольким «вложенным» друг в друга сообществам.
На рис. 4 выделены группа, сообщество и спутники в социальной сети примера 1. Здесь имеется единственная группа, включающая в себя агентов 3 и 6- остальные агенты являются спутниками.
4. СТРУКТУРА РЕЗУЛЬТИРУЮЩИХ ВЛИЯНИЙ
Для описания структуры результирующих влияний мы используем известные результаты, полученные при исследовании конечных цепей Маркова (см., например, работы [12, 14 (гл. VIII)]). Для этого установим соответствие между введенными нами понятиями и понятиями теории марковских цепей следующим образом:
агент — состояние марковской цепи- степень доверия — вероятность перехода из одного состояния в другое-
матрица прямых доверий — матрица переходных вероятностей-
косвенное доверие — достижимость-
Рис. 4. Сообщество, группа и спутник социальной сети примера 1
Группы
Спутники
Рис. 5. Структура графа результирующих влияний
группа — неразложимый класс существенных состояний-
спутник — несущественное состояние.
Далее, будем считать выполненным следующее условие 1: в каждой группе существует хотя бы один агент i е N, для которого tu & gt- 0. Иными словами, в каждой группе хотя бы один агент хоть сколько-нибудь доверяет своему мнению.
В этом случае каждой группе соответствует (в теории марковских цепей) неразложимый апериодический класс. Поэтому справедливы следующие утверждения, являющиеся следствием известных фактов в теории цепей Маркова (подчеркнем, что условие 1 здесь и далее будем считать выполненным).
Утверждение 1. Существует матрица результирующих влияний — предел T = lim tn.
П ^ ю
Утверждение 2. Мнения агентов стабилизируются, т. е. существует предел B = lim b (n).
П ^ ю
Утверждение 3. Результирующее влияние любого спутника на любого агента равно нулю. Это, в частности, означает, что начальные мнения спутников не оказывают никакого влияния на итоговые мнения каких-либо агентов.
Утверждение 4. В матрице результирующих влияний строки, соответствующие членам одной группы, совпадают. Это, в свою очередь, означает, что совпадают итоговые мнения агентов, т. е. каждая группа имеет общее мнение (которое можно считать мнением группы). ¦
Отметим, что утверждение 4 соответствует наблюдениям социальных психологов: в группе ее участники, испытывая информационное влияние, приходят к консенсусу [3].
Таким образом, структура результирующих влияний в социальной сети выглядит следующим
образом (рис. 5). Имеется некоторое число групп, в каждой из которых итоговые мнения агентов совпадают. Остальные агенты являются спутниками, их итоговые мнения полностью определяются мнением одной или нескольких групп.
В заключение данного параграфа обсудим вопрос информированности самих агентов о создавшейся ситуации. Знает ли агент, является ли он членом одной из групп либо спутником?
Логично считать, что каждый агент в каждый момент времени знает свое мнение, мнение тех агентов, кому он доверяет, а также степень своего доверия каждому их них (здесь идет речь о прямом доверии). Если агент знает, что его итоговое мнение не совпадает с мнением тех, кому он доверяет, то он является спутником и знает это. В то же время, если итоговые мнения агента и тех, кому он доверяет, совпадают, то агент может быть как членом группы, так и спутником.
5. ПРИМЕРЫ ФОРМИРОВАНИЯ И ДИНАМИКИ МНЕНИЙ АГЕНТОВ
В данном параграфе мы рассмотрим несколько модельных примеров, иллюстрирующих формирование мнений агентов.
Начнем с «предельных» случаев.
Пример 2. Пусть имеется агент г е Л, который доверяет только самому себе: V/ ф №. = 0, ^ = 1. Мнения
такого агента меняться во времени не будут: Ь® = Ь, к = 0, 1, … ¦
Пример 3. Пусть имеется агент, который доверяет в некоторой (отличной от нуля) степени всем остальным агентам, которые все имеют одно и то же мнение и никому, кроме себя, не доверяют. Тогда мнение этого агента со временем будет стремиться ко мнению других агентов, которое меняться не будет. ¦
Пример 4. Пусть имеются два агента, каждый из которых полностью доверяет оппоненту У12 = = 1).
Тогда введенное выше условие 1 не имеет места, и будут наблюдаться колебания мнений агентов с периодом 2. ¦
Пример 5. Пусть имеются два агента и ситуация симметрична: гп = г22 & lt- 1. Начальные мнения агентов —
0 и 1. Результирующее мнение будет единым и равным 0,5, причем максимальная «скорость сходимости» будет иметь место при ^ + 121 = 1. ¦
Пример 6. Пусть социальная сеть — связный граф, а степени доверия всех агентов друг другу одинаковы. Тогда результирующее мнение будет единым для всех агентов и равным среднему арифметическому их начальных мнений. ¦
Содержательные интерпретации рассмотренных «предельных» случаев прозрачны.
Пример 7. Пусть имеются три агента, каждый из которых в некоторой степени доверяет себе и другим. Начальные мнения агентов различны. Тогда мнения агентов будут сходиться, и результирующее мнение будет единым для всех агентов. ¦
Иллюстрацией данного вывода служит эксперимент Шерифа. Приведем его описание согласно работе [4]. «Вы сидите в темной комнате, и в 4,5 метрах от вас появляется светящаяся точка. Затем она передвигается в течение нескольких секунд, после чего исчезает. А вам нужно ответить на вопрос, на какое расстояние она сместилась. И вы начинаете гадать: «Может быть, сантиметров на 15». Все ваши последующие ответы колеблются вокруг цифры «20». На следующий день, вернувшись в лабораторию, вы оказываетесь в обществе ещё двух испытуемых, которые накануне, как и вы, наблюдали за светящейся точкой поодиночке. Когда заканчивается первая процедура, ваши товарищи предлагают свои ответы, исходя из уже имеющегося у них опыта. «2,5 сантиметра», — говорит первый. «5 сантиметров», — говорит второй. Несколько растерявшись, вы, тем не менее, говорите: «15 сантиметров». Если процедура будет повторяться в том же составе и в течение этого дня, и в течение двух последующих дней, изменится ли ваш ответ? Ответы участников эксперимента Шерифа… изменились весьма существенно… оценки сближались … обычно складывалась некая групповая норма. Она не соответствовала действительности. Почему? Потому что световая точка вообще не двигалась».
Пример 8. Пусть имеются шесть агентов, пятеро из которых доверяют только себе, а шестой доверяет себе и в некоторой степени всем остальным. Начальные мнения пяти агентов — 0, шестого — 1. Тогда мнение шестого агента со временем будет стремиться к мнению других агентов — 0, которое меняться не будет. ¦
Иллюстрацией данного вывода служит эксперимент Аша. Приведем его описание [4]. «Вы сидите шестым в ряду, в котором всего семь человек. Сначала экспериментатор объясняет вам, что все вы принимаете участие в исследовании процесса восприятия и связанных с ним суждений, а затем просит ответить на вопрос: какой из трех отрезков прямой равен по длине стандартному отрезку? Вам с первого взгляда понятно, что стандартному отрезку равен отрезок № 2. Поэтому нет ничего удивительного в том, что все пять человек, которые ответили до вас, сказали: «Отрезок № 2». Следующее сравнение проходит столь же легко … Однако третий раунд очень удивляет вас. Хотя правильный ответ кажется таким же бесспорным, как и в первых двух случаях, первый отвечающий дает неверный ответ. А когда и второй говорит то же самое… Четвертый и пятый соглашаются с первыми тремя. И вот взгляд экспериментатора устремлен на вас. Вы испытываете то, что называется «эпистемологической дилеммой»: «Как мне узнать, кто прав? Мои товарищи или мои глаза?» В ходе экспериментов Аша в подобной ситуации оказывались десятки студентов. В целом 37% ответов оказались
«конформными» (или следует сказать, что в 37% случаев испытуемые «полагались на других»?).
Таким образом, выводы примеров 7 и 8 соответствуют практическому опыту и наблюдениям социальных психологов.
6. ЗАДАЧА ИНФОРМАЦИОННОГО УПРАВЛЕНИЯ
Имея «основное уравнение»
В = ТЬ, (1)
связывающее начальные и итоговые мнения агентов, можно ставить и решать задачу управления — воздействия на агентов социальной сети с целью формирования требуемых их мнений. Для сохранения аддитивности модели будем считать, что управляющему органу (центру) известна матрица влияния (доверия), а управляющее (информационное) воздействие заключается в изменении центром начальных мнений агентов путем «добавления» вектора управлений и е Шп. Содержательно, управление заключается в изменении мнения /-го агента с Ь} на Ь} + и., / е N.
Предположим, что и1 е и1, / е N (подобное ограничение имеет прозрачные содержательные интерпретации). Обозначим и = П и.
i е N
Тогда итоговые мнения будут определяться следующим уравнением:
Ви = Т (Ь + и) (2)
или в покоординатном виде: В. = V Т. (Ь. + и) =
и 4 3 }
3 е N
= V Т.Ь. + V Т. и, / е N т. е. результирующее
У 3 У 3
3 е N } е N
мнение агента, сложившееся в результате информационного управления, является суммой его «невозмущенного» результирующего мнения V ТцЬ}
} е N
и изменений V Т. и, вызванных управляющими
и 3
} е N
воздействиями.
Обратим внимание, что в силу уравнения (2) «стабильное» состояние социальной сети линейно по управлению! Отметим также, что в соответствии с уравнениями (1) и (2) «стабилизация» или «нестабилизация» мнений зависит только от матрицы доверия и не зависит от начальных мнений агентов (и, следовательно, от управлений).
Пусть целевая функция центра Ф (Ви, и) — критерий эффективности управления — зависит от итоговых мнений агентов и вектора управлений. Тогда задача управления будет заключаться в вы-
боре допустимого вектора управлений, максимизирующего критерий эффективности:
Ф (Т (Ь + u), u) ^ max.
и є U
(3)
В соответствии с утверждением 3 воздействовать на мнения спутников не имеет смысла, поэтому можно априори (имея только матрицу доверия) сказать, на каких агентов должно быть нацелено информационное воздействие.
В целевой функции центра можно, следуя традиции теории управления организационными системами [15], выделить две аддитивные компоненты: Ф (ВЦ, u) = H (Bu) — c (u), где #(•) — «доход»
центра, зависящий от итоговых мнений агентов1, c (^) — затраты на осуществление управляющих воздействий (может быть, целесообразно в некоторых моделях считать, что c = c (b, u)).
Пример 9. Если условно считать, что мнения агентов отражают степень их «убежденности» в том, в чем их хотел бы убедить центр (поддержать того или иного кандидата на выборах, приобрести определенный товар, принять определенное решение и т. д.), то примерами функции дохода центра H (•) могут служить:
— У B — «среднее мнение» коллектива агентов-
n i е N
У A,-Bui — «взвешенное» (X / 1 0, У X. = 1) мнение
i е N i е N
коллектива агентов-
na = {i е N: Bui 1 а}| - число агентов (в случае пороговых голосований может использоваться их доля), мнение которых превышает пороговое значение, а е [0- 1]- minB. — «наихудшее» из мнений агентов и т. д. -
i е N u i
в зависимости от содержательной постановки задачи. ¦
Пример 10. Пусть H (Bu) = - У Bui, а затраты цент-
u n i е n
ра однородны и линейны по управляющим воздействиям: c (u) =? У u. (содержательно,? — стоимость
i е N
единичного изменения мнения любого агента), причем ресурсы центра ограничены величиной R 1 0:
? У и. & lt- R.
i e N
(4)
Задача управления (3) примет вид следующей задачи линейного программирования:
1 ((У УТА + УУ тл) —? У Щ ^
n ^ i e N j e N i e N j e N
^ max. {Щ & gt- 0},(4)
i e N
(5)
1 В рамках теории рефлексивных игр [16] считается, что действия субъектов определяются их информированностью. Поэтому, считая эту зависимость известной, можно от предпочтений центра, зависящих от действий агентов (что представляется естественным), перейти к его предпочтениям, зависящим от информированности (т. е. мнений) агентов.
Обозначая F. = - У T., je N, запишем выраже-
1 n i е N 1
ние (5) в виде:
У (F — ?)u. ^ max.
j e N J J {Ui& gt- 0},(4)
(6)
Решение задачи (6) очевидно — следует весь ресурс вкладывать в изменение мнения агента, для которого величина Ж максимальна. Содержательно это решение интерпретируется следующим образом. Величина Ж. отражает среднюю степень доверия всех агентов /-му агенту. Назовем эту характеристику влиятельностью агента. Весь ресурс следует расходовать на воздействие на того агента, которому больше всего доверяют другие агенты.
Полученное свойство решения задачи (5) обусловлено тем, что в ней, как в задаче линейного программирования, всего одно ограничение (4). Можно усложнить ситуацию, предположив, что и (= [0- Л-]. При достаточно малых величинах {Л-} (например, не превышающих пороги обнаружения внешних воздействий агентами или некоторой системой защиты) данную модель можно интерпретировать как отражающую так называемое скрытое управление (см. его содержательные примеры в работах [17, 18]). Тогда решение соответствующего аналога задачи (6) будет следующим — выделять агентам, упорядоченным по убыванию величин Ж, «ресурс» в максимальном количестве до тех пор, пока не станет существенным ограничение (4). При этом последний из агентов, среди получивших ресурс, может получить его в объеме, меньшем максимально для него возможного. ¦
В заключение настоящего параграфа перечислим ряд перспективных направлений дальнейших исследований задачи управления мнениями агентов, входящих в социальную сеть.
• Задачу, рассмотренную в примере 11, можно обобщать в различных направлениях, содержательно соответствующих тем или иным постановкам задач медиапланирования (в том числе — выбора оптимального набора информационных мероприятий) и распределения информационных ресурсов в рекламе, маркетинге, информационных войнах, обеспечении информационной безопасности и т. д. [16, 19, 20].
• Целесообразно рассмотрение более сложных, нежели (1) и (2), в том числе — нелинейных, зависимостей, отражающих изменение мнений агентов под влиянием других агентов и центра (см. классификацию «сетей» в статье [21]).
• Для агентов по матрице Т можно вычислять их «индексы влияния» и другими способами, отличными от определенной выше «влиятельности» [22−24], и по этим индексам в рамках тех или иных эвристик или точных решений судить, на кого из агентов надо, в первую очередь, воздействовать.
• Представляет интерес решение задачи управляемости — определения множества состояний
и Ви, в которое может быть переведена система
и е и и
при заданных ограничениях на управление.
• В силу «аддитивности» (2) по управлению, можно ставить и решать динамические задачи выработки оптимальной последовательности информационных воздействий.
• Прозрачные содержательные интерпретации имеет обратная задача — определения множества управляющих воздействий (или «минимальных» ограничений на них), обеспечивающих достижение системой заданного состояния (или их множества), т. е. формирование требуемых мнений агентов. Если цель состоит в формировании вектора В * результирующих мнений, то из уравнения (2) следует, что соответствующее управление должно удовлетворять соотношению
u (B*) = T-lBn, — b.
(7)
При решении задачи (7) могут возникнуть трудности, вызванные вырожденностью матрицы Т [11], для преодоления которых возможно применять методы регуляризации [25].
И, наконец, в рамках предложенной модели можно ставить и решать задачи определения оптимальных вариантов защиты от информационных воздействий на агентов, образующих социальную сеть.
7. ТЕОРЕТИКО-ИГРОВАЯ МОДЕЛЬ ИНФОРМАЦИОННОГО ПРОТИВОБОРСТВА
Пусть существует множество игроков, имеющих возможность влиять на начальные мнения агентов и заинтересованных в формировании определенных их итоговых мнений. Опишем возникающую между ними игру.
Обозначим: М = {1, 2, …, т} - множество игроков, и. е и3 = [-г,.,.- Л,-] - действие у-го игрока по и у и и
изменению мнения /-го агента, г., Я--1 0, и = ||и. ||,
I] I] II
и, = (Ui
if i ?-i if
i e N j e M
u.» u =
= (u, u2, …, un) — вектор «воздействий», g (B):
12 п J
Жп ^ - целевая функция j-го игрока, i е N, j e M.
Будем считать, что воздействия игроков на мнение каждого из агентов аддитивны. Тогда из уравнения (2) следует, что итоговое мнение
в,(и) = 2 т, ь, + 2 и,
i, ,
j e N L 7 k e M
= 2 Ti, b, + 2 Ti, 2 u,
j e N j e N k e M
j
i e N.
Отметим, что каждый из игроков в общем случае имеет возможность влиять на начальные мнения всех агентов (в случае отсутствия такой воз-
можности следует положить нижнюю и верхнюю границы соответствующего множества и., допустимых действий равными нулю).
Обозначая в (и) = ^(В^и), В2(и), …, Вп (и)), у е М, и считая, что игроки выбирают свои действия однократно, одновременно и независимо, получим игру Г = (М, {Ц^-еМ, {^(О^м) в нормальной форме, определяемую заданием соответственно множества игроков, их множеств допустимых действий и целевых функций [13]. Имея игру в нормальной форме, можно исследовать ее равновесия, определять «на ней» кооперативные, повторяющиеся и другие виды игр [13] (см. классификацию в статье [21]).
Пример 11. Пусть целевые функции игроков линейны: Е. (В) = I «А /• е М. Подставляя в целевые функ-
7 г е N
ции выражение (2), получим:
Щи) = I I 7 + I ай I Т. I и I е М.
г е N ] е М 11 г е N ] е N к е М 7
От выбранных игроками действий зависит только второе слагаемое. Обозначим у. = I ай77, I е М. В си-
7 г е N 7
лу линейности целевых функций игроков по их действиям, в рассматриваемой игре существует равновесие в доминантных стратегиях ий [13], когда 1-й игрок будет выбирать независимо от других игроков действие,
максимизирующее величину I у. и-7, т. е. :
] Е М 11
d Г-rjb если у,. -<- 0
U? = Г / j. j е N, l е M. (8)
1 R., если yij & gt- 0
Содержательно выражение (8) означает, что каждый игрок осуществляет на каждого агента максимально возможное воздействие, знак которого зависит от того, к каким итоговым изменениям мнения этого агента приведет данное воздействие («ценности» этих изменений для игроков определяются величинами {у. }). ¦
Пример 12. Пусть имеются два игрока, преследующих несовпадающие цели. Перенумеруем агентов таким образом, что первый игрок имеет возможность влиять на начальное мнение первого агента, а второй игрок — второго агента. Обозначим эти аддитивные воздействия и1 е и1 и и2 е и2 соответственно.
Тогда, в соответствии с уравнением (2), результирующие мнения агентов имеют следующий вид:
В-Ц, и2) = I Т.Ъ. + ГцЩ + Гаи2, I е N. (9)
] Е N
Обозначим В (и1, и2) — вектор мнений агентов с
компонентами (9). Равновесие Нэша (и, и) имеет вид:
Уи1 е и^(В (и, и*2)) & gt- Е1(В (и1, и*2)),
Уи2 е и2(В (и, и2)) & gt- g2(B (и, и2)).
В силу достаточно простой аддитивной зависимости (9) результирующих мнений агентов от управлений
u
(действий игроков), можно рассматривать на базе данной модели игры с фиксированной последовательностью ходов (иерархические игры) [13], содержательно интерпретируемые как игры «нападение-защита».
Рассмотренная в настоящем примере модель легко обобщается на случай, когда каждый из игроков может воздействовать на начальные мнения любого множества агентов. ¦
Пример 13. Пусть имеются два игрока, каждый из которых имеет возможность влиять на начальное мнение одного из агентов из множеств N с N и И2 с N соответственно, причем N1 п N2 = 0. Тогда действия игроков будут заключаться в выборе, на кого из «управляемых» ими агентов воздействовать. Так как множества возможных действий в этом случае конечны, то, рассчитав соответствующие выигрыши, получим стандартную биматричную игру [13], в которой можно аналитически искать равновесие в чистых и (или) смешанных стратегиях. ¦
ЗАКЛЮЧЕНИЕ
В настоящей работе, носящей во многом постановочный характер, рассмотрено информационное влияние агентов на формирование мнений друг друга в социальных сетях. Введены понятия сообществ, групп и спутников. С помощью результирующей структуры влияний (в которой спутники испытывают влияние только со стороны групп и в любой группе которой агенты сходятся в оценке степени авторитетности любого из агентов группы) доказано, что мнения спутников определяются мнением групп, а в группах мнения стабилизируются и равны. Приведены постановки задач информационного управления в социальных сетях и задач теоретико-игрового описания информационного противоборства.
Перспективным представляется исследование вопроса, как распространение информации сказывается на структуре влияний и мнений, а также дальнейшее развитие моделей информационного управления и противоборства.
ЛИТЕРАТУРА
1. O’Reilly, T. What Is Web 2.0. — URL: http: //www. oreillynet. com/pub/a/oreilly/ tim/news/2005/09/30/what-is-web-20. html (дата обращения 30. 09. 2005).
2. The Internet and the 2008 Election. — URL: http: // pewinternet. org/pdfs/ PIP_2008_election. pdf (дата обращения декабрь 2008).
3. Кричевский Р., Дубовская Е. Психология малой группы: теоретический и прикладной аспекты. — М.: Изд-во МГУ, 1991.
4. Майерс Д. Социальная психология. — СПб.: Питер, 2002.
5. Watts D., Dodds P. Influentials, Networks, and Public Opinion Formation // Journal of Consumer Research. — December, 2007. — P. 123−134.
6. Granovetter M. Threshold Models of Collective Behavior // The American Journal of Sociology. — 1978. — Vol. 83, N 6. — P. 1420−1443.
7. Kempe D., Kleinberg J., Tardos E. Maximizing the Spread of Influence through a Social Network / Proc. of the 9-th ACM SIGKDD Intern. Conf. on Knowledge Discovery and Data Mining, Washington, DC, 2003. — P. 137−146.
8. Morris S. Contagion // The Review of Economic Studies. — 2000. — Vol. 67, N 1. — P. 57−78.
9. Goldenberg J., Libai B., Muller E. Talk of the network: A complex systems look at the underlying process of word-of-mouth // Marketing Letters. — 2001. — N 2. — P. 11−34.
10. Rolfe M. Social networks and threshold models of collective behavior / Preprint. — Chicago: University of Chicago, 2004.
11. Гантмахер Ф. Р. Теория матриц. — М.: Наука, 1966.
12. Кемени Дж., Снелл Дж. Конечные цепи Маркова. — М.: Наука, 1970.
13. Губко М. В., Новиков Д. А. Теория игр в управлении организационными системами. — М.: СИНТЕГ, 2003.
14. Ширяев А. Н. Вероятность / В 2-х кн. — М.: МЦНМО, 2004.
15. Новиков Д. А. Теория управления организационными системами. — М.: Физматлит, 2007.
16. Новиков Д. А., Чхартишвили А. Г. Прикладные модели информационного управления. — М.: ИПУ РАН, 2004.
17. Доценко Е. Л. Психология манипуляции: феномены, механизмы и защита. — М.: ЧеРо, 2000.
18. Почепцов Г. Г. Информационно-психологическая война. — М.: СИНТЕГ, 2000.
19. Информационная безопасность систем организационного управления / Н. А. Кузнецов, В. В. Кульба, Е. А. Микрин и др. — М.: Наука, 2006.
20. Новиков Д. А., Чхартишвили А. Г. Рефлексивные игры. — М.: СИНТЕГ, 2003.
21. Новиков Д. А. «Когнитивные игры»: линейная импульсная модель // Проблемы управления. — 2008. — № 3. — С. 14−22.
22. Влияние и структурная устойчивость в Российском парламенте (1905 — 1917 и 1993 — 2005 гг.) / Ф. Т. Алескеров, Н. Ю. Благовещенский, Г. А. Сатаров и др. — М.: Физмат-лит, 2007.
23. Felsenthal D., Machover M. The measurement of voting power: Theory and practice, problems and paradoxes. — London: Edward Elgar, 1998.
24. Shapley L.S., Shubik M. A method for Evaluating the Distribution of Power in a Committee System // American Political Science Review. — 1954. — Vol. 48(3). — P. 787−792.
25. Тихонов А. Н., Арсенин В. Я. Методы решения некорректных задач. — М.: Наука, 1986.
Статья представлена к публикации членом редколлегии В. В. Кульбой.
Губанов Дмитрий Алексеевич — аспирант, ®(495) 334−90−51,
И DimaGubanov@mail. ru,
Новиков Дмитрий Александрович — чл. -корр. РАН, д-р техн. наук, зам. директора, ®(495) 334−75−69,
И novikov@ipu. ru,
Чхартишвили Александр Гедеванович — д-р физ. -мат. наук, вед. науч. сотрудник ®(495) 334−90−51, И sandro_ch@mail. ru,
Институт проблем управления им. В. А. Трапезникова РАН, г. Москва.

ПоказатьСвернуть
Заполнить форму текущей работой