Модели репутации и информационного управления в социальных сетях

Тип работы:
Реферат
Предмет:
Кибернетика


Узнать стоимость

Детальная информация о работе

Выдержка из работы

УДК 519 ББК 32. 81
МОДЕЛИ РЕПУТАЦИИ И ИНФОРМАЦИОННОГО УПРАВЛЕНИЯ В СОЦИАЛЬНЫХ СЕТЯХ 1
Губанов Д. А. 2, Новиков Д. А. 3, Чхартишвили А. Г. 4
(Учреждение Российской академии наук Институт проблем управления РАН, Москва)
Рассмотрен ряд моделей социальных сетей, позволяющих ставить и решать задачи формирования репутации с целью последующего ее использования при осуществлении информационного управления.
Ключевые слова: социальная сеть, репутация, теория игр, манипулирование информацией, информационное управление.
Введение
Настоящая работа посвящена теоретико-игровым и оптимизационным моделям репутации и информационного управления в социальных сетях. Приведем определения основных понятий.
Под социальной сетью понимается социальная структура, состоящая из множества агентов (субъектов — индивидуальных или коллективных, например: индивидов, семей, групп, организаций) и определенного на нем множества отношений (совокупности
1 Текст приводится в соответствии с изданием «Математическая теория игр и ее приложения. — 2009. — Т. 1. № 2″.
2 Дмитрий Александрович Губанов, аспирант
(DimaGubanov@mail. ru).
3 Дмитрий Александрович Новиков, доктор физико-математических наук, профессор (novikov@ipu. ru).
4 Александр Гедеванович Чхартишвили, доктор физикоматематических наук, профессор (sandro_ch@mail. ru).
связей между агентами, например: знакомства, дружбы, сотрудничества, коммуникации). Формально социальная сеть представляет собой граф С (У, Е), в котором V — множество вершин (агентов) и Е — множество ребер (отношений).
При моделировании социальных сетей возникает необходимость учета взаимного влияния их членов, динамики их мнений. Влияние — процесс и результат изменения индивидом (субъектом влияния) поведения другого субъекта (индивидуального или коллективного объекта влияния), его установок, намерений, представлений и оценок (а также основывающихся на них действий) в ходе взаимодействия с ним [1]. Влияние — способность воздействовать на чьи-либо представления или действия [15]. Различают направленное и ненаправленное влияние [1]. Направленное (целенаправленное) влияние использует в качестве механизмов воздействия на другого человека убеждение и внушение. При этом индивид — субъект влияния — ставит перед собой задачу добиться определенных результатов от объекта влияния. Ненаправленное (нецеленаправленное, „косвенное“) влияние — это влияние, при котором индивид не ставит перед собой задачу добиться определенных результатов от объекта влияния. Обзор моделей влияния в социальных сетях можно найти в [4].
Целенаправленное влияние членов социальной сети (или субъектов, не входящих в сеть, но использующих ее в качестве инструмента информационного воздействия) является частным случаем информационного управления, заключающегося в формировании (как правило, путем сообщения соответствующей информации) у управляемых субъектов такой информированности [12], чтобы принимаемые ими на основании этой информированности решения были наиболее выгодны для управляющего субъекта [11].
Возможности влияния одних членов социальной сети на других ее членов существенно зависят от репутации первых. Репутация — „создавшееся общее мнение о достоинствах или недостатках кого-либо, чего-либо, общественная оценка“ [13, с. 431]. Репутацию можно рассматривать, во-первых, как ожидаемую (дру-
210
гими агентами) норму деятельности агента — какого поведения от него ожидают остальные [7]. Во-вторых, как „весомость“ мнения агента, определяемую предшествуемой оправдываемостью его суждений и/или эффективностью его деятельности. Репутация оправдывается и, как правило, возрастает, если выбор агента (его суждения, действия и т. п.) совпадает с тем, чего от него ожидают остальные и/или с тем, что остальные впоследствии считают нормой (например, эффективной деятельностью). Репутация может и снижаться, например, при нарушении субъектом принятых в сообществе норм поведения, при принятии неэффективных решений и т. д. Отметим, что репутация может быть как индивидуальной, так и коллективной. Обзор моделей индивидуальной и коллективной репутации приведен в [7], см. также обзор онлайновых систем репутации/доверия [2].
Настоящая работа посвящена моделированию динамики репутации членов социальной сети и исследованию роли репутации в осуществлении информационных воздействий. Изложение имеет следующую структуру. Во втором разделе рассматривается модель социальной сети. В третьем — динамика репутации ее членов. В четвертом формулируется и решается (для ряда частных случаев) задача информационного управления. В пятом разделе обсуждаются теоретико-игровые модели информационного противоборства- в шестом разделе содержится иллюстративный пример информационного управления- в седьмом разделе анализируются подходы к построению моделей стратегической и информационной рефлексии агентов- в восьмом разделе приводятся примеры рефлексии.
1. Модель социальной сети
В качестве основы для построения модели социальной сети примем подход, предложенный в работе [3], в которой рассматривается информационное влияние агентов в социальных сетях на формирование мнений друг друга. Структура сети описывается с помощью понятий: сообщество (множество агентов, которые не подвергаются влиянию агентов вне него), группа (сообщество
211
агентов, в котором каждый агент влияет или подвергается влиянию каждого другого агента группы прямо или косвенно) и спутник (агент, не оказывающий влияния ни на одну из групп). Как оказывается, в конечном итоге мнения спутников определяются мнением групп, а в группах мнения одинаковы.
Пусть N = {1, 2,…, п} - множество агентов, входящих в социальную сеть. Агенты в сети влияют друг на друга, и степень влияния задается матрицей прямого влияния, а размерности п х п, где а^ ^ 0 обозначает степень доверия г-го агента-му агенту (или, что будем считать эквивалентным, степень влияния ]-го агента на г-го агента). Считается, что выполняется условие нормировки:
(1)
— 1
Если г-й агент доверяет ]-му, а доверяет к-му, то это означает следующее: к-й агент косвенно влияет на г-го и т. д., т. е. возможны „цепочки“ косвенных (опосредованных) влияний.
У каждого агента в начальный момент времени имеется мнение по некоторому вопросу. Мнение всех агентов сети отражает вектор-столбец неотрицательных начальных мнений Ь размерности п. Агенты в социальной сети взаимодействуют, обмениваясь мнениями (проблемы манипулирования информацией и построения неманипулируемых процедур принятия решений [11] в явном виде в настоящей работе практически не рассматриваются (мы ограничиваемся сведением ряда задач к известным в теории коллективного выбора), хотя необходимо признать, что их изучение представляется чрезвычайно перспективным направлением исследований). Этот обмен приводит к тому, что мнение каждого агента меняется под влиянием мнений агентов, которым данный агент доверяет.
Будем считать, что мнение г-го агента в момент времени т
равно
(2)
jeN
Предположим, что в каждой группе существует как минимум один агент, который хоть сколько-нибудь доверяет сам себе (т. е.? i: aii & gt- 0). Тогда, как показано в [3], в конечном итоге (при многократном обмене мнениями) мнения агентов сходятся к результирующему (итоговому) вектору мнений B = lim bT. Тогда
Т
можно записать соотношение
где A = lim (а)Т. При этом, во-первых, в каждой из групп ито-
Т
говые мнения агентов совпадают- во-вторых, итоговые мнения спутников полностью определяются мнением одной или нескольких групп. Все эти результаты следуют из известных фактов теории конечных цепей Маркова [8].
Пусть ri ^ 0 — параметр, описывающий репутацию i-го агента. Вектор репутаций r = (ri, r2,…, rn), если не говорено особо, будем считать общим знанием среди агентов. Потребуем, чтобы в сети всегда существовал агент с ненулевой репутацией. Также будем считать, что сеть представляет собой полный граф, следовательно, в силу приведенных выше результатов работы [3], результирующее мнение будет единым для всех агентов, входящих в рассматриваемую социальную сеть.
Определим степень доверия i-го агента j-му агенту как
то есть будем считать, что степень влияния каждого агента не зависит явным образом от объектов влияния и пропорциональна его относительной репутации. В соответствии с выражением (4) агент г тем более подвержен влиянию со стороны агента ], чем
(3)
B = ЛЬ,
(4)
keN
ниже репутация первого, чем выше репутация второго и чем ниже репутация других членов социальной сети 5.
Отметим, что при определении степени доверия в виде (4), условие нормировки (1) всегда выполнено. Обозначим через К =
Е гк суммарную („коллективную“) репутацию членов сети.
кем
Тогда выражение (2) примет вид
(5) Ь! = К Е гзЬ3-^ г е N,
зем
а выражение (3), соответственно, вид
(6) В = ±(т ¦ Ь),
то есть скалярное (одинаковое для всех агентов) итоговое мнение агентов В (которое сформируется за один шаг!), так как правая часть выражения (5) не зависит от г, будет определяться скалярным произведением вектора репутаций г и вектора начальных мнений агентов Ь и нормироваться на суммарную репутацию.
Следует признать, что (4)-(6) представляет собой, наверное, простейшую модель влияния в социальной сети с учетом репутации агентов. Возможные обобщения этой модели очевидны -можно отказываться от предположений о полноте графа, определять доверие/влияние в зависимости от репутации более сложным образом, учитывать мнения агентов с весами, зависящими от отклонения от некоторого „среднего“ мнения, принимать во внимание взаимные оценки агентами друг друга и т. д. (см. в [2] обзор моделей взаимосвязи доверия, влияния и репутации в социальных сетях). Тем не менее, ниже мы будем пользоваться приведенной
5 Естественно, можно определять зависимость степени влияния от репутации и другим образом, удовлетворяющим перечисленным свойствам частичной монотонности, имеющим прозрачную содержательную интерпретацию (см. обсуждение ниже).
214
моделью, так как она позволяет получить ряд аналитических решений для задач информационного управления.
Простейшей моделью информационного управления (манипулирования мнениями членов социальной сети 6) является следующая. Пусть некоторый агент (без потери общности здесь и далее будем считать, что это агент с номером один, имеющий Т & gt- 0) заинтересован в том, чтобы итоговое мнение агентов было равно В*. При заданном векторе репутаций и фиксированных мнениях остальных агентов для этого, в силу (6), ему достаточно сообщить
(7) = - [КВ* - V ТкЬк].
Т1 ^
1 к& gt-1
Из условия неотрицательности начальных мнений (в том числе, и Ь1 ^ 0) можно найти нижнюю границу „диапазона манипулирования“ первого агента (любого большего значения при неограниченных сверху своих сообщениях и ненулевой репутации он всегда может добиться):
(8) В* ^ -1 V Тк Ьк.
к& gt-1
Из выражения (8) следует, что, чем выше репутация агента, осуществляющего манипулирование, тем больше его возможности по влиянию на итоговое мнение агентов в социальной сети.
6 Под манипулированием мы будем понимать целенаправленное формирование мнений участников социальной сети, т. е. информационное управление. При этом не предполагается негативная окраска этого термина, т. е. будем считать манипулирование этически нейтральным. Вопрос об этико-психологических аспектах манипулирования подробно рассмотрен в [6]. Второе (близкое) значение термина „манипулирование“ — искажение агентом сообщаемой кому-либо информации (см. также ниже).
В общем случае манипулировать итоговым мнением могут все агенты (если предположить, что любой из агентов может сообщать другим мнение, отличное от его истинного мнения). В результате получим модель линейной (см. выражение (6)) активной экспертизы 7, хорошо известную в литературе (см., например, [11]).
Исследуем теперь возможности манипулирования со стороны первого агента в зависимости от его репутации. Предположим, что значение начального мнения, которое может сообщать первый агент, ограничено снизу величиной Ь™& quot- & gt- 0. Тогда из (6) получаем оценку репутации первого агента, минимально необходимой для обеспечения равновесия В* при ограничении Ь™п на свои сообщения:
Е Тз (Ьз- В*)
(9) Т1 = ----------: ---.
1 В* - Ь^
Из выражения (9) следует, что чем выше репутации других агентов, тем жестче требования к репутации манипулирующего агента.
В реальных социальных сетях агенты зачастую могут сообщать свои мнения в достаточно широком диапазоне. Однако самостоятельно выбирать непосредственно свою репутацию они, как правило, не могут, так как последняя в существенной степени зависит от предыстории взаимодействия агентов.
На качественном уровне идея дальнейших рассмотрений заключается в следующем. Если некоторый агент хочет осуществлять манипулирование мнениями членов социальной сети, то для этого он должен иметь достаточную репутацию. Поэтому необходимо рассмотрение сценария, при котором этот агент сначала предпринимает действия по увеличению своей репутации, а затем использует ее для достижения своих целей — эффективно-
7 Обмен мнениями между членами социальной сети с формированием некоторого итогового „коллективного“ мнения можно интерпретировать как экспертизу.
го манипулирования. Следовательно, возникает задача описания, во-первых, динамики репутации и, во-вторых — процессов целенаправленного ее формирования.
2. Динамика репутации
Для моделирования динамики репутации агентов предположим, что описанное в предыдущем разделе их взаимодействие повторяется последовательно (при различных „начальных условиях“) конечное число раз. Содержательно — агенты могут последовательно обсуждать ряд интересующих их вопросов, причем репутация каждого агента в общем случае зависит от всей предшествующей „истории“ обсуждений.
Предположим, что члены социальной сети последовательно рассматривают Т вопросов (имеются Т последовательных периодов времени — в каждый период времени „обсуждается“ соответствующий вопрос), по каждому из которых у каждого из агентов имеется свое начальное мнение Ь*, г € N? = 1, Т. Начальные репутации агентов обозначим т1, г € N. Будем считать, что общим знанием среди агентов являются репутации (начальные и текущие — для соответствующего момента времени, а также история изменения репутаций), начальные и результирующие мнения всех агентов для текущего и всех прошлых периодов.
Обозначим К* - суммарную репутацию агентов в начале периода ?, В * - результирующее мнение агентов к концу периода? (из (6) следует, что это мнение будет одинаковым для всех агентов).
Итак, вопросы, рассматриваемые агентами, независимы, и результирующие мнения будут определяться
(10) В* = -1 (т* ¦ Ь*),
где т* = (т* ,…, т2), Ь* = (Ь1,…, ЬП) — соответственно, вектора репутаций и начальных мнений агентов в начале периода времени
?,? = 1ТТ.
Для описания всей траектории изменения мнений и репутаций агентов необходимо доопределить, как изменяется репутация каждого из агентов в каждом периоде времени. Будем считать, что репутация является „кумулятивной“ характеристикой (забывание отсутствует) и репутация любого агента в начале любого периода равна репутации данного агента в конце предыдущего периода времени.
Содержательно обсуждаемые агентами вопросы принадлежат примерно одной тематике, так что агент, имеющий высокую репутацию по одному вопросу (по результатам обсуждения этого вопроса), будет иметь эту же репутацию при начале обсуждения следующего вопроса.
В общем случае можно предположить, что репутация г-го агента в момент времени? определяется начальными и результирующими мнениями всех агентов (пока считаем, что каждый из них ведет себя честно и сообщает достоверную информацию) и их репутациями во всех предшествующих периодах:
(11) т* = ^(Т1 ,…, т*-1,Ь1,…, Ь*-1,В 1,…, В*-1), г € Ж,? = 2, Т, причем, наверное, логично предположить, как минимум, что функция ^*() монотонно убывает по разности |Ь*-1 — В*-1| и возрастает по предыдущим значениям репутации данного агента. В качестве частного можно использовать, например, следующий закон изменения репутации:
Т
(12) т* =-?-^-----, г € Ж,? = 2, Т ,
'- '- * а + в |Ь*-1 — В*-1|' ' ' '
где, а € (0- 1], в & gt- 0 — заданные константы. В соответствии с выражением (12) репутация агента в начале некоторого периода времени зависит только от его репутации в предыдущем периоде, а также того, насколько его начальное мнение в предыдущем периоде оказалось отличным от результирующего мнения всех агентов к концу этого периода. Другими словами, репутация агента возрастает (уменьшается), причем скорость изменения определяется константами, а и в, если итоговое мнение всех агентов оказывается близким к (сильно отличается от) его мнению (я).
218
. І-1
Закон (12) изменения репутации является одним из множества возможных. Нередко используют логистический закон изменения репутации (см. [2, 7, 9]) и др. — в каждом конкретном случае необходимо решать задачу идентификации — поиска тех зависимостей, которые наилучшим образом приближают или объясняют наблюдаемые или прогнозируемые эффекты.
Можно надеяться, что сложные динамические модели репутации позволят имитировать такие распространенные на практике эффекты, как создание ложной репутации, использование инерционности репутации (прекратив „инвестиции“ в свою репутацию, агент может пользоваться тем, что ее снижение происходит не сразу) и др. (см. примеры в [7]). Разработка подобных теоретикоигровых моделей представляется перспективной задачей будущих исследований и выходит за рамки настоящей работы.
Описав информационное влияние и динамику репутации, перейдем к постановке и решению для рассматриваемой модели задачи управления.
3. Задача информационного управления
Имея уравнения (10) и (11), описывающих соответственно динамику мнений агентов в зависимости от репутации и динамику репутации в зависимости от динамики мнений, можно ставить и решать задачу управления — воздействия на агентов социальной сети с целью формирования требуемых их мнений.
Ограничимся случаем манипулирования со стороны одного (первого) агента, целью которого является такое манипулирование своими начальными мнениями по каждому из вопросов, чтобы (с учетом соответствующей динамики его репутации) добиться определенного результирующего мнения всех членов социальной сети по последнему вопросу.
Итак, имеем динамическую систему (10)-(11). Требуется найти последовательность сообщаемых другим агентам начальных мнений первого агента 82,…, (манипулирование как раз и заключается в возможности сообщения им = Ь*), удовлетворяющую ограничениям ^ Ь1_™1п,? = 1, Т, и минимизирующую
1 1 219
заданную монотонную целевую функцию ^(|ВТ — В^|), где формирование итогового мнения вТ по последнему вопросу может интерпретироваться как цель управления (манипулирования).
В общем случае сформулированная задача является задачей динамического программирования (при наложении соответствующих ограничений на свойства функций и допустимых множеств) и в каждом конкретном случае может быть решена численно.
Рассмотрим следующую эвристику поведения первого агента. Напомним, что выше было показано, что чем выше репутация агента, осуществляющего манипулирование, тем при фиксированных репутациях остальных агентов больше его возможности по влиянию на итоговое мнение агентов в социальной сети. Значит, можно предполагать, что к началу последнего периода первому агенту желательно иметь максимально возможную репутацию. Если функция ^() удовлетворяет введенному выше условию монотонности и такова, что репутация первого агента на текущем шаге зависит только от его репутации на предыдущем шаге, его начального мнения на предыдущем шаге и от результирующего мнения на предыдущем шаге (обозначим это предположение (*)), то рассмотрим следующее решение задачи информационного управления: первому агенту следует на каждом шаге (независимо от других шагов), кроме последнего шага, выбирать такое значение своего начального мнения на этом шаге, чтобы к его завершению максимизировать свою репутацию. На последнем шаге (при сложившейся и фиксированной в рамках этого шага его репутации) первому агенту следует выбирать свое начальное мнение с целью минимизации ^(|ВТ — В^|), причем значение Вт будет зависеть только от его начального мнения на шаге Т.
Формально первый агент должен решить задачу, состоящую из Т — 1 независимой задачи максимизации репутации и одной задачи выбора своего начального мнения на последнем шаге:
(13) |"1 — 4 Из! + г*Ь*]| ^ тіп, і = 1, Т — 1
К* '- ^ * * Л --& gt-ьЬ тіп
^ *& gt-1
о4) I ^ И'»! + Е 33 — вТ|, Т «Тр-п.
*& gt-1 «1 ^°1
При отсутствии ограничений на сообщаемые первым агентом начальные мнения решение задачи (13) имеет вид:
Е т* ь*
3 3
(15), ? = 1, Т — 1,
Е т*
3& gt-1 3
то есть для максимизации своей репутации ему всегда следует высказывать «средневзвешенное» (с учетом репутаций) мнение остального коллектива. Образно говоря, выражение (15) иллюстрирует принцип «всегда говори то же, что и большинство -сойдешь за умного» 8.
Итак, на первых Т — 1 шагах манипулирующий агент максимизирует свою репутацию, а на последнем шаге использует ее для достижения целей информационного управления. Подчеркнем, что такое поведение хотя и выглядит рациональным с точки зрения здравого смысла, является только эвристикой, т. е. не дает точного решения задачи информационного управления. Причина заключается в том, что в суммарной репутации агентов в периоде Т (см. выражение (14)) фигурирует сумма репутаций всех агентов, а выбирая в каждом периоде свои действия в соответствии с принципом (13), в рамках предположения (*) первый агент, не учитывая этого, влияет на репутацию других агентов (см. также пример в шестом разделе). Избежать этого, превратив эвристическое решение в точное, можно определив, вместо (4), влияние и репутацию таким образом, чтобы суммарная репутация была постоянна 9 или обосновав тем или иным образом
8 Точнее говоря, выражение (13) все-таки подразумевает прогнозирование результатов обмена мнениями.
9 Произведя нормировку индивидуальной репутации на суммарную, получим Марковскую модель, в которой вероятности стационарных состояний (принятия коллективом агентов решения, совпадающего с мнением одного из агентов) будут определяться относительными ре-
гипотезу слабого влияния [9, 11].
4. Информационное противоборство
При рассмотрении моделей, учитывающих информированность агентов, традиционно выделяют три вложенных класса задач: моделирование информационного влияния, информационного управления и информационного противоборства (см. рис. 1).
Рис. 1. Информационное влияние, управление и противоборство
Модель информационного влияния дает возможность исследовать зависимость поведения субъекта от его информированности и, следовательно, от информационных воздействий. Имея модель информационного влияния, можно ставить и решать задачу информационного управления: какими должны быть информационные воздействия (с точки зрения управляющего субъекта), чтобы добиться требуемого поведения от управляемого субъекта. И, наконец, умея решать задачу информационного управления, можно моделировать информационное противоборство — взаимодействие нескольких субъектов, обладающих несовпадающими интересами и осуществляющих информационные воздействия на один и тот же управляемый субъект. Условно говоря, при рассмотрении информационного влияния анализируется один субъект- при
путациями соответствующих агентов.
222
рассмотрении информационного управления — как минимум два субъекта — управляющий и управляемый (-ые) — при рассмотрении информационного противоборства — как минимум три субъекта
— два (или более) управляющих и один или более управляемых (см. рис. 2).
Рис. 2. Информационное противоборство
Наличие приведенных выше решений задач информационного влияния и информационного управления дает возможность перейти к постановке задач информационного противоборства в рамках описываемой модели социальной сети.
Предположим, что часть агентов — назовем их активными (их множество является для элементов этого множества общим знанием) — имеет возможность осуществлять манипулирование, выбирая из заданного множества на каждом (или в более общем случае — заранее оговоренном) шаге значения сообщаемых другим агентам своих мнений, естественно, учитывая не только влияния этих сообщений на итоговые мнения, но и принимая во внимание влияние этих сообщений на репутацию. Предпочтения активных агентов определены на множестве последовательностей итоговых мнений социальной сети по рассматриваемым вопросам. Требуется найти решение игры активных агентов -множества их равновесных (в том или ином смысле) действий. Используемая концепция равновесия определяется как содержа-
223
тельными соображениями, так и последовательностью и объемом получаемой агентами информации — можно рассматривать повторяющиеся, в развернутой форме, кооперативные и другие игры на социальных сетях.
Завершая качественное обсуждение постановочных задач информационного влияния, управления и противоборства, сделаем два методологических замечания.
Во-первых, при рассмотрении теоретико-игровых моделей информационного противоборства неизбежно возникнет каноническая для теории игр проблема того, как соотносится индивидуальная рациональность поведения агентов с оптимумом для их сообщества в целом (например, будет ли совершенное по подыг-рам равновесие [5] эффективным по Парето и т. д.). Ответ на этот вопрос следует, наверное, искать опять же традиционными для теории игр методами (см. обзор теории повторяющихся игр в
[10]).
Во-вторых, как отмечалось выше, в рамках предложенной модели социальной сети задача информационного противоборства, фактически, сводится к задаче динамической активной экспертизы с репутацией, что представляется перспективным обобщением классической задачи теории коллективного выбора. В рамках динамической активной экспертизы с репутацией возникает ключевой для теории коллективного выбора вопрос о мани-пулируемости (8йа^у-ргооЁпе88) результатов экспертизы — в каких случаях (при каких процедурах принятия решений, т. е. при каких процессах информационного влияния агентов друг на друга) агентам невыгодно манипулирование информацией, а выгодно сообщение достоверной информации о своих мнениях? Этот вопрос ждет своего ответа.
5. Пример манипулирования информацией и информационного управления
Рассмотрим пример взаимодействия трех агентов (п = 3) в течение двух периодов (Т = 2). Начальные мнения агентов:
Ь1 = 1, Ь1 = 2, Ь1 = 3, Ь1 = 4, Ь2 = 5, Ь2 = 6, Ь*= 0,5,
224
г = 1, 2, 3,? = 1, 2, начальные репутации агентов одинаковы и равны единице (г| = 1, = 1, = 1), репутация меняется в
соответствии с законом (12), в котором, а = ½, в = 1.
Сначала найдем результирующие мнения и репутации при отсутствии манипулирования (когда все агенты сообщают достоверную информацию). Суммарная репутация в первом периоде Л1 = 3. В соответствии с выражением (6) вычисляем В1 = 2. В соответствии с выражением (12) находим репутации агентов во втором периоде: г^ = 2/3, г| = 2, г22 = 2/3. Опять же в соответствии с выражением (6) вычисляем итоговое мнение агентов в конце второго периода: В2 = 5.
Предположим теперь, что первый агент осуществляет манипулирование с целью максимально приблизить результирующее мнение во втором периоде к своему мнению, то есть В2 = Ь2 (содержательная интерпретация такой целевой функции такая же, как и в моделях активной экспертизы [11]). Для этого он должен выбрать два числа: «1,52 ^ ЬГ = 0,5, минимизирующие (см. выражение (14)), следующую целевую функцию:
Из выражения (6) имеем: В1(81) = (81 + 5)/3. Подставляя выражение (12), найдем зависимость репутаций агентов во втором периоде от действий первого агента в первом периоде:
Задача (16) окончательно примет вид:
шт
41/2, «11/2
Решение этой задачи — § 1 = 2,5, = 2,5 (репутации агентов
во втором периоде равны: г2 = 2, г2 = 1, Г2 = 1). При этом целевая функция (17) принимает значение 0, т. е. цель управления полностью достижима при заданных ограничениях (В2 = 4 =
4 = В2). Отметим, что в рассмотренном примере эвристический алгоритм дает оптимальное решение.
Предположим теперь, что первый агент осуществляет манипулирование с целью максимально приблизить результирующее мнение в первом периоде к своему мнению, то есть В1 = а второй агент осуществляет манипулирование с целью максимально приблизить результирующее мнение к своему мнению во втором периоде (В2 = 62). Тогда В1(в1,в1& gt-) = (в1 + в2 + 3)/3. Найдем зависимость репутаций агентов во втором периоде от действий первого и второго агента в первом периоде:
г2(в1,в2) = г2(в1,в2) = гз2(в1,в1) =
3 + 2|2в1 — в2 — 3|
3 + 2|2в2 — в1 — 3|
6
3 + 216 — в1 — в2|
Первый агент должен выбрать в1 и минимизировать свою целевую функцию: ^(В1 — Ь1) = 11 [в|- + s2 + 3] - 1| = 11 [81 + з1] | при заданных ограничениях на мнения. Очевидно, что независимо от действий второго игрока минимум достигается при в1 = 0,5.
Второй игрок в первом периоде выбирает § 2 для максимизации своей репутации. Для этого ему необходимо минимизировать (при заданных ограничениях на мнения): 14 — 1[в1+в2+3]|.Т.е. в1 = 1,75 = В1 (следовательно, первый агент не полностью достиг своей цели 1,75 — 1,0 = 0,75). Репутации агентов во втором периоде равны г2 = 4/7, г2 = 2, г2 = 4/7.
226
6
6
Во втором периоде второй игрок должен выбрать s2 и минимизировать свою целевую функцию:
F (B2 _ b2) = |4rf (si, s1)+ slr22(si, s2) + 6rl (si, s1).
(2) 1 r2 (s 1, s2) + r2(s }, s 1)+ r2(s }, s 1) 1
при заданных ограничениях на мнения. Откуда s2 = 5 при полном достижении цели вторым агентом.
Аналогично можно рассматривать и другие игры с фиксированной последовательностью ходов.
6. Рефлексия агентов
Выше мы предполагали, что такие параметры социальной сети как начальные мнения каждого из агентов по каждому из вопросов, репутации агентов, законы формирования результирующего мнения и динамики репутации являются общим знанием среди агентов. Однако на практике это не всегда так: например, в больших социальных сетях агенты могут не знать всего множества членов сети, представления агентов о мнениях и/или репутации друг друга могут быть неполными и/или различающимися. Для адекватного отражения подобных ситуаций целесообразно рассматривать неопределенность (неполную информированность) и/или нетривиальную взаимную информированность агентов. Неопределенность в задачах информационного управления в социальных сетях может вводиться по аналогии с тем, как это делается в других моделях принятия решений и теоретикоигровых моделях (см., например, [5, 12]). Поэтому рассмотрим кратко аспекты рефлексии агентов.
Наряду с информационной рефлексией, основанной на асимметричной информированности агентов, интерес представляет более традиционная для теоретико-игровых моделей стратегическая рефлексия — процесс и результат размышления агентов о том, какое действие выберут оппоненты. Однако здесь необходимо сделать важное замечание: в рамках данной статьи агенты не
227
являются активными участниками ситуации, поскольку не выбирают свое действие и не имеют собственных предпочтений. Они лишь пассивно (или «доверчиво») формируют свое мнение на основе мнений других. Исключение представляет манипулирующий агент — он как раз является игроком, т. е. стремится достичь определенной цели и выбирает наиболее оптимальное действие для ее достижения. Иными словами, «обычные» агенты и игрок-«манипулятор» — это два принципиально разных объекта моделирования. Их различие незаметно в простых случаях (см. пример в разделе 6), но в более сложных (например, когда несколько манипулирующих агентов осуществляют информационное противоборство) оно весьма существенно. Повторим: это различие между агентом, меняющим свое мнение в зависимости от мнений других, и игроком, который формирует мнение других (не меняя при этом своего), преследуя определенные цели. Подобный подход принят, в частности, в работе [3], когда узлы сети рассматриваются как агенты, которые управляются «более интеллектуальными» игроками (в частном случае игрок может являться агентом или их группой).
Как нам представляется, возможны два подхода к моделированию игроков. Первый состоит в том, что игроки сами не являются элементами социальной сети (агентами), а лишь воздействуют на нее тем или иным способом. Второй подход состоит в рассмотрении игроков как агентов (элементов социальной сети), для которых репутация других агентов не имеет значения и которые не меняют своего мнения. Проработка данных подходов, однако, выходит за рамки данной статьи.
В качестве иллюстративного примера рассмотрим следующую модель принятия произвольным агентом из множества N решений (случай стратегической рефлексии [12]) о сообщаемом другим агентам своем мнении 10: пусть он заинтересован в том, чтобы результирующее мнение совпадало с сообщенным им мне-
10 Если каждый из агентов честно сообщает свое мнение, то рассмотрение рефлексии вряд ли имеет смысл.
нием 11. При этом его «вес» (репутация) содержательно в глазах оппонентов будет высок — все сообщество «соглашается с ним».
Если рефлексия отсутствует, то из (6) следует, что г-ый агент сообщит мнение (см. также выражение (15)):
Е гз Ьз
(18) в-(г, Ь-!) = ,
где Ь- = (Ь1, Ь2,…, Ьг-1, Ьг+1,…, Ьп), г е N. Содержательно выражение (18) означает, что при рассматриваемом принципе принятия решений агент не обращает внимания на свое мнение и сообщает «среднее» (взвешенное с учетом репутаций) мнение остальных агентов. Вектор (18) можно условно назвать «рефлексивным равновесием» (первого ранга, — см. ниже).
Возникает вопрос, какие предположения о принципах принятия решений оппонентами использует агент. Если предположить, что каждый агент использует принцип принятия решений типа
(18), то единственным «равновесием» будет сообщение всеми агентами одного и того же мнения, причем, например, в случае одинаковых репутаций агентов равновесием Нэша это «равновесие» будет только при условии, что и истинные мнения всех агентов одинаковы.
Поэтому добавим фактор стратегической рефлексии, т. е. будем считать, что, выбирая свое сообщение в соответствии с выражением (18), г-ый агент полагает, что все остальные агенты честно сообщат свои истинные мнения (это предположение в рамках приведенного выше обсуждения различий между «агентами» и «игроками» означает, что в рассматриваемом случае все агенты являются «не очень интеллектуальными» игроками 12). Если все агенты ведут себя так же, то сложится следующее ито-
11 Если каждый из агентов честно сообщает свое мнение, то рассмотрение рефлексии вряд ли имеет смысл.
12 Более интеллектуальный игрок должен был бы, как минимум, предполагать, что остальные агенты-игроки также способны к рефлексии.
229
говое мнение:
(19)
В случае двух агентов выражение (19) примет вид В =
Ь1г2 + Ь2г1
ты «обмениваются» своими репутациями и сообщают не свое мнение, а мнение оппонента.
Условием стабильности [14] рефлексивного равновесия (18) можно считать условие совпадения результирующих мнений, определяемых выражениями (6) и (19):
Перейдем теперь к краткому качественному обсуждению случая информационной рефлексии, которая в соответствии с [12] предшествует стратегической. Обозначим? — множество всевозможных конечных последовательностей индексов из N г^
— представления г-го агента о репутации ст-агента [12], г е N, ст е ?. Например, г^ - представления г-го агента о репутации ]-го- - представления г-го агента о представлениях-го агента о репутации к-го агента и т. д. (в случае общего знания г^ = г^-, г, ] е N). К такой конструкции применим аппарат теории рефлексивных игр [12], с помощью которого можно искать информационные равновесия, исследовать их стабильность и т. д. (соответствующий пример рассматривается в следующем разделе), что представляется актуальной задачей будущих исследований.
В заключение настоящего раздела отметим, что информационные воздействия, направленные на формирование той или иной структуры информированности агентов в социальной сети о репутациях друг друга, также являются разновидностью информационного управления. Исследование этого вида информационного
Г1 + Г2
, т. е., осуществляя стратегическую рефлексию, аген-
(20)
гЄМ
управления, наряду с изучением такого его вида как манипулирование агентами информацией (см. выше), также представляется перспективным направлением будущих исследований.
7. Примеры рефлексии агентов
Рассмотрим пример стратегической рефлексии при взаимодействии трех агентов (п = 3). Начальные мнения агентов: Ь1 = 1, Ь2 = 2, Ьз = 3, репутации агентов одинаковы и равны единице. Если бы все агенты честно сообщали свои мнения, то сложилось бы результирующее мнение В = 2.
В соответствии с выражением (18) находим:
= 5/2, ?2 = 2, ?3 = 3/2.
При таких сообщениях результирующее мнение В = 2, т. е. условие (20) выполнено.
Примером невыполнения условия (20) является ситуация, когда мнение третьего агента Ь3 = 4. Тогда
= 3, ?2 = 5/2, ?3 = 3/2 и В = 7/3 & gt- В = 2.
Рассмотрим пример информационной рефлексии при взаимодействии двух агентов (п = 2). Начальные мнения агентов: Ь1 = 1, Ь2 = 2- репутации агентов: г1 =2, г2 = 1. Если бы все агенты честно сообщали свои мнения, то сложилось бы результирующее мнение В = 4/3. При стратегической рефлексии результат будет 5/3.
Предположим, что имеет место следующая структура информированности: 1 ^ 2 ^ 21, т. е. второй агент имеет свои представления г21 = 3 о репутации первого агента и считает, что это является общим знанием. Первый агент об этом полностью информирован. Найдем информационное равновесие: второй агент в соответствии с выражением (18) выберет $ 2(^1, г2, Ь1) = Ь1 (отметим, что в случае двух агентов этот выбор не зависит от представлений второго агента о репутации первого), рассчитывая
231
на такое же сообщение первого агента- первый же агент выбе-
г1 + Ь1 г2 *
рет свой наилучший ответ ?1 из условия ---------- = ?1, т. е.
= Ь1. Информационное равновесие (Ь1, Ь1) стабильно, но является ложным равновесием, так как приводит к итоговому мнению 2/3, отличающемуся от итогового мнения В = 4/3 в условиях полного знания.
8. Заключение
Перспективным направлением дальнейших исследований представляется, во-первых, рассмотрение обобщений предложенных выше моделей за счет ослабления вводимых предположений, в первую очередь — допущение неполной и асимметричной информи-рованности агентов. Во-вторых, представляется целесообразной разработка теоретико-игровых моделей информационного управления и информационного противоборства, учитывающих неопределенность, рефлексию агентов и возможность образования их коалиций.
Литература
1. Глоссарий по теории управления и ее приложениям // http: //glossary. ru.
2. ГУБАНОВ Д. А. Обзор онлайновых систем репутации /доверия. — 2009. — М.: ИПУ РАН, Интернет-конференция по проблемам управления (www. mtas. ru/forum). — 25 с.
3. ГУБАНОВ Д. А., НОВИКОВ Д. А., ЧХАРТИШВИЛИ А. Г. Модели информационного влияния и информационного управления в социальных сетях // Проблемы управления.
— 2009.
4. ГУБАНОВ Д. А., НОВИКОВ Д. А., ЧХАРТИШВИЛИ А. Г.
Модели влияния в социальных сетях (обзор) // Управление большими системами. — 2009.
5. ГУБКО М. В., НОВИКОВ Д. А. Теория игр в управлении организационными системами. — М.: Синтег, 2002. — 148 с.
6. ДОЦЕНКО Е. Л. Психология манипуляции: ф еномены, механизмы и защита. — М.: ЧеРо, 1997. — 344 с.
7. ЕРМАКОВ Н.С., ИВАЩЕНКО А. А., НОВИКОВ Д. А. Модели репутации и норм деятельности. — М.: ИПУ РАН, 2005. — 67 с.
8. КЕМЕНИ ДЖ., СНЕЛЛ ДЖ. Конечные цепи Маркова. -М.: Наука, 1970.
9. НОВИКОВ Д. А. Математические модели формирования и функционирования команд. — 2008. — 188 с.
10. НОВИКОВ Д. А., СМИРНОВ И. М., ШОХИНА Т. Е. Механизмы управления динамическими активными системами.
— М.: ИПУ РАН, 2002. — 124 с.
11. НОВИКОВ Д. А. Теория управления организационными системами. 2-е издание. — М.: Физматлит, 2007.
12. НОВИКОВ Д. А., ЧХАРТИШВИЛИ А. Г. Рефлексивные игры. — М.: Синтег, 2003. — 227 с.
13. Словарь иностранных слов. — М.: Русский язык, 1982.
14. ЧХАРТИШВИЛИ А. Г. Теоретико-игровые модели информационного управления. — М.: ПМСОФТ, 2005. — 160 с.
15. Oxford English Dictionary: http: //www. askoxford. com.
MODELS OF REPUTATION AND INFORMATION CONTROL IN SOCIAL NETWORKS
Dmitry Gubanov, Institute of Control Sciences of RAS, Moscow, post-graduate student (DimaGubanov@mail. ru).
Dmitry Novikov, Institute of Control Sciences of RAS, Moscow, Doctor of Sc., Professor, Deputy director (novikov@ipu. ru). Alexander Chkhartishvili, Institute of Control Sciences of RAS, Moscow, Doctor of Sc., Leading researcher (sandro_ch@mail. ru).
Abstract: The models of social networks are considered which allow to formulate and solve reputation formation problems. The reputation is further used in information control.
Keywords: social network, reputation, game theory, revelation of
information, information control.

ПоказатьСвернуть
Заполнить форму текущей работой