Классификация объектов движения с использованием байесовских сетей

Тип работы:
Реферат
Предмет:
Кибернетика


Узнать стоимость

Детальная информация о работе

Выдержка из работы

Сер. 10. 2011. Вып. 4
ВЕСТНИК САНКТ-ПЕТЕРБУРГСКОГО УНИВЕРСИТЕТА
ИНФОРМАТИКА
УДК 004. 932. 72'-1 Д. А. Шелабин
КЛАССИФИКАЦИЯ ОБЪЕКТОВ ДВИЖЕНИЯ С ИСПОЛЬЗОВАНИЕМ БАЙЕСОВСКИХ СЕТЕЙ
Основной целью различных систем отслеживания движущихся объектов является трассировка перемещений группы объектов в потоке кадров, поступающих со стационарной видеокамеры. Эти системы должны хорошо работать при различных условиях, таких как меняющийся задний план, изменяющееся освещение, движущиеся тени, наличие группы движущихся объектов, траектории которых могут пересекаться, или движущихся групповых объектов, которые могут объединяться либо разделяться. Практически во всех системах слежения можно выделить несколько этапов работы.
Первый этап — это применение алгоритма обнаружения движущихся объектов к входной видеопоследовательности [1, 2]. Принцип работы большинства таких алгоритмов заключается в постепенном накапливании информации и построении модели заднего плана снимаемой сцены. При поступлении очередного кадра его пиксели сравниваются с соответствующими пикселями модели фона, после чего алгоритм определяет, является ли данный пиксель кадра фоновым или он принадлежит движущемуся объекту. Затем уже пиксели данного кадра служат для обновления модели фона. Таким образом, результатом работы будет бинарная маска, получаемая при поступлении каждого кадра. В ней пиксели, отнесенные к фону, равны нулю, а пиксели, отнесенные к объекту, — единице.
На втором этапе происходят фильтрация и объединение пикселей бинарной маски в отдельные объекты.
На третьем этапе выполняются отслеживание перемещений множества найденных групп объектов на разных кадрах и объединение их в траектории, для чего используются алгоритмы трассировки на основе байесовских сетей. Все движущиеся объекты, обнаруженные на текущем кадре видеопоследовательности, могут быть классифицированы к одной из имеющихся к этому моменту траекторий движения объектов. Объекты движения могут быть классифицированы по многим параметрам: распределению цветов объекта (цветовая гистограмма), положению объекта в кадре, размеру объекта в кадре, протяженности объекта, его скорости.
Шелабин Дмитрий Алексеевич — аспирант кафедры технологии программирования факультета прикладной математики-процессов управления Санкт-Петербургского государственного университета. Научный руководитель: кандидат физико-математических наук, доц. С. Л. Сергеев. Количество опубликованных работ: 2. Научные направления: компьютерная обработка изображений, извлечение знаний. E-mail: Dmitrshel@mail. ru.
© Д. А. Шелабин, 2012
Цель данной работы — создание классификатора объектов движения, использующего гистограмму их цветового распределения. Он также основан на байесовском подходе и может быть применен совместно с другими методами для трассировки объектов.
Формализация, используемые понятия и обозначения. Пусть X — дискретная случайная величина, принимающая значения из множества V (X) = {x1, x2,…, xd}. Символами верхнего регистра обозначим сами переменные, а нижнего регистра — значения, которые они могут принимать. Случайный вектор, состоящий из m случайных величин, и его некоторое значение будем обозначать как X = {Xi, X2,…, Хт} и х = {xi, Ж2, • • •, хт} соответственно.
Согласно определению в [3, с. 29], «байесовские сети — графические структуры для представления вероятностных отношений между большим количеством переменных и для осуществления вероятностного вывода на основе этих переменных». Байесовская сеть — ациклический ориентированный граф, вершины которого представляют случайные величины (элементы), а ребра — непосредственные причинно-следственные отношения между ними. В качестве случайных величин могут быть взяты как некоторые параметры или свойства, характеризующие данную предметную область, так и логические высказывания или гипотезы. Такая сеть является прежде всего моделью некоторой предметной области. Она предназначена для вычисления различных совместных и условных вероятностей по произвольному набору случайных величин сети (вероятностный вывод). В основе таких вычислений лежат знания о причинно-следственных связях случайных величин (структура сети) и знания о распределении каждой отдельной случайной величины (параметры сети). Структура сети, представляемая ациклическим ориентированным графом, часто строится на основе экспертных знаний об этой предметной области или подбирается оптимальная структура на основе экспериментальных данных (выборки). Параметры сети могут быть заданы таблицами вероятностей и таблицами условных вероятностей для каждой из вершин графа. Они создаются на основе известной выборки. Табличный способ задания параметров сети не единственный. Распределение случайных величин, приведенных в каждой таблице, можно описать, например, с помощью нормального распределения, полученного на основе табличных данных о выборке.
Пусть Xi, X2,…, Xn — случайные величины. Если известно (или предполагается), что случайная величина Xk зависит от случайной величины Xi, то в графе сети должно быть ориентированное ребро, идущее из вершины Xi в вершину Xk, где Xi — родитель Xk. Если случайные величины независимы, то в графе соответствующие вершины не будут иметь общего ребра.
Обозначим множество родительских узлов случайной величины Xk как Parents (Xk). Для вычисления совместной вероятности будем использовать выражение
n
P (Xi, X2,…, Xn) = ПP (Xi | Parents (Xj)). (1)
i=i
Это основное для байесовских сетей выражение выводится на основе d-разделимости и приводится здесь без доказательства. Более детально с этим можно ознакомиться в [4−6]. Для задачи классификации достаточно формулы (1), хотя при вероятностном выводе применяются и другие соотношения (см. [4−6]).
Довольно распространенным случаем байесовских сетей является наивный байесовский классификатор (рис. 1). Допустим, требуется классифицировать некоторые абстрактные объекты. Пусть Xi, X2, …, Xt — t дискретных случайных величин, которые
характеризуют некоторые признаки классифицируемого объекта, Б — случайная величина, описывающая принадлежность объекта к некоторому классу. Положим, что область значений случайных величин следующая: {х1, х2, …, хн} = V (Х1) = ••• = V (Х?), {в1,в2,…, вг} = V (Б). «Наивность» классификатора заключается в предположении о независимости случайных величин Х1, Х2,.., Х? между собой.
Рис. 1. Структура сети наивного классификатора
Параметры сети —? + 1 таблица с условными или обычными вероятностями (в зависимости от наличия или отсутствия у соответствующей вершины родительских узлов). При заданных параметрах сети Р (Б) — P{Xi Б), г = необходимо классифицировать некоторый новый объект, у которого Х1 = х1, …, Х? = х?. Для получения результата будем пользоваться следующим соотношением, являющимся следствием формулы (1) и предположений о «наивности»:
/ ?
в* = аг? тах? еу (о)
1п Р (Б = + Р (Хг = хг | Б = в)
(2)
г=1
где в* - наиболее вероятный класс для объекта.
Классификация объектов движения. Для построения классификатора объектов движения нужно прежде всего выбрать тот набор признаков, по которым будут классифицироваться объекты. Для этого будем использовать гистограммы цветового распределения данных объектов, что позволит системе правильно определять объект движения, который был частично перекрыт другим объектом снимаемой сцены, слился с другим объектом движения, уменьшился в масштабе или повернулся относительно камеры. То есть если классифицировать только часть объекта, уменьшенный или повернутый объект, то в общем случае можно ожидать, что цветовое распределение искаженного объекта будет совпадать с цветовым распределением всего объекта. Но при таком подходе не учитывается положение отдельных пикселей объекта друг относительно друга. Для адекватной работы системы трассировки объектов нужно оценивать как цветовые составляющие объекта, так и множество других характеристик, например скорость, размер, вытянутость.
Построение системы обнаружения и трассировки движущихся объектов в видеопотоке является более комплексной задачей. Далее в этой статье будет произведено описание только классификатора для уже обнаруженных объектов движения по гистограмме цветового распределения. Описываемый классификатор имеет свои ограничения, т. е. классифицируются отдельные небольшие объекты, которые имеют отличительные особенности в виде одного или нескольких характерных цветов или диапазонов цветов.
Сформулировать задачу можно таким образом. Допустим, что к текущему моменту времени было несколько отслеживаемых объектов, а значит, и траекторий их движения. Под траекториями в данном случае подразумевается информация об объектах в предыдущие моменты времени: их положение, скорость, размер, гистограмма и т. п.
Абстрагируясь от задачи трассировки, будем считать, что если объекты, обнаруженные до текущего момента времени, были отнесены к некоторой траектории, то они формируют соответствующий класс. А все обнаруженные в текущий момент времени объекты должны быть классифицированы к одному из этих классов.
Выбор случайных величин и множества их значений. Будем считать, что задано г классов, т. е. г наборов объектов, задающих классы (рис. 2). Необходимо классифицировать один или несколько новых объектов. Вначале рассмотрим наивный классификатор. В качестве случайных элементов будем выбирать значения в гистограмме цветового распределения объекта. Гистограмма, например по красной цветовой составляющей, может содержать до 256 различных числовых значений из отрезка [0,1]. Данные значения являются выборочными вероятностями для разных уровней интенсивности цвета. Будем считать, что цвет кодируется трехбайтовым числом, это означает, что каждая из трех цветовых составляющих кодируется одним байтом, т. е. может иметь 256 различных значений. Таким образом, классификатор должен содержать 256+1 узлов. Но такое количество узлов избыточно, и гистограмму можно строить
а
Рис. 2. Объекты, формирующие класс 1 (вв?1, а), 2 (вв?2, б) и 3 (вв?3, в)
Hist (0 0. 012
0. 012
Рис. 3. Гистограмма по красной цветовой составляющей для одного из объектов класса 1
при г = 256 (а), 64 (б) и 32 (в)
на меньшем числе значений интенсивности цвета. Для этого разобъем отрезок [0, 255] на t равных частей. Пусть t — число значений в гистограмме. В качестве параметра t возьмем одну из степеней двойки: t Е {2i}8=1. Гистограмму будем строить с использованием получившихся интервалов. Обозначим через г = 1, t номер интервала цветового диапазона, т. е. номеру г соответствует цветовой диапазон [(г — 1 На рис. 3
показаны 3 гистограммы для одного из объектов класса 1 по красной составляющей для t = 256, t = 64, t = 32.
Обозначим множество гистограмм для всех объектов всех классов как {Histk, c}П= 1, с = 1, г, где пс — количество объектов в классе с. Каждое из значений Hist/c& gt-c (i), г = 1, t, гистограммы есть произвольное рациональное число в диапазоне от 0 до 1. Но для того чтобы работать с дискретными, а не с непрерывными значениями, разобьем этот диапазон на h интервалов. Как видно из рис. 3, логичнее будет разделить на h интервалов не интервал [0,1], а интервал I = [0, sup], sup = maxHistk, C (г). Получаем разбиение
k, c, i '-
интервала I: Ij = [(j — j = 1,/г. Определим функцию Hist, имеющую дис-
кретное множество значений и дискретное множество определения: Histk, c (г) Е Ij ^ Histfc) C (z) = center^, где center^ = (j — 0,5)^ - центр интервала. Проще говоря, значение гистограммы из некоторого интервала Ij заменяется значением центра этого интервала. Теперь можно определить случайные величины и параметры байесовской сети. Пока воспользуемся структурой наивного байесовского классификатора (см. рис. 1).
Случайная величина D имеет r возможных значений — r классов: {di, d2 ,…, dr} = V (D). Параметр t задает количество случайных величин Xi, X2,.., Xt, параметр h -количество возможных дискретных значений V (Xi) = V (X2) = ••• = V (Xn) = {center- }j=i. В качестве случайной величины Xi выступает дискретное значение функции Hist для г-го цветового интервала Xi = HistfcjC (i), г = l, t. «Пробегая» все значения к = 1, пс w. с = 1, г, получаем множество известных исходов для данной случайной величины. То есть случайная величина Xi — это случайное значение гистограммы для i.
На рис. 4, а, б отображен график Hist в различных ракурсах. Он построен для t = 32, h = 10, c =1. На рис. 4, а, б можно видеть, что при фиксированном к для всех объектов класса присутствуют два максимума, которые могут незначительно смещаться влево или вправо при переборе объектов этого класса. На рис. 4, б можно заметить, что все значения гистограмм для всех i и к лежат в определенных пределах. А из этого можно сделать вывод, что распределение цветов объекта носит закономерный характер, позволяя построить классификатор. Параметры сети для случая наивного классификатора могут быть получены с использованием функции Hist, построенной на имеющейся выборке (см. рис. 2).
Получение параметров. Приведем параметры сети, которые получены на основе параметрического синтеза по известной выборке:
n
P (D = dc) = -?-^, (3)
2 п5
C=i
где nc — количество объектов в классе с индексом с, с = 1, г-
count (HistfcjC (i) = center P{Xi = center, — | D = dc) = ^^-, (4)
nc
где i = 1, t, c = 1, r, j = 1, h- count (Histfc. e (i) = center-) — некоторая функция, пе-
k=l, nc
ребирающая значения параметра к и подсчитывающая количество таких исходов, что Histfc c (i) = center^. Причем значения этой функции есть целые числа в диапазоне от 0 до пс: count (HistfcjC (i) = center-) G 1, nc. К тому же должно выполнять-
к=1, пс
ся соотношение ^j=i P (Xi = center- D = dc) = 1, следовательно, с учетом (4) J2j= 1 count (Histfc. e (i) = center-) = nc, Vi, c.
k=l, nc
На рис. 5 представлено графическое представление параметров сети P (Xi D), i = 1, t- для случая наивного классификатора (по красной цветовой составляющей) для объектов класса 1 при t = 32, h = 10. Цвет квадрата на рисунке сопоставляется со значением условной вероятности (на рис. 5 представлен вид графика сверху). Можно отметить некоторое сходство между рис. 4, б и 5.
Пользуясь (3) и (4), можно вычислить параметры сети. На вход классификатора поступает неклассифицированный объект, у которого случайные величины имеют следующие выборочные значения: Xi = xi,…, Xt = xt, т. е. Xi = center- ,…, Xt = center-. Гистограмма для этого объекта задается функцией Histobj (i) = center-, i = 1, t. С учетом (3) и (4) можно переписать (2) так:
с* = argmax (inP (D = dc) + VlnPpf- = щБ = dc)) =
c=l'-r V ?=1 J
arg max In nc + ^ In P (Xi = HistGbj {i) D = dc). (5)
c=1'-r V ?=i /
Рис. 4- График для Hist по красной цветовой составляющей для объектов класса 1 при t = 32, h = 10, c = 1
а — общий вид- б — вид сбоку.
0. 08
0. 07
0. 06
0. 05
0. 04
0. 03
0. 02
0. 01
center/
P (X- = center. -ID = ?/Л
Рис. 5. Графическое представление параметров сети для случая наивного классификатора (по красной цветовой составляющей) для класса 1 при? = 32, к = 10
Здесь С — индекс наиболее подходящей для объекта категории. Чтобы при классификации использовать все 3 цветовые составляющие, можно максимизировать выражение, полученное суммированием по всем цветовым составляющим:
с = arg max
c=l, r
. 1 '- J
color={r, g, b}
ln Pcolor (D = dc) + ?ln Pcolor (Хг = Histobj (г) | D = dc)
i=1
Стоит отметить, что некоторые значения параметров P (Xi = center j | D = dc) равны 0. Это происходит из-за ограниченного размера выборки данных, т. е. количество объектов, использованных для вычисления параметров сети, недостаточно. Следовательно, Xi = centerj — достаточно редкое событие, которое не отражено в текущих данных. Равенство нулю P (Xi = center j | D = dc) может сделать невозможным использование (4), так как логарифм нуля не существует. Увеличение размера выборки не может решить данную проблему из-за редкости таких событий. Самый простой способ решения проблемы — это замена нулевых значений в таблице некоторым значением, близким к нулю, причем оно должно быть существенно меньше табличных значений. Более практичным будет применение к табличным данным сглаживания, например экспоненциального. Или же можно использовать вместо табличных данных некоторый закон распределения, например нормальный закон распределения, параметры которого вычисляются исходя из табличных данных.
Вычисление структуры сети. Классификатор для объектов движения может иметь более сложную структуру по сравнению с наивным классификатором. Усложнение структуры происходит за счет добавления новых ребер в граф, отображенный на рис. 1. Это может позволить более точно описать предметную область и зависимости в ней, дает возможность построить более точную модель. Часто на структуру сети налагают дополнительные ограничения, например ограничивают число родительских узлов. В работе [5, с. 11] говорится о том, что «оптимальная структура модели (с точки зрения функции правдоподобия) соответствует модели с максимальной суммой взаимной информации между узлами и их родителями»:
МАГ, П = V V = & lt-«>-
xev (X) yev (Y) v '- v y/
Используя следующие выражения, можно вычислить взаимную информацию (6) для каждой пары случайных величин фиксированной коллекции объектов:
count_(HistfcjC (& lt-/) = center-)
P (Xq = center-) = ~ '-& quot-C'-c~ '-r -.
15= 1 n
P (Xq = center-, Xp = center-) =
count_(HistfcjC (& lt-/) = center- Л HistfciC (p) = center-)
k=l, nc, c=l, r --- -г-
= -F^r-, P=i, t, q=l, t.
2. 5=1 n5
Подставляя полученные выражения в (6), можно рассчитать взаимную вероятность для пары случайных величин. В работе [5] описывается алгоритм для построения структуры сети. Он основан на построении такого графа сети, в котором соединяются ребром только вершины с наибольшей взаимной информацией. Установим следующее ограничение: вершина может иметь только одного или двух родителей, т. е. некоторые вершины могут иметь еще одного родителя, кроме вершины D.
Когда выбрана оптимальная структура сети, нужно перерассчитать параметры сети. Соотношение (3) может быть оставлено без изменений. Соотношение (4) будет верно для тех вершин графа, у которых только один родитель — вершина D. Обозначим X1 — множество случайных величин, соответствующих вершинам графа, у которых есть только один родитель — D- X2 — множество случайных величин, соответствующих вершинам графа, у которых два родителя. Для множества вершин X1 параметры сети, задаваемые соотношением (4), остаются без изменений. Для множества X2 параметры сети задаются следующим соотношением:
P (Xj = center- | D = dc, Xp = center
— 1 J^ - U,, Zip — ^LL^L-pJ —
count (Histfc. e (i) = center- Л HistfciC (p) = center-)
k=l, nc
count (Histfc, e (jp) = center-)
k= l, nc
(7)
где Xj G X — с = 1, r- ji = 1, h- jp = 1, h- ji ^ jp- {D, Xp} = Parents (Xj).
Выражение в (7): count (Histfc, e (i) = center-AHistfciC (p) = center-) — обозначает неко-
k= l, nc
торую функцию, перебирающую значения параметра к и подсчитывающую количество таких исходов, что HistfcjC (i) = center-i A HistfcjC (p) = center-. Напомним, что значения
функции count — это целые числа в диапазоне от 0 до nc, а функции Histkc строятся над обучающим набором, состоящим из объектов, распределенных по классам.
Пусть Histobj — гистограмма, задаваемая неизвестным объектом, подлежащим классификации. С учетом полученных ранее параметров и структуры сети для классификации этого объекта необходимо вычислить
с* = arg max (In P (D = dc) + ^ In Р (ХЪ = HistobjW | D = dc) +
c=1'-r V
+ ^ P (Xi = Histobj (i) I D = dc, XPi = Histobj (pi))
Xi ex2
где pi — индекс вершины графа, являющейся вторым родителем (помимо вершины D) для вершины с индексом i.
Анализ результатов. На рис. 6, а, б изображено графическое представление взаимной информации для различных пар случайных величин (по красной цветовой составляющей) для всей коллекции объектов и только для класса 1 при t = 32, h = 10. Если сравнивать рис. 4, а, б и 6, то можно заметить, что наибольшие значения взаимная информация принимает для тех пар случайных величин, которые соответствуют цветовым интервалам, лежащим вблизи максимумов гистограмм Histk, c. То есть в графе сети следует связывать те случайные величины, которые соответствуют цветовым интервалам, где гистограмма максимальна.
Рис. 6. Графическое представление взаимной информации 1Р (Хр, УЯ) для различных пар случайных величин (по красной цветовой составляющей) для всей коллекции объектов (а)
и для класса 1(6) при? = 32, к = 10
Анализируя рис. 6, а, б, можно заметить, что значения взаимной информации для пар случайных величин, вычисленной на всех объектах коллекции, и объектов одного класса отличаются. То есть если строить сеть, используя взаимную информацию для создания структуры сети, то полученная структура будет оптимальна только для конкретного набора объектов, по которым производились вычисления.
Для того чтобы улучшить работу наивного классификатора при трассировке объектов, необходимо: 1) использовать для обучения классификатора только те данные, которые адекватно описывают имеющийся класс- 2) расширить классификатор добавлением новых случайных элементов, описывающих характерные свойства объектов- 3) расширить структуру сети добавлением связей между новыми и старыми свойствами. Например, можно использовать информацию о размере, скорости и положении объектов, взаимном расположении пикселей объекта.
Таблица 1. Результаты классификации объектов на рис. 7
set setl O. bmp setl l. bmp setl 2. bmp sei2 O. bmp set3 O. bmp
setl -230 -583 -788 -1117 -1179
set2 -1025 -834 851 -250 -875
setS -1074 -1153 -1009 -890 -624
set20. bmp set30. bmp
Рис. 7. Классифицируемые объекты (по классам, приведенным на рис. 2)
На рис. 7 и в табл. 1 представлены объекты и результаты их классификации для классов, заданных объектами, показанными на рис. 2. Описанный подход был реализован и протестирован в МАТЬАВ, что позволяет сделать несколько заключений об его положительных и отрицательных сторонах. На рис. 7 изображены классифицируемые объекты движения. Они отличаются размером, а некоторые намеренно искажены. В табл. 1 приведены результаты классификации, в которой в строчках находятся классы (вв11, вв12, вв13), а в столбцах — классифицируемые объекты. В этом случае все объекты классифицировались верно. Но тестирование показало, что данный классификатор может ошибаться, если цветовое распределение классов по какой-либо составляющей похоже.
Главное преимущество описанного подхода — возможность классифицировать искаженные объекты, так как при уменьшении, повороте или удалении небольшой части объекта его цветовое распределение в целом остается прежним. Если рассмотреть
строчку setl на табл. 1, соответствующую классу 1, то видно, что максимальные значения находятся у объектов set10. bmp, set11. bmp, set12. bmp (в порядке уменьшения). То есть максимальное значение, конечно же, у первого из перечисленных (set 10), но если бы его не было, то оно было бы у следующего объекта (set11), который получен уменьшением в 2 раза из первого. Третий по порядку подходящий объект для класса 1 — это set12. bmp. Следовательно, классификатор способен работать с искаженными объектами. Для классов set2 и set3 результат также верный, максимальные значения у set20. bmp и set30. bmp соответственно.
Рис. 8. Классифицируемые объекты, случай слияния классов 1 и 2
Таблица 2. Результаты классификации для случая слияния на рис. 8
set other. bmp setl set2. bmp setS 0. bmp
setl -1139 -968 -1179
set2 -797 -598 -985
setS -962 -1071 -624
На рис. 8 и в табл. 2 приведен еще один пример работы. Объект setl _set2. bmp соответствует случаю слияния объектов классов 1 и 2, когда один объект перекрывается другим. При классификации максимальные значения в строчках setl и set2 соответствуют объекту set1_set2. bmp. Эта еще одна особенность описанного классификатора делает актуальным его использование в системе трассировки движущихся объектов.
Литература
1. Шелабин Д. А., Севрюков С. Ю. Разработка прототипа системы обнаружения подвижных объектов в видеопотоках // Процессы управления и устойчивость: Труды 40-й Междунар. науч. конференции аспирантов и студентов / под ред. Н. В. Смирнова, Г. Ш. Тамасяна. СПб.: Изд-во С. -Петерб. гос. ун-та, 2009. С. 536−541.
2. Шелабин Д. А. SGM алгоритм обнаружения объектов в видеопотоке // Процессы управления и устойчивость: Труды 41-й Междунар. науч. конференции аспирантов и студентов / под ред. Н. В. Смирнова, Г. Ш. Тамасяна. СПб.: Изд-во С. -Петерб. гос. ун-та, 2010. С. 516−522.
3. Тулупьев А. Л., Николенко С. И., Сироткин А. Л. Байесовские сети. Логико-вероятностный подход. СПб.: Наука, 2006. 607 с.
4. Murphy K. P. A brief introduction to graphical models and bayesian networks. Berkeley, CA: Department of Computer Science, University of California, 1998 // URL: http: //www. cs. ubc. ca/ murphyk/ Bayes/bnintro. html.
5. Гончаров М. Модифицированный древовидный алгоритм Байеса для решения задачи классификации. Spellabs IT company. 2007 // URL: http: //www. spellabs. ru/download/AugmentedNaiveBayes. pdf.
6. Ben-Gal I. Bayesian Networks // Encyclopedia of Statistics in Quality and Reliability. John Wiley & amp- Sons. 2007 // URL: http: //www. eng. tau. ac. il/ bengal/BN. pdf.
Статья рекомендована к печати проф. В. Ю. Добрыниным. Статья принята к печати 20 октября 2011 г.

ПоказатьСвернуть
Заполнить форму текущей работой