Автоматизированное определение параметров транспортных потоков

Тип работы:
Реферат
Предмет:
ТЕХНИЧЕСКИЕ НАУКИ


Узнать стоимость

Детальная информация о работе

Выдержка из работы

УДК 004. 93'-12
Е. В. Марьенков, А. В. Протодьяконов, А. Н. Фомин
АВТОМАТИЗИРОВАННОЕ ОПРЕДЕЛЕНИЕ ПАРАМЕТРОВ ТРАНСПОРТНЫХ ПОТОКОВ
Проблема транспортных заторов становится все более актуальной. Транспортные заторы приводят к потерям времени людей, задержкам в доставке грузов, повышенному расходу топлива и увеличению выбросов вредных веществ в атмосферу. Одним из наиболее эффективных методов решения этой проблемы считается оптимизация светофорного регулирования с помощью адаптивных систем управления.
Для эффективной работы подобных систем необходим интенсивный сбор данных о текущей дорожной ситуации, включая такие параметры, как интенсивность и плотность дорожного движения, средняя скорость потока и длины очередей разрабатывается автоматизированная система.
Для получения параметров транспортных потоков широко используется различные алгоритмы распознавания образов с камер видеонаблюдения. Общий принцип этих алгоритмов представлен на рис. 1.
(Кадр Л
I видеоизображения)
Предварительная
обработка
Накопление
инфорпвдпио
фоне
Вычитание фога
Вшчпстеше пеней? тоб-ьектоЕ
Сегментация
Идентификация? бъеоо! ИЗ найденных еегзгеняоЕ
[ Выходные данные
Рис. 1. Общий принцип алгоритмов распознания образов
При распознании образов на видеоизображе-
нии дорожного потока выделяются несколько последовательных этапов.
Этап получения изображений с видеокамер. Для этого камера должна быть установлена таким образом, чтобы обеспечивать хороший обзор за наблюдаемым участком.
Этап предварительной обработки кадров изображения включает в себя несколько стадий:
• компенсация смещения камеры-
• на стадии компенсации экспозиции выравнивается яркость и тональность сравниваемых кадров-
• на последней стадии учитываются время суток и года.
Этап вычитания фона. На этом этапе происходит сравнение текущего кадра изображения с одним или несколькими предыдущими кадрами. На основе этого вычисляются изменившиеся в текущем кадре пиксели изображения. После вычитания фона происходит стадия бинаризации, выделяющая в кадре изменившиеся пиксели -пиксели переднего плана, и пиксели фона — пиксели заднего плана.
Этап вычисления теней позволяет существенно повысить точность распознания образов. На этом этапе объект переднего плана отделяется от собственной тени.
Этап сегментации изображения и объектов. На данном этапе смежные пиксели переднего плана объединяются в сегменты, образуя прямоугольные, круглые или произвольные области.
Этап идентификации объектов. На этом этапе происходит сопоставление сегментов с распознаваемыми образами. Выделяются следующие способы идентификации объектов и образов.
1. Идентификация по яркостным и цветовым характеристикам. Здесь сравниваются цвет, тональность, яркость сегментов и образов. По результатам сравнения определяется вероятность совпадения образов и объекта.
2. Анализ геометрии и позиций объекта по стереоизображениям. Сравниваются различные признаки сегмента, его размеры и соотношение размеров. Определяется позиционирование сегмента в кадре.
3. Скелетизация — нахождение на изображении контуров, узлов, их взаимного положения. Сегмент разбивается на отдельные простейшие геометрические фигуры, вычисляются связи между узлами, по которым и происходит идентификация объекта с образом.
4. Текстурный способ. Сравниваются растровые изображения текстуры сегмента и образа.
5. Пирамидальный способ. Автомобиль представляется как контур, состоящий из прямоугольника нижней части автомобиля и пирамиды верхней части. Из этих предположений вычисляется уточненный контур объекта.
На этапе накопления информации о фоне происходит сохранение данных об объектах переднего и заднего плана кадров, упитывающиеся на этапе вычитания фона следующего кадра.
Внашей работе используется алгоритм распознания образов с кадра видеоизображения с накоплением буферных данных о фоне за весь период работы алгоритма. Схема алгоритма представлена на рис. 2.
(Кздр Л
I шдеоизображения }
Накопление информации о фоне
Вычитание фит.
Сегментация
Идентификация о& amp-ьектої из наияенных ceriremoE
Расчет интенснхнзсгь транспортных готовое
Выходные данные
Рис. 2. Структура детектора автомобилей
Вычитание фона в распознании образов является первичным этапом обработки изображений и служит для классификации пикселей изображения на два класса: пиксели заднего плана (фон) и пиксели переднего плана [2]. Полученные данные используются при сегментации, идентификации и сопровождении движущихся объектов.
Пусть С — множество пикселей заднего плана, О — переднего плана. Каждый пиксель заднего плана изображения моделируется с помощью нормально распределённой случайной величины то есть
С ~ N (?, т, а2)
где т — выборочное среднее, о — стандартное отклонение.
В зависимости от размерности цветового пространства, в котором представлено изображение,
будет меняться и размерность случайной величины ?. Например, для полутоновых изображений ?
— одномерная случайная величина, для цветовых пространств RGB, HSV или YUV — трёхмерная.
Алгоритм вычитания фона следующий.
Обрабатываются первые n кадров и оцениваются параметры m и с:
1
m
и О =.
1
V (X — m)
где X?, / = 1, п — значение в пикселях по кадрам.
Для каждого следующего кадра и каждого пикселя рассчитываются текущие параметры т^, 0. Обозначим за X — значение в текущем кадре
пикселя с координатами (i, j). Если
m — x
& lt- e,
О
то данный пиксель классифицируется как находящийся на заднем плане, иначе — на переднем. Ошибка е влияет на чувствительность алгоритма. Ее значение из уравнения:
& lt- ^ е)-а.
где, а — вероятность, что отклонение, вызванное белым шумом, попадёт в окрестность ошибки е.
Если текущий пиксель был классифицирован как пиксель фона, то производится обновление его статистических параметров с помощью низкочастотного фильтра рекурсивного сглаживания:
тг = (1 — а1) тг _1 + а1 х
и
а =у1 (1 _ а2) ст& quot-_1 + а2(х _ т)2, где тм, 0−1 — оценки параметров на предыдущем кадре, ть ог — текущие оценки, а1, а2 — параметры фильтра, отвечающие за скорость обучения модели. Обновление статистики производится через определённые промежутки времени, например, раз в секунду. Частота обновления зависит от наблюдаемой сцены.
Если текущий пиксель классифицирован как пиксель переднего плана, то обновление статистики происходит в зависимости от скорости реакции системы на открывшийся фон или объекты, ставшие фоном. Это время составляет обычно 3−5 секунд. Такая задержка также позволяет проводить детектирование остановившихся автомобилей.
На рис. 3 (верхние кадры) показаны участок дороги и результат работы вычитания фона уличной сцены. На втором из них видны области, соответствующие проезжающему автомобилю и идущему по тротуару пешеходу.
Сегментация объектов — преобразование множества пикселей переднего плана во множество объектов, то есть семантически связных областей кадра изображения, принадлежащих одному движущемуся объекту (человеку, автомобилю и
2
Автоматизированная система управления дорожнымдвижением [Счетчик интенсивности транспортного потока]
Файл Параметры Справка Изображение с камеры
Визуализация процесса сегментации
Пуск j | Возобновить |
Genius WebCam Live
Загрузить видео
Включить камеру
[ Остановить | Текущий кадр детекции: 123 5 Шумовой порог
1 Скорость адаптации выборочного среднего
1 Скорость адаптации ср. кв отклонения
Очистить память
Количество автомобилей: 3
Рис. 3. Программа автоматизированного вычисления интенсивности дорожного движения
др.).
При сегментации используется однопроходной алгоритм, моделирующий каждый наблюдаемый объект в виде прямоугольной области с границами, имеющими определённую толщину.
На каждом шаге работы алгоритма вычитания фона из пикселей переднего плана формируется множество непересекающихся областей Я, имеющих границу с фиксированной толщиной I.
Если очередной пиксель попадает внутрь или на границу уже существующей области, то она расширяется до координат этого пикселя.
Если региона, соответствующего пикселю, не найдено, создаётся новый регион размером 1×1 с центром в этом пикселе.
В случае пересечения двух областей создаётся новая область, включающая в себя две предыдущие.
После обработки всего кадра области, размер которых меньше заранее установленного минимума, удаляются.
Интенсивность транспортных потоков — это один из основных параметров дорожного движения, используя который можно провести валидацию имитационной модели на отдельных участках, а также прогнозировать заторы в краткосрочной и долгосрочной перспективе.
Для подсчета интенсивности на участке видеоизображения выделяется зона контроля, на которой учитываются автомобили. Наличие авто-
мобиля в зоне постоянно детектируется. Чтобы избежать повторного учета одного и того же автомобиля, устанавливается определенный интервал времени детектирования.
Если автомобиль покидает зону контроля или его время пребывания в зоне контроля превышает оценочное время выхода, то происходит детектирование следующего автомобиля.
Программные средства, созданные на основе этого алгоритма, могут работать с различными техническими средствами и программными форматами:
• с файлами видеофрагментов в несжатом формате AVI-
• с цифровыми данными через устройства видеозахвата USB2. 0-
• с аналоговыми камерами через платы видеозахвата PCI и PCI-Express-
• с цифровыми видеокамерами.
Разработанный алгоритм распознания образов
с использованием постоянной буферизации данных обладает высокой производительностью, хорошо адаптируется к медленному изменению освещённости (смена дня и ночи), но медленно реагирует на быстрое изменение освещённости, не определяет тени.
В тоже время алгоритм устойчив к белому шуму, имеет высокую точность определения движущихся объектов и может использоваться в системах управления транспортными потоками.
СПИСОК ЛИТЕРАТУРЫ
1. Sen-Ching S. Cheung, Chandrika Kamath. Robust background subtraction with foreground validation for urban traffic video, 2004.
2. Нужный С. П., Червяков Н. И. Детектор движения в цифровой системе охранного видеонаблюдения.- Ставропольский государственный университет, Ставрополь, Россия, 2007.
3. Jeffrey E. Boyd, Jean Meloche, Yehuda Vardi. Statistical tracking in video traffic surveillance, 1999.
4. N.J. Ferrier, S.M. Rowe, A. Blacke. Real-time traffic monitoring, 1999.
5. Shao-Yi Chien, Shyh-Yih Ma, Liang-Gee Chen. Efficient moving object segmentation algorithm using background registration technique, 2002.
6. Matthew Brand, Vera Kettnaker. Discovery and segmentation of activities in video, 2000.
7. Daniel J. Dailey, F. W. Cathey, Suree Pumrin. An algorithm to estimate mean traffic speed using uncalibrated cameras, 2000.
8. Hakan Ardo, RikardBerthilsson. Adaptive background estimation using intensity independent features, 2004.
9. Benjamin Coifman, DavidBeymer. A real-time computer vision system for vehicle tracking and traffic surveillance, 1998.
? Авторы статьи:
Марьенков Евгений Валерьевич
— аспирант каф. информационных и автоматизированных производственных систем КузГТУ Тел. +7−923−516−9987, email: ievamar@mail. ru
Протодьяконов Андрей Владимирович
— канд. техн. наук, доцент каф. информационных и автоматизированных производственных систем КузГТУ Тел. 83 842- 58−08−11, email: ai@kuzstu. ru
Фомин Андрей Николаевич
— соискатель каф. информационных и автоматизированных производственных систем КузГТУ Тел. +7−906−984−98−66, email: andrey.n. fomin@gmail. com

ПоказатьСвернуть
Заполнить форму текущей работой