Нейросетевая адаптивная фильтрация полигармонических стохастических сигналов

Тип работы:
Реферат
Предмет:
Кибернетика


Узнать стоимость

Детальная информация о работе

Выдержка из работы

их оптимальности, показано, что они обеспечивают качество управления выше, чем традиционные стохастически эквивалентные системы.
Литература: 1. Адонин О. В., Бодянский Е. В., Котляревс-кий С. В. Управление динамическими стохастическими нестационарными объектами в условиях неопределенности с активным накоплением информации. 1. Достоверно-эквивалентный подход //Радиоэлектроника и информатика. 1999. N4. С. 76−81. 2. Адонин О. В., Бодянский Е. В., Котляревский С. В Адаптивный регулятор с активным накоплением информации // Радиоэлектроника и информатика. 2000. N3. С. 57−60. 3. Адонин О. В., Бодянский Е. В., Котляревский С. В. Управление динамическим стохастическим нестационарным объектом в условиях неопределенности с активным накоплением информации. II. Объект с быстрым дрейфом параметров / / Радиоэлектроника и информатика. 2001. N1. С. 68−7l. 4. Бодянский Е. В., Руденко О. Г. Адаптивные модели в системах управления техническими объектами. Киев: УМВК ВО, 1988. 212 с. 5. Бодянский Е. В., Чайников С. И., Ачкасов А. Е., Воронов-ский Г. К. Адаптивные алгоритмы управления в АСУ ТП и оценка их эффективности на ранних стадиях проектирования. Харьков: ХОУС, 1995. 134 с. 6. Бо-
УДК 681. 513.7 & quot-
НЕЙРОСЕТЕВАЯ АДАПТИВНАЯ ФИЛЬТРАЦИЯ ПОЛИГАРМОНИЧЕСКИХ СТОХАСТИЧЕСКИХ СИГНАЛОВ
БОДЯНСКИЙЕ.В., КОТЛЯРЕВСКИЙ С. В, ЧАПЛАНОВ А. П, ШИЛО А.В. _________________
Рассматривается задача выделения гармонических компонент произвольных частот из стохастических последовательностей с использованием нейросетевых технологий. Предлагается архитектура искусственной нейронной сети и алгоритмы ее обучения, являющиеся обобщением дельта-правила на случай, если на настраиваемые веса нейронов наложены ограничения. Разработанные алгоритмы оптимальны по быстродействию в классе градиентных процедур и способны отслеживать дрейф параметров отфильтрованных сигналов.
Во многих прикладных задачах, связанных с обработкой сигналов различной природы, достаточно часто возникает проблема выделения периодических компонент, искаженных шумом. Данная проблема обычно сводится к оцениванию параметров гармоник на фоне помех и может быть решена с помощью традиционных методов Фурье — анализа. Здесь, однако, возникает ряд проблем в случае необходимости обработки нестационарных сигналов в реальном времени. В качестве альтернативы Фурье-анализу в последнее время все чаще используются методы адаптивной цифровой фильтрации [ 1 -7], которые в сочетании с нейросетевыми технологиями [8] позволяют реализовать новые возможности компьютерной обработки информации.
дянський Е.В., Борячок М. Д. Оптимальне керування стохастичними об'єктами в умовах невизначеності. Київ: ІСДО, 1993. 164 с. 7. Yoodwin Y. C, Ramadge P.I., Caines P.E., A globally convergent adaptive predictor // Automatica. 1981. 17. N1. Р. 135−140.
Поступила в редколлегию 20. 10. 2000
Рецензент: д-р техн. наук. проф. Любчик Л. М.
Адонин Олег Валерьевич, инженер 1-й категории кафедры информатики ХТУРЭ. Научные интересы: адаптивные системы управления. Адрес: Украина, 61 166, Харьков, пр. Ленина, 14, тел. 40−98−90.
Бодянский Евгений Владимирович, д-р техн. наук, профессор кафедры искусственного интеллекта ХТУРЭ. Научные интересы: адаптивные системы, искусственные нейронные сети. Адрес: Украина, 61 166, Харьков, пр. Ленина, 14, тел. 40−98−90.
E-mail: bodya@kture. kharkov. ua
Котляревский Сергей Владимирович, канд. техн. наук, ведущий научный сотрудник ПНИЛ АСУ ХТУРЭ. Научные интересы: адаптивные системы управления. Адрес: Украина, 61 166, Харьков, пр. Ленина, 14, тел. 40−98−90.
Предположим, что анализируемая стохастическая последовательность может быть представлена в виде
у =2 (a j cos Wjk+bj sin Wjk)+%(k) =
j=i
=Cj sin (®jk+Vj)+%(k), (1)
j=i
где m — количество гармонических компонент в сигнале y (k) (может быть достаточно велико) — a, bj, cj, g& gt-j — неизвестные параметры отдельных гармоник- 0& lt- со,=2nfjT0& lt-n — частоты гармонических компонент, в общем случае неизвестные- Т0-период квантования сигнала- k = 1, 2,…, N, … — текущее дискретное время- Дк)-стохастическая компонента с нулевым математическим ожиданием и ограниченным вторым моментом.
Модели (1) соответствует разностное уравнение
П (1−2cos®, z-1+z-2) y (k)=4(k), (2)
(здесь z-1 — оператор сдвига назад), описывающее формирующий фильтр порядка 2m, образованный цепочкой из m нерекурсивных звеньев второго порядка. Заметим, что на основе уравнения (2) с помощью тех или иных алгоритмов идентификации могут быть восстановлены лишь оценки частот ® j- для нахождения же амплитудных и фазовых характеристик приходится прибегать к достаточно сложным многоэтапным процедурам.
На практике для выделения гармонических компонент из стохастических сигналов наиболее широко распространены нерекурсивные фильтры [3,4,7]. Однако, как отмечалось в [9], подход, основанный на использовании таких фильтров, связан с определенными ограничениями, особенно в случаях,
72
РИ, 2001, № 2
когда частота гармоник много меньше частоты квантования сигнала. Дело в том, что если гармонические компоненты загрязнены высокочастотным шумом, при цифровой обработке эта шумовая составляющая будет усиливаться, подавляя полезный сигнал и затрудняя оценку его характеристик. В связи с этим в [10] было предложено решать задачу выделения гармоник из случайных сигналов с помощью рекурсивных фильтров второго порядка, настроенных на различные частоты. На рис. 1 приведена схема рекурсивного адаптивного цифрового фильтра [3], где у (к) — отфильтрованная последовательность- а0, аі, & lt-х2, Рд р2 — настраиваемые коэффициенты фильтра- z-1 — элементы чистого запаздывания. Здесь же интересно заметить, что структура рекурсивного адаптивного цифрового фильтра полностью совпадает со структурой линейной рекуррентной искусственной нейронной сети, предназначенной для обработки случайных сигналов [11].
Рис. 1. Рекурсивный адаптивный цифровой фильтр
В [10] рассмотрена задача выделения из стохастической последовательности y (k) т синусоид известных частот а1, а 2, ¦ ¦¦, сот с помощью банка узкополосных фильтров, приведенного на рис. 2. Каждый из фильтров имеет передаточную функцию
Fj (z)
1-z-2
1−2cos® jz +z ~2 '
(3)
а передаточная функция банка фильтров может быть записана в виде
F (z) = Z F, (z) = Z
1-z
— 2
, 1−2cos® .z 1+z 2
j=1 j
1
(4)
Далее выходы фильтров)'1(к), у2(к), ¦¦¦, уm (к)
объединяются на основе процедуры типа стохастической аппроксимации с коэффициентом усиления 1/k, при этом предполагается, что выходной сигнал у (к) содержит только «чистые» гармоники.
Для случая неизвестных частот в [9] было предложено использовать рекурсивные узкополосные заграждающие фильтры, приведенные на рис. 3.
Рис. 3. Узкополосной заграждающий фильтр
Здесь FBP — узкополосной пропускающий фильтр с единичным коэффициентом усиления и нулевым фазовым сдвигом на резонансной частоте. В этом случае единичная синусоида у (к) может быть выделена путем вычитания выхода полосопропускающего фильтра из его входа. При этом коэффициент усиления на высоких и низких частотах одинаков, т. е. усиления высокочастотного шума не происходит даже в случае, когда выделяемая гармоника имеет очень низкую частоту.
Полосовой фильтр может быть реализован в виде биквадратного звена [3,9], структура которого приведена на рис. 4. Здесь у (к) — сигнал выделенной гармоники- и (к) = у (к) — у (к) — сигнал на выходе заграждающего фильтра- р1, р2-настраиваемые коэффициенты- s (k)-сигнал, пропорциональный производной ошибки по настраиваемому параметру р і.
Полосопропускающий фильтр имеет передаточную функцию вида
FBP (z)
_Л х__________1-z 2____________
2 1-(2-fi2-A2)z-X + (1-A)z-2 ,
(5)
нелинейную по параметру р 1, и позволяет настраивать резонансную частоту, сохраняя на остальных частотах коэффициент усиления постоянным. Передаточной функции (5) соответствует резонансная частота
со* = 2arcsin

(6)
РИ, 2001, № 2
73
причем для малых Pi и р2 можно записать приближенную оценку
(11)
О
Л

0,2521
(7)
являющуюся линейной функцией от Pi при посто-янном р2. В процессе выделения из сигнала единичной синусоиды можно поддерживать параметр р2 постоянным, а настраивать лишь коэффициент р 1. После настройки параметра р1 на резонансную частоту можно попытаться далее подстроить и р2 в целях получения большей избирательности.
Для настройки фильтра может быть использована стандартная градиентная процедура
A (k) = A (k -1) + Vpv (k)s (k) (8)
(здесь цр — коэффициент усиления алгоритма), в общем случае совпадающая с дельта-правилом обучения в искусственных нейронных сетях. Забегая вперед, нельзя не отметить возможности рассмотрения биквадратного звена как элементарного искусственного нейрона, тем более, что сигнал производной формируется самим фильтром (см. рис. 4).
Основные недостатки структуры (5) и алгоритма обучения (8) связаны с неопределенностью коэффициента усиления цр и невозможностью настройки параметра р2. С целью улучшить процесс адаптации проведем некоторые достаточно очевидные преобразования.
Преобразуем (5) в разностное уравнение
y (k) — (2 — Pi — Р2) y (k -1) + (1 — Р2) y (k — 2) =
= -ОДР 2 (y (k) — y (k — 2)), (9)
введем переменную
z (k) = y (k) — y (k — 2) (10)
и запишем уравнение рекурсивного фильтра
y (k) = (2 -Р2 — Pi) y (k -1) — (1 — P2) y (k — 2) —
-0,5p 2 z (k).
Вводя новые параметры
*1=1 -a2, {а =7^
%. = 1 -А, ІА = 1 -А,
можно переписать (9) и (11) в виде
y (k) — (6& gt-1 +d2)y (k-1) +02y (k — 2) = = -0,5(1 -0 2) z (k)
(12)
и
y (k) = 01 y (k -1) +02 (y (k -1) — y (k — 2) + +0,5z (k)) — 0,5z (k),
(13)
(14)
а (6)
a* = 2arcsin
(^
(
1 -t
= 2 arcsin
. 12(1 + 02),
Параметры 01 и 02 связаны неравенствами
1 -t
(15)
0 & lt--
1
2(1 + ^2)
решение которых имеет вид
-& lt- 1,
(16)
(m ЯГ = «А — 202 -1 ^ 0,
^ = |й =.1 — 1 & lt- 0. (17)
Вводя в рассмотрение уравнение псевдолинейной регрессии
~(k) = 01X1(k) +02 X2(k), (18)
где ~(k) = y (k) + 0,5z (k), X1(k) = y (k -1),
X2 (k) = (y (k -1) — y (k — 2) + 0,5z (k)), и вспомогательный сигнал
~(k) = y (k) + 0,5z (k) = 1,5y (k) — 0,5y (k — 2),
можно определить неизвестные параметры фильтра 01 и 02 путем оптимизации на каждом такте времени лагранжиана:
L (0,H, k) = (~ (k) -0Tx (k))2 + /лт1(0) =
= е 2(k) + hV (0),
(19)
где в = (01,02) T — вектор настраиваемых парамет-
1) — вектор нео-РИ, 2001, № 2
74
ров- x (k) = (x1(k), x2(k))T, /лт — (2×1) — вектор нео
трицательных неопределенных множителей Лагранжа.
Для решения системы уравнений Куна-Таккера
V ?. Ь (в, /и) = -2ex +
дв,
/и = 0,
(здесь
VML (0, /и) = & lt-р (в) & lt- 0, /uj & gt- 0, j = 1,2- і = 1,2
д (Р]
(20)
дв,
-1 1
— 2 0
матрица производных
(17) по параметрам Д) можно воспользоваться процедурой Эрроу-Гурвица:
Ve (k) =-
e (k)
2e (k)||x (k)||2 — xT (k)
d (Pj дві
, max
¦& lt-m •
M (k -1)
(26)
C учетом (26) алгоритм обучения параметров фильтра (18) можно окончательно записать в виде
e (k)
d (k) = d (k -1) ±
f dVj
2e (k)x (k) — M (k -1)
V дві J
2e (k)||x (k)||2 — xT (k) M (k) = Pr+ m (k -1) + тц (k)q& gt-0(k))].
d? j
дв,
M (k -1)
в (к) =e{k -1) + r/g (k) f 2e (k) x (k) — V dPj дві M (k -1))
m (k) = Pr+ [m (k -1)+vM (k)v (d (k)) ,
(21)
где ile (k), Vfi (k) -коэффициенты усиления алгоритма, Pr+ [^] = max{0, ju}.
Проводя очевидные преобразования с первым соотношением (21):
xT (k)§(k) = xT (k)0(k -1) +
+ r/g (k)
2e (k)||x (k)||2 — xT (k)
dPj
n (k -1)
двг J
(22)
y (k) — xT (k)d (k) = ~ (k) = e (k) —
(27)
При решении практических задач удобно использовать оба алгоритма (8) и (27), первый из которых применяется для «грубой» настройки на искомую частоту, а второй-для уточнения всех параметров фильтра.
Для случая, когда из сигнала требуется выделить m синусоид, в [9] предложено использовать каскадную структуру, содержащую m (m+1)/2+m настраиваемых биквадратных звеньев. Эта идея положена в основу нейросетевого адаптивного фильтра, схема которого приведена на рис. 5. В качестве нейронов используются одиночные рекурсивные адаптивные фильтры, настраиваемые с помощью дельтаправил вида [9,12]
P (k)=hk-1)
||s (k)||2
(28)
¦ Л в (k)
2e (k)||x (k)||2 — xT (k)
dPj
ju (k -1)
дві J
(23)
(здесь ~ (k) — апостериорная ошибка после одного такта обучения),
~2(k) = e2(k) — 2e (k)r)Q (k)f 2e (k)||x (k)||2 — xT (k) x
dPj & gt- jU (k -1) + Лв
дві J V
2e (k)||x (k)||2 — xT (k)
д^ X
jU (k -1)
дві J J
(24)
2
где p (k)=(pm, ?№,•••, Pm (k))T,
s (k)
du (k) du (k)
Г^Т ~W
du (k)
dk,
верхний индекс j в
обозначает номер соответствующей гармоники. При наличии интенсивного шума желательно, чтобы алгоритм обучения обладал дополнительными сглаживающими свойствами, для чего в [13] была предложена нелинейная модификация эспоненци-ально взвешенного алгоритма [14], имеющая вид
P (k)=P (k -1)+npr-1 (k)u (k)s (k), r (k) =ar (k -1)+j |s (k)2,0 & lt- a & lt- 1,
и решая дифференциальное уравнение
de2(k)
(25)
можно получить значение коэффициента усиления rjQ, обеспечивающее максимальную скорость убывания апостериорной ошибки, в виде
где параметр, а задает компромисс между следящими и сглаживающими свойствами алгоритма. Предлагаемая схема реализует параллельный процесс вычислений, при этом частоты гармоник легко
могут быть вычислены по коэффициентам fjj (к) с помощью формулы (6).
РИ, 2001, № 2
75
Решение системы уравнений Куна-Таккера сразу же приводит к оценке
c (N) = R~n)E (ETR~N)E)_1, (34)
которая может быть переписана в рекуррентной форме [15]:
P (k) = P (k -1) — P (k — 1) y (k)(1 + y T (k)P (k -1)j& gt-(k))-1 x _x y T (k)P (k -1),
c*(k) = c*(k -1) + P (k)(y (k) — y T (k)C *(k -1)) y (k),
c (k) = c*(k) -P (k)(ETP (k)E)_1 (ETC*(k) -1)E,
(35)
Рис. 5. Искусственная нейронная сеть для выделения гармоник из сохастической последовательности
В результате обучения нейронов-фильтров F], F2, ¦¦¦, Fm на выходах нейросетевого фильтра
j1(k), jj2(k), ym (k) появляются синусоиды различных частот, присутствующие в исходном сигнале y (k).
Для определения амплитуды каждой из гармоник, входящих в y (k), можно воспользоваться концепцией адаптивного многомодельного подхода [15], согласно которой находится обобщенный прогноз
mT
y (k) = ?cjyj (k) = c y (k), (30)
J=1
отвечающий условию несмещенности
где c — оценка стандартного рекуррентного метода наименьших квадратов.
При обработке нестационарных сигналов в реальном времени для оптимизации лагранжиана (15) целесообразно воспользоваться градиентной процедурой
J c (k) = c (k -1) -qc (k)VcL (c, A, k),
[4. (k) = l (k -1) + ^2(k)d cL (c, A, k)/91, (36)
или
(c (k) = c (k -1) + rjc (k)(2y (k)w (k) — l (k -1)E),
U (k) = A (k -1) + VA (k)(cT (k)E -1). (37)
Записав ошибку определения вектора параметров с
m
? cj = cE =1 (31)
j=1
и вычисляемый в адаптивном блоке обобщения выходных сигналов G, который является по сути m-входовой адалиной [8]. Здесь с=(с2, с2, ¦¦¦, ст) т,
y (k) = СШ, y2 (k), ym (k))T, E = (1,1,…, 1) T — век-
торы размерности (m х 1).
Вводя в рассмотрение текущую ошибку обобщенного прогноза в момент времени к:
w (k) = y (k) — y (k) = y (k) — cTy (k) = c TEy (k) — c Ty (k) = = cT (Ey (k) — y (k)) = cTW (k),
(32)
в (k) = c — c (k) = 0(k -1) -•qc (k)(2y (k)w (k) — l (k — 1) E),
(38)
ее норму ||# (k)|| = в T (k)0 (k) и решив дифференциальное уравнение
3(J#(k — Ч|2-||^~(k^ '-& quot-j/ dVc = 0, (39)
можно получить значение коэффициента усиления цс (к), обеспечивающее максимальную скорость сходимости процесса обучения:
Tic (k)
2w 2 (k) + A (k — 1)(& lt--T (k -1) E -1) ||2 y (k)w (k) -A (k — 1) E|2
(40)
несложно решить задачу отыскания неизвестного вектора c путем нахождения седловой точки лагранжиана:
N
L (c, 1) = Z cTW (k)WT (k)c + 1(9TE -1) =
k=3
= cTR (N)c + l (c TE -1), (33)
aaaX — неопределенный множитель Лагранжа.
Тогда алгоритм настройки выходного нейрона сети G окончательно может быть записан в виде
c (k) = c (k -1)+(2w 2(k}+1(k-1)(cT (k-1)E -1)} x
||2 y (k)w (k) -l (k — 1) E| x (2y (k)w (k) -l (k -1)E)
||2y (k)w (k) -l (k -1)E|2 '
l (k) = l (k -1) + vx (k)(c T (k)E —. (41)
76
РИ, 2001, № 2
В том случае, когда контур настройки множителя Лагранжа устойчиво поддерживает ограничение ст (к) E = 1, первое соотношение (41) автоматически приобретает форму широко распространенного в теории искусственных нейронных сетей алгоритма обучения Уидроу-Хоффа [8]:
с (к) = с (к -1) +
w (k) у (к) №)||2
(42)
являющегося в свою очередь одной из разновидностей дельта-правила настройки нейронов.
Предлагаемый подход позволяет выделить из анализируемого сигнала произвольное количество гармонических компонент, обладая при этом высоким быстродействием, обеспечиваемым как параллельной организацией вычислений, так и оптимальными свойствами алгоритмов обучения.
Литература: 1. Рабинер П, Гоулд Б. Теория и применение цифровой обработки сигналов. М. :Мир, 1978. 848 с. 2. Мизин И. А., Матвеев А. А. Цифровые фильтры. М.: Связь, 1979. 240с. 3. КаппелиниВ., Константинидис А. Дж., Эмилиани П. Цифровые фильтры и их применение. М.: Энергоатомиздат, 1983. 360с. 4. Signal Processing Handbook / Ed. by C.H. Chen. -N.Y. and Basel: Marcel Dekker, Inc., 1988. 818p. 5. Адаптивные фильтры/Под ред.К.Ф. Н. Коуэна, П. М. Гранта. М. :Мир, 1988. 392с. 6. Уидроу Б., Стирнс С. Адаптивная обработка сигналов. М. :Радио и связь, 1989. 440с. 7. Balmer L. Signals and Systems. An Introduction. -Prentice Hall Europe, 1997. 550p. 8. Cichocki A., Unbehauen R. Neural Networks for Optimization and Signal Processing. Stuttgart: Teubner, 1993. 526p. 9. Kwan T, Martin K. Adaptive detection and enhancement of multiple sinusoids using a cascade IIR filter / / IEEE Trans. Circuits and Systems-1989. 36. N7. P. 937−947. 10. Doraiswami R., Jiang J. A linear time-varying filter for estimating a signal from unknown noise and its applications to identification / / Int.J. Contr. 1985. 42. N1. P. 97−117. 11. Galvan J.B. An unsupervised recurrent neural network for noise identification // J. Syst. Eng. 1996. 6. P. 177−185. 12. Бодянс-
кий Е. В. Адаптивные алгоритмы идентификации нелинейных объектов управления//АСУ и приборы автоматики. 1987. Вып. 81. C. 43−46. 13. БодянскийЕ.В., Воробьев С. А. Алгоритмы обучения искусственных нейронных сетей в задаче идентификации нелинейного стохастического нестационарного объекта// Праці П’ятої Української Конференції з автоматичного управління «Автоматика-98»: К., 13−16 травня 1998р. 4. III. Київ: НТУУ «КПІ», 1998. С. 350−354. 14. Goodwin G. C, Ramadge P.J., Caines P.E. A globally convergent adaptive predictor/ / Automatica. -1981. 17. N1. P. 135−140. 15. Бодянский Е. В., Руднева И А. Об одном адаптивном алгоритме обнаружения разладок в случайных последовательностях// Автоматика и телемеханика 1995. N10. C. 101−106.
Поступила в редколлегию 20. 10. 2000
Рецензент: д-р техн. наук, проф. Любчик Л. М.
Бодянский Евгений Владимирович, д-р техн. наук, профессор кафедры искусственного интеллекта, научный руководитель проблемной НИЛ АСУ ХТУРЭ, член IEEE, WSES. Научные интересы: нейро-фаззи-системы. Адрес: Украина, 61 166, Харьков, пр. Ленина, 14, тел. 40−98−90.
E-mail: Bodyanskiy@ieee. org, bodya@kture. kharkov. ua
Котляревский Сергей Владимирович, канд. техн. наук, старший научный сотрудник проблемной НИЛ АСУ ХТУРЭ. Научные интересы: нейро-фаззи-системы. Адрес: Украина, 61 166, Харьков, пр. Ленина, 14, тел. 40−98−90.
Чапланов Алексей Павлович, инженер кафедры искусственного интеллекта ХТУРЭ. Научные интересы: искусственные нейронные сети. Адрес: Украина, 61 166, Харьков, пр. Ленина, 14, тел. 40−98−90.
E-mail: asd@white. kharkov. com
Шило Александр Владимирович, канд. биол. наук, старший научный сотрудник отдела криофизиологии Института проблем криобиологии и криомедицины НАН Украины. Научные интересы: нейрофизиология головного мозга, хаос в физиологии, фракталы. Адрес: Украина, 61 015, Харьков, ул. Переяславская, 23, тел. (0572)-702−935. E-mail: sasha@ashilo. kharkov. ua
УДК 658. 52. 011. 56
ПРИБЛИЖЕННЫЙ АЛГОРИТМ СОСТАВЛЕНИЯ РАСПИСАНИЙ ДВИЖЕНИЯ АВТОБУСОВ
СКРИПИНА И. В.
Предлагается приближенный метод решения класса задач, связанных с оптимизацией транспортного процесса, который позволяет эффективно строить расписания с учетом ограничений, характеризующих реальные условия.
Предметом изучения является модель эффективной организации пассажирских перевозок, построение которой основано на решении известной задачи о назначении. Эта задача располагает широким спектром практических приложений на транспорте.
Доказано, что задача о назначении эффективно разрешима. При этом предполагается, что для достижения оптимума ее целевой функции достаточно найти единственное ее решение. Однако в практических ситуациях возникает потребность в
нахождении множества оптимальных решений с заданными свойствами, при различных условиях.
Результаты изучения этих свойств составляют содержание данной статьи. Условия, при которых необхо -димо минимизировать суммарное время выполнения автобусами маятниковых маршрутов между двумя пунктами 1 и 2, содержат дополнительное требование. Оно заключается в том, что перевозки между этими пунктами должны обеспечивать m автобусов, из них m1 автобусов автопредприятия, расположенного в пункте 1, и m- mi автобусов автопредприятия, расположенного в пункте 2. Из расписания движения по автостанциям известно время отправления для каждого рейса из пункта 1 в пункт 2 и обратно — из пункта 2 в пункт 1. Любой автобус автопредприятия, расположенного в пункте к, к = 1,2, начинает и завершает маршрут согласно расписанию в этом пункте.
Рейс i из пункта 1 в пункт 2 начинается в момент времени ti j, i = 1, m и его продолжительность равна тц. Рейс j из пункта 2 в пункт 1, начинающийся в момент времени 12j j = 1, m, выполняется за время
РИ, 2001, № 2
77

ПоказатьСвернуть
Заполнить форму текущей работой