Обучение нейросети прогнозирования результатов интенсификации притока газа в условиях недостаточности информации

Тип работы:
Реферат
Предмет:
ТЕХНИЧЕСКИЕ НАУКИ


Узнать стоимость

Детальная информация о работе

Выдержка из работы

УДК 622. 276. 63−681.3. 06
Р. С. Дианов
ОБУЧЕНИЕ НЕЙРОСЕТИ ПРОГНОЗИРОВАНИЯ РЕЗУЛЬТАТОВ ИНТЕНСИФИКАЦИИ ПРИТОКА ГАЗА В УСЛОВИЯХ НЕДОСТАТОЧНОСТИ ИНФОРМАЦИИ
При разработке газоконденсатных месторождений возникает необходимость проведения мероприятий по интенсификации притока газа. Процесс принятия решений при проектировании данных мероприятий достаточно сложен и не поддается четкому математическому описанию [1]. В связи с этим разработана информационная система поддержки принятия решений с применением нейронных сетей. Первоначально прогнозирование эффективности принимаемого решения проводилось с помощью трехслойного персептрона на формальных нейронах с одним скрытым слоем [2]. Однако для алгоритма обратного распространения ошибки, используемого для обучения персептрона, необходим достаточно большой обучающий набор входных и выходных векторов. Данная информация не всегда доступна, т. к. характерной особенностью процесса разработки газоконденсатного месторождения является ограниченный объем сведений о параметрах и свойствах объекта, что связано как со сложностью объектов исследования (пластовая система, скважина), так и с ограниченностью имеющихся измерительных приборов и систем [3]. Данное обстоятельство привело к необходимости создания нейронной сети, способной обучаться в условиях недостаточности информации.
Разработанная нейронная сеть имеет для обучения лишь известные входные векторы. Правильные значения выходных векторов неизвестны. Какие векторы будут сформированы на выходе, зависит от алгоритма обучения. Обучающее множество состоит из S известных входных векторов {A*}, s = 1… S. В процессе обучения сеть учится формировать выходные векторы
Ys для каждого вектора из обучающего множества {A*}.
Процесс обучения заключается в подстраивании весов синапсов. Очевидно, что подстройка синапсов может проводиться только на основании информации, доступной в нейроне, т. е. его состояния и уже имеющихся весовых коэффициентов.
Обучение заключается в изменении весов по следующему правилу:
Wj (t) = Wjj (t-1) + a-y (n-1) • yjn), (1)
где yI& quot-- - выходное значение нейрона i слоя (n — 1) — У (и) — выходное значение нейрона j слоя n- Wjj (t) и Wj (t — 1) — весовой коэффициент синапса, соединяющего эти нейроны, на итерациях t и t — 1 соответственно- a — коэффициент скорости обучения. Здесь и далее, для общности, под n подразумевается произвольный слой сети. При обучении по данному методу усиливаются связи между возбужденными нейронами [4].
Полный алгоритм обучения с применением вышеприведенных формул будет выглядеть следующим образом:
1. На стадии инициализации всем весовым коэффициентам присваиваются небольшие случайные значения.
2. На входы сети подается входной образ, и сигналы возбуждения распространяются по всем слоям согласно принципам классических прямопоточных (feedforward) сетей, т. е. для каждого нейрона рассчитывается взвешенная сумма его входов, к которой затем применяется активационная (передаточная) функция нейрона, в результате чего получается его выходное значение y/& quot-1, i = 0 … Mi — 1, где Mi — число нейронов в слое i- n = 0 … N — 1, а N — число слоев в сети.
3. На основании полученных выходных значений нейронов по формуле (1) проводится изменение весовых коэффициентов.
4. Происходит возвращение к шагу 2 до тех пор, пока выходные значения сети не стабилизируются с заданной точностью. Применение данного способа определения завершения обучения, отличного от использовавшегося для сети обратного распространения, обусловлено тем, что подстраиваемые значения синапсов фактически не ограничены.
Следует отметить, что вид откликов на каждый класс входных образов не известен заранее и будет представлять собой произвольное сочетание состояний нейронов выходного слоя, обусловленное случайным распределением весов на стадии инициализации. Вместе с тем разработанная сеть способна обобщать сходные образы, относя их к одному классу. Тестирование обученной сети позволяет определить топологию классов в выходном слое. Для приведения откликов обученной сети к удобному представлению сеть была дополнена одним слоем, который по алгоритму обучения однослойного персептрона [5] отображает выходные реакции сети в требуемые образы.
Все сигналы в сети лежат в интервале [0, 1]. Сеть послойно полносвязная, как и многослойный персептрон, и содержит три слоя нейронов. Последний, третий слой состоит из обычных формальных нейронов с детерминированным поведением и непрерывными выходными сигналами:
У]3 = °(ЯЕГр
МЕТ?3 = I
Скрытый слой состоит из стохастических нейронов с двумя значениями выхода: 0 и 1. Каждое из выходных значений принимается с вероятностями:
р (y?2 = 1) = о (МЕТ-2), р (y?2 = 0) = о (-МЕТ2),
ШТ?2 = I ^?2 *?2.
Первый слой не выполняет вычислений, а лишь распределяет входные сигналы по нейронам второго слоя.
Обучающее множество |х5, О5} содержит известные пары выходных и входных векторов, 5 = - номер эталона в обучающем множестве. Функцию ошибки выберем нормированной
и линейной, чтобы ее можно было трактовать как вероятность:
Е-
=4−1 (] -),
N0
где N0 — количество выходов сети. За счет нормирования Es е [0- 1].
Выходной слой обучается обычным способом, коррекции весов выходного слоя:
Н3 =е (& lt- - ]). d^iNETз)
]3 3 3 & lt-ШТ]Ъ
•У-
Второй слой обучается с поощрением и наказанием. Введем градационный сигнал г, характеризующий качество выходного результата. Возможны два варианта.
1. Дискретный градационный сигнал с двумя возможными значениями: 0 и 1, с вероятностями р (г = 0) = Е5, р (г = 1) = 1 — Е5.
2. Непрерывный градационный сигнал: г = 1 -Ея.
В обратном направлении распространяется только градационный сигнал, а не полная информация об ошибке по каждому выходу, как в обратном распространении [6]. Коррекции весов во втором слое выбираются в виде
дЫ]2 = ге (У]2 — а (МЕТ]. 2))Х]2 + (1 — г)1е (1 — У]2 — а (МЕ7}2))Х]2 ,
где е — скорость обучения- 1 & lt-<- 1 — цена ошибки (в нейронных сетях, в отличие от задач поиска сигналов, цена ошибки намного меньше цены правильного решения).
Для проверки эффективности данного метода обучения был проведен прогнозный расчёт пластового давления на участке газоносного пласта, для которого была составлена нейросетевая модель пористости, обученная вышеуказанным способом. В качестве проверочных наборов входных и выходных сигналов использовались реальные данные по газонасыщенным коллекторам башкирского яруса Астраханского газоконденсатного месторождения [7].
При этом размер выборки, необходимой для корректной проверки, определялся исходя из следующего неравенства: п & gt- Ж/е, где п — размер обучающего набора- Ж — число весовых коэффициентов в сети- е — доля ошибок, допустимая в процессе работы сети [8].
Было проведено сравнение двух выборок из 2 680 значений, полученных для одного набора данных. Фрагменты сравниваемых выборок представлены на рисунке.
10
30 40 50
Пластовое давление, МПа
? Фактическое? Расчётное
60
10
9
8
7
6
5
4
3
2
1
И_
30 40 50
Пластовое давление, МПа
? Фактическое? Расчётное
60
Проверка эффективности обучения нейросети
9
8
7
6
5
4
3
2
Относительное отклонение прогнозного значения от документального составило не более
7,3%. Полученные результаты свидетельствует об эффективности данного метода обучения.
СПИСОК ЛИТЕРАТУРЫ
1. Коротаев Ю. П., Закиров С. Н. Теория и проектирование разработки газовых и газоконденсатных месторождений. — М.: Недра, 1981. — 294 с.
2. Дианов Р. С. Автоматизация процесса оценки эффективности обработки скважин // Южно-рос. вестн. геологии, географии и глобальной энергии. — 2003. — № 1. — С. 77−78.
3. Освоение скважин / А. И. Булатов, Ю. Д. Качмар, П. П. Макаренко, Р. С. Яремийчук. — М.: Недра,
1999. — 472 с.
4. Barron A. R. Neural net approximation // Proc. of the Seventh Yale Workshop on Adaptive and Learning Systems. — New Haven, CT: Yale University. — 1991. — P. 69−72.
5. Rumelhart D. E., Hinton G. E., Williams R. D. Learning internal reprentation by error propagation in parallel
distributed processing. — Cambrige: MA: MIT Press, 1986. — 91 p.
6. Boesh F. T., Wang J. Reliable circulant networks with minimum transmission delay // IEEE Trans. Cir. And Sys. — 1984. — CAS-32. — P. 1286−1291.
7. Казаева С. В., Григоров В. А. Физико-литологические свойства пород коллекторов Астраханского ГКМ // Наука и технология углеводородов. — 2001. — № 4 (17). — С. 20−24.
8. Baum E., Haussler D. What size net gives valid generalization? // Neural Computation. — 1989. — № 1. -P. 151−160.
Статья поступила в редакцию 22. 01. 2009
TRAINING OF NEURAL NETWORK FOR FORECASTING RESULTS OF THE INTENSIFICATION OF GAS INFLOW IN CONDITIONS OF INFORMATION INSUFFICIENCY
R. S. Dianov
Decision-making process at designing actions on intensification of gas inflow is rather complicated and cannot be subject to the precise mathematical description. In this connection the information system of support of decisionmaking with application of neural networks is developed. The developed neural network has only known entrance vectors for training. The process of training consists in adjusting weights of synapses. Adjustment of synapses can be made only on the basis of the information accessible in neuron, that is its condition and already available weight factors. To check efficiency of the given method of training the forecasting calculation of seam pressure upon a part of a gaseous seam, for which neural network model of porosity has been built, is made. As verifying sets of entrance and target signals real data on gas collectors of the Bashkir circle in Astrakhan gas-condensate field have been used. The received results are evidence of efficiency of the given method of training.
Key words: intensification of gas inflow, neural network, synapse.

ПоказатьСвернуть
Заполнить форму текущей работой