« Стохастические методы оптимизации работы вычислительных систем». Стохастические методы оптимизации


Вопрос 24. Методы стохастической многокритериальной оптимизации — Мегаобучалка

Нужно для управления сложными системами. Особенность именно стохастической оптимизации – все переменные не детерминированные, а случайные (спрос, курсы валют, курсы акций). Детерминированные – запланированные затраты, инвестиции. Разница в том, что здесь мы максимизируем или минимизируем матожидания, квантили, отклонения – смотря что нас интересует. Соотвественно переменные тоже в виде матожиданий и тд представлены. В остальном методы такие же, как для детерминиированных процессов (в последнем вопросе):

Постановка задачи: Пусть имеются критерии . Требуется найти точку , которая оптимизирует все эти критерии. Критерии называют частными критериями. В совокупности они образуют векторный критерий . А именно, рассматривается задача: при условии .

Обычно нет решения, минимизирующего все частные. => нужно искать компромиссное решение. Их стараются найти в классе так называемых эффективных решений (множество Парето).

Метод аналитической иерархии. Общая схема МАИ. Постановка задачи:

1.Задана общая цель (n), назначена соответствующая система, которая должна оптимизироваться.

2. Задано произвольное число альтернатив, из которых нужно выбрать лучшее

3. Задано произвольное число частных критериев, по которым анализируются эти альтернативы.

Требуется найти наилучшую альтернативу. Атрибуты:

1. На первом шаге задача оптимизации структурируется в виде соответствующей иерархии ( цели, критерии и альтернативы).

 

Сумма показателей равна 1.

Va=8*0,6+5*0,1+9*0,3=8

 

2. Реализация попарных сравнений для элементов каждого уровня с учетом специфики требований элементов более высокого уровня иерархии. При этом результаты попарных сравнений реализуются в виде матрицы, по которым затем определяется веса важности этих элементов

3. Определяются количественные индикаторы альтернативы, называемые приоритетами.

Шкала сравнений: 1.Эквивалентны (1) 2.Умеренное превосходство (3-1) 3.Существенное превосходство (5-1) 4.….(7-1) 5.….(9-1)

Матрица сравнений сравнивает каждый элемент с каждым:

  А Б С Д сумма Нормируем Итог
А 1/2 1*1/2+2*1/4+3*1/6+6*1/12=2
Б 1/2 3/2 12/2 1/4
С 1/3 2/3 12/3 1/6 4/6
Д 1/6 1/3 1/2 12/6 1/12 4/12
сумма          

 

Свойства матрицы:

· aii=1, для любых i

· aij=1/aji =>aij*1/aji=1 – обратно симметричная матрица

· aik*akj=aij

· vi/vk*vk/vj=vi/vj – согласованная матрица

1. Перед нами несколько функций: одну нужно максимизировать, другую минимизировать и т.п.

Множество Парето – общее у всех. Как его найти?

1. g(1)(x)->max => 1/ g(1)(x)->min (все задачи необходимо сводить на мин.)

2. g(2)(x)->min

3. …

Нужно найти наилучшее решение х1…хn, которое минимизирует все эти функции.

Частный случай: Абсолютное решение. Ситуация, когда все функции можно минимизировать.Решение наз-ся абсолютным, когда оно оптимизирует одновременно все частные критерии.

Решение называется Парето оптимальным, если нельзя улучшить показатель хотя бы одного критерия, при этом чтобы не ухудшились показатели другого критерия. Необходимо использовать прямые методы: задача должна сводиться к однокритериальной.

Опр.Решение называется эффективным или оптимальным по Парето, если нет другого решения такого, что , причем хотя бы для одного “<”.

Бывает несколько парето-опт. Тогда необходим доп. перебор эфф. решений. Приёмы:

o методы сведения задач многокритериальной оптимизации к задачам скалярной оптимизации;

o методы компенсации;

o методы порогов сравнимости.

megaobuchalka.ru

Вопрос 24. Методы стохастической многокритериальной оптимизации — КиберПедия

Нужно для управления сложными системами. Особенность именно стохастической оптимизации – все переменные не детерминированные, а случайные (спрос, курсы валют, курсы акций). Детерминированные – запланированные затраты, инвестиции. Разница в том, что здесь мы максимизируем или минимизируем матожидания, квантили, отклонения – смотря что нас интересует. Соотвественно переменные тоже в виде матожиданий и тд представлены. В остальном методы такие же, как для детерминиированных процессов (в последнем вопросе):

Постановка задачи:

Пусть имеются критерии .

Требуется найти точку , которая в некотором смысле минимизирует все эти критерии. Критерии называют частными критериями.

В совокупности они образуют векторный критерий , который и полежитоптимизации.

задача:

при условии .

Обычно нет решения, минимизирующего все частные. =>нужно искать компромиссное решение.Их стараются найти в классе так называемых эффективных решений (множество Парето).

Множество Парето – общее у всех. Как его найти?

1. g(1)(x)->max => 1/ g(1)(x)->min (все задачи необходимо сводить на мин.)

2. g(2)(x)->min

3. …

Нужно найти наилучшее решение х1…хn, которое минимизирует все эти функции.

Решение называется Парето оптимальным, если нельзя улучшить показатель хотя бы одного критерия, при этом чтобы не ухудшились показатели другого критерия. Необходимо использовать прямые методы: задача должна сводиться к однокритериальной.

Бывает несколько парето-опт. Тогда необходим доп. перебор эфф. решений. Приёмы:

o методы сведения задач многокритериальной оптимизации к задачам скалярной оптимизации;

o методы компенсации;

o методы порогов сравнимости.

Метод аналитической иерархии. Общая схема МАИ. Постановка задачи:

1.Задана общая цель (n), назначена соответствующая система, которая должна оптимизироваться.

2. Задано произвольное число альтернатив, из которых нужно выбрать лучшее

3. Задано произвольное число частных критериев, по которым анализируются эти альтернативы.

Требуется найти наилучшую альтернативу. Атрибуты:

1. На первом шаге задача оптимизации структурируется в виде соответствующей иерархии ( цели, критерии и альтернативы).

 

2. Реализация попарных сравнений для элементов каждого уровня с учетом специфики требований элементов более высокого уровня иерархии. При этом результаты попарных сравнений реализуются в виде матрицы, по которым затем определяется веса важности этих элементов

3. Определяются количественные индикаторы альтернативы, называемые приоритетами.

Шкала сравнений: 1.Эквивалентны(1) 2.Умеренное превосходство (3-1) 3.Существенное превосходство (5-1) 4.….(7-1) 5.….(9-1)

Матрица сравнений сравнивает каждый элемент с каждым:

  А Б С Д сумма Нормируем Итог
А 1/2 1*1/2+2*1/4+3*1/6+6*1/12=2
Б 1/2 3/2 12/2
1/4
С 1/3 2/3 12/3 1/6 4/6
Д 1/6 1/3 1/2 12/6 1/12 4/12
сумма          

 

Свойства матрицы:

· aii=1, для любых i

· aij=1/aji =>aij*1/aji=1 – обратно симметричная матрица

· aik*akj=aij

· vi/vk*vk/vj=vi/vj – согласованная матрица

1. Оптимизация основного частного критерия

Среди частных критериев выделяется один, принимается как основной. Для остальных указываются приемлемые значения.

при ограничениях

где — задаваемые допустимые значения для каждого критерия.

cyberpedia.su

« Стохастические методы оптимизации работы вычислительных систем»

DESCRIPTION

Санкт-Петербургский государственный университет Математико-механический факультет Кафедра системного программирования. « Стохастические методы оптимизации работы вычислительных систем». лекция профессора Граничина Олега Николаевича для стажеров лаборатории - PowerPoint PPT Presentation

Transcript

docslide.net

МЕТОД СТОХАСТИЧЕСКОЙ ОПТИМИЗАЦИИ ЛОГИСТИЧЕСКОЙ ИНФРАСТРУКТУРЫ

Быстров О.Ф. Метод стохастической оптимизации логистической инфраструктуры / О.Ф. Быстров, М.Д. Бокарева, Е.И. Соколова // Экономика и бизнес: теория и практика. – 2016. – №5. – С. 35-38.

МЕТОД СТОХАСТИЧЕСКОЙ ОПТИМИЗАЦИИ ЛОГИСТИЧЕСКОЙ ИНФРАСТРУКТУРЫ

 

О.Ф. Быстров, д-р экон. наук, профессор

М.Д. Бокарева, студент

Е.И. Соколова, студент

Московский государственный университет путей сообщения Императора Николая II «МИИТ»

(Россия, г. Москва)

 

Аннотация. Ряд задач экономики сводится к поиску значений управляемых переменных, доставляющих оптимальное значение некоторой целевой функции – стоимости перевозок, грузооборота и т.п. При этом для решения подобных задач наряду с методами математического анализа и математического программирования может успешно использоваться последовательный симплексный метод.

Ключевые слова: последовательный симплексный метод (ПСМ), симплексный поиск, деформация симплекса.

 

 

Сущность ПСМ состоит в том, что движение к оптимуму в k-мерном пространстве управляемых переменных xi осуществляется последовательным отражением вершин симплекса. В k-мерном  евклидовом пространстве k-мерный симплекс представляет собой фигуру, образованную k+1 точками (вершинами).

В одномерном пространстве симплекс есть отрезок прямой, в двумерном – треугольник, в трехмерном – тетраэдр. В ПСМ используются регулярные симплексы (расстояния между вершинами равны). Алгоритм перемещения симплекса в сторону цели состоит в зеркальном отражении вершины с наихудшим значением целевой функции. Например, при поиске максимума целевой функции целесообразно движение от вершины Vs с наименьшим значением W к противоположной грани симплекса. Важное преимущество симплексного поиска перед другими методами состоит в том, что на каждый шаг требуется всего одно измерение целевой функции  W, что значительно повышает эффективность поисковой оптимизации.

Вместе с тем постоянный размер симплекса не обеспечивает одновременно высокую скорость движения симплекса в начале поиска и точность отыскания экстремума на заключительном этапе оптимизации. Поэтому для достижения быстрого и точного решения требуется измерение размеров симплекса в процессе поиска. Деформация симплекса предусматривает сокращение или увеличение расстояния L между его вершинами с сохранением одной из них.  В качестве последней можно выбрать вновь полученную вершину, либо вершину с наилучшим значением целевой функции y. При этом размеры ребер симплекса в процессе поиска определяются следующей зависимостью:

 

Ln=L0 * yn,                   (1)

где n –номер шага;

yn – числовая последовательность, определяющая закон изменения шага.

Важно помнить о том, что шаги симплекса за пределы факторного пространства и в обратном направлении запрещены.

ПСМ является достаточно эффективной оптимизационной процедурой для широкого класса задач, связанных с поиском минимума/максимума унимодальных функций. В задачах глобальной оптимизации ПСМ приходится использовать многократно, каждый раз изменяя координаты центра начального симплекса. Эффективность глобальной оптимизации в ряде случаев может быть существенно увеличена, если процедуре ПСМ придать свойства так называемого «случайного поиска».

Рассмотрим данный метод на конкретной задаче.

В регионе имеются три карьера природного сырья. Для освоения данных месторождений планируется построить горный обрабатывающий комбинат (ГОК). Координаты карьеров следующие: К1 (10;90), К2 (90;10), К3 (80;80).

Стоимость перевозки 1 тонны сырья на 1 километр составляет: для первого карьера – 500 у.е., для второго – 600 у.е. и для третьего – 700 у.е.

Требуется выбрать оптимальное место для строительства ГОК, обеспечив минимум транспортных издержек.

В качестве целевой функции воспользуемся выражением:

 

 

В системе координат XY изобразим исходный симплекс со стороной в 15 км и местосположение карьеров.

 

 

 

Рис. 1. Исходные данные для поиска координат ГОК

 

 

Алгоритм метода:

1. Рассчитаем W для трёх вершин начального симплекса.

2. Найдем сумму W1, W2, W3.

3. Найдем р1, р2, р3:

рi = Wi / ∑Wj; j= 1,3.                               (3)

4. На отрезке числовой оси отметим значения р1 и (р1 + р2) в интервале от 0 до 1.

5. С помощью генератора случайных чисел (ГСЧ) получаем число α є R (0;1), отмечаем его на отрезке числовой оси. В зависимости от того, в какой из трех образовавшихся интервалов 1, 2 и 3 попадет число, ту вершину и отражаем.

Оптимальным месторасположением ГОК является  вершина, в которой значение W окажется минимальным в последнем симплексе.

Траектория поисковой оптимизации для n = 4 шагов представлена на рис. 2.

 

 

Рис. 2. Пример последовательного симплекса метода в режиме стохастической оптимизации

 

 

Таким образом, нами рассмотрена методика стохастической оптимизации логистической инфраструктуры, которая является универсальной и обладает, согласно закону больших чисел, вероятностной сходимостью к правильному результату.

 

 

Библиографический список

1. Балдин К.В. Математические методы в экономике. Теория, примеры, варианты контрольных работ: Учеб. пособие / К.В. Балдин, О.Ф. Быстров – М.: Издательство Московского психолого-социального института; Воронеж: Издательство НПО «МОДЭК», 2003. – 112 с.

2. Быстров О.Ф., Мальцев A.B., Охотников Г.Н., Ролдугин В.Д., Торбин В.У. Теоретические основы моделирования военно-технических систем / Учебник под редакцией Быстрова О.Ф. – М: МО СССР РВСН, 1993. – 488  с.

 

 

STOCHASTIC METHOD OF OPTIMIZATION OF LOGISTICS INFRASTRUCTURE

 

O.F. Bystrov, doctor of economic sciences, professor

M.D. Bokareva, student

E.I. Sokolova, student

Moscow state university of railway engineering of emperor Nicholas II «MIIT»

(Russia, Moscow)

 

Abstract. A number of problems in economics is reduced to finding the values of the controlled variables, delivering optimal value of some objective function — the cost of transport, freight turnover, etc. At the same time to solve these problems, along with the methods of mathematical analysis and mathematical programming sequential simplex method can be used successfully (PSM).

Keywords: serial simpleksnyj methods (PSM), simpleksnyj search, deformation simplex.

 

 

economyandbusiness.ru

«Оптимизация решений в условиях стохастической неопределенности».

Условие: в дирекции производственного предприятия принято решение вложить финансы в логистический проект по созданию транспортно-складской системы. Требуется оценить риск потери инвестиций для данного проекта и составить рейтинг проектов по данному показателю.

Факторы риска:

R1-пожар;

R2-криминогенный риск;

R3-банкротство страховщика;

R4-нарушение режима перевозки;

R5-невыполнение технико-технологических требований транспортировки;

R6-природно-климатические катаклизмы;

R7-отказ транспортировать средства и оборудование;

R8-нарушения в работе транспорта;

R9-риск ущерба от непрофессионального персонала;

R10-несвоевременная поставка груза;

R11-появление конкурентов;

R12-нарушение контроля партнеров;

R13-срыв финансового проекта;

R14-изменение цен на товар;

R15-иные виды риска.

Оценим в баллах или % от планированной прибыли max ущерб от каждых выполненных видов риска.

Табл1.,

R1

R2

R3

R4

R5

R6

R7

R8

R9

R10

R11

R12

R13

R14

R15

34

70

73

99

43

66

99

11

64

35

50

23

71

39

31

-коэффициент ущерба, связанный с данным риском.

С использованием экспертного анализа перепланируем риски с точки зрения возможности(вероятности) их наступления.

Табл2.,

R1

R2

R3

R4

R5

R6

R7

R8

R9

R10

R11

R12

R13

R14

R15

55

97

40

37

23

98

82

25

87

61

80

65

14

27

57

9

2

10

11

14

1

4

13

3

7

5

6

15

12

8

Пересчитаем впо формуле=1-

Табл3

B1

B2

B3

B4

B5

B6

B7

B8

B9

B10

B11

B12

B13

B14

B15

0,47

0,93

0,4

0,34

0,14

1

0,8

0,2

0,87

0,6

0,74

0,67

0,07

0,27

0,54

Пронормируем их суммой.

Табл.4

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

0,058

0,115

0,05

0,042

0,017

0,124

0,099

0,024

0,108

0,075

0,092

0,083

0,009

0,033

0,067

Значение элементов в табл4 можно интерпретировать как субъективные вероятности событий, приводящих к ущербу.

Рассчитаем числовое значение обобщенного показателя риска как математическое ожидание ущерба.

ОПР= =56,87

Таким образом, математическое ожидание ущерба от факторов риска для проекта 1 равно 56,87. Для остальных проектов оно соответственно равно:

Проект 2-57,40; Проект 3-54,51; Проект 4-66,67.

Вывод: по критерию наименьшего результата выбираем лучший проект-это проект 3.

«Методы стохастической оптимизации с использованием последовательно-симплексного поиска».

Исследуем на экстремум функцию

Решение: определим границы факторного пространства:

0≤ ≤1, 0≤≤1

Опр. коорд. центра тяж.исход. симплекса с ребром l=0,2 (0,36;0,66)

  1. =0,17; =0,58 2.=0,29; ;=0,79 3.=0,39;=0,57

Y1=-1,613,Y2=-1,686, Y3=0,309

Третий наибольший ранг принимается минимальным значением.

Вер-ти рассч. след.образом: каждый ранг делится на сумму вер-тей.

Измеряем зне цел. фун. в новом выражении. Представляем их в фун. Записываем необходимые значения, выставляем ранги, вероятности.

2( 0,29;39)

Y2=0,336

Y3=-1,91

Y2=3,96

Y3=-3,34

studfiles.net

Стохастическая оптимизация • ru.knowledgr.com

Методы стохастической оптимизации (SO) - методы оптимизации, которые производят и используют случайные переменные. Для стохастических проблем случайные переменные появляются в формулировке самой проблемы оптимизации, которые включают случайные объективные функции или случайные ограничения, например. Стохастические методы оптимизации также включают методы со случайным, повторяет. Некоторые стохастические методы оптимизации используют случайный, повторяет, чтобы решить стохастические проблемы, объединяя оба значения стохастической оптимизации.

Стохастические методы оптимизации обобщают детерминированные методы для детерминированных проблем.

Методы для стохастических функций

Частично случайные входные данные возникают в таких областях как оценка в реальном времени и контроль, основанная на моделировании оптимизация, куда моделированиями Монте-Карло управляют как оценки фактической системы,

и проблемы, где есть экспериментальная (случайная) ошибка в измерениях критерия. В таких случаях знание, что ценности функции загрязнены случайным «шумом», приводит естественно к алгоритмам, которые используют статистические инструменты вывода, чтобы оценить «истинные» ценности функции и/или принять статистически оптимальные решения относительно следующих шагов. Методы этого класса включают

Рандомизированные методы поиска

С другой стороны, даже когда набор данных состоит из точных измерений, некоторые методы вводят хаотичность в процесс поиска, чтобы ускорить прогресс. Такая хаотичность может также сделать метод менее чувствительным к моделированию ошибок. Далее, введенная хаотичность может позволить методу избежать местного оптимума и в конечном счете приблизиться к глобальному оптимуму. Действительно, этот принцип рандомизации, как известно, является простым и эффективным способом получить алгоритмы с почти определенной хорошей работой однородно через многие наборы данных для многих видов проблем. Стохастические методы оптимизации этого вида включают:

См. также

Внешние ссылки

Программное обеспечение

ru.knowledgr.com

Один прямой метод стохастической оптимизации Текст научной статьи по специальности «Математика»

7. Кремлёв А. Г., Гребенникова И. В. Об асимптотике ансамбля траекторий управляемой сингулярно возмущенной системы с запаздыванием // Новости научной мысли - 2006 : материалы науч.-практ. конф. Днепропетровск, 2006. T. 4. С. 65-69.

8. Кремлёв А. Г. Итерационный метод решения задач оптимального управления сингулярно возмущенными системами при квадратичных ограничениях // Журн. вычислительной мат. и мат. физики. 1994. Т. 34, № 11. С. 1597-1616.

УДК 519.6

ОДИН ПРЯМОЙ МЕТОД СТОХАСТИЧЕСКОЙ ОПТИМИЗАЦИИ

В. В. Колбин, М. В. Свищикова

Санкт-Петербургский государственный университет E-mail: [email protected], [email protected]

Предлагается прямой метод стохастического программирования, основанный на пошаговом вычислении линейной аппроксимирующей программы.

Ключевые слова: стохастическое программирование, выпуклость, прямые методы.

9. Рокафеллар Р. Выпуклый анализ. М. : Мир, 1973. 492 с.

10. Васильева А. Б., Бутузов В. Ф. Асимптотические разложения решений сингулярно возмущенных уравнений. М. : Наука, 1973. 192 с.

11. Кириллова Ф. М. Относительная управляемость линейных динамических систем с запаздыванием // Доклады АН СССР. 1967. Т. 174, № 6. С. 1260-1263.

12. Натансон И. П. Теория функций вещественной переменной. М. : Наука, 1974. 468 с.

A Direct Method of Stochastic Optimization V. V. Kolbin, M. V. Svishchikova

A direct method is proposed for stochastic programming. On each step the method uses solving of the linear program which is the linear approximation of input stochastic programs.

Keywords: stochastic programming, convex, direct methods.

ВВЕДЕНИЕ

Целью данной работы является получение эффективного алгоритма решения следующей, часто возникающей в экономических моделях, задачи стохастического программирования.

Требуется минимизировать целевую функцию / общего вида при ограничениях двух типов

f (х, и) ^ min,

д(х,и) < 0, H(и)х - h(u) < 0,

(1)

(2) (3)

где < = (<¿>1,..., <г)т € О С Яг — набор параметров задачи, О — пространство элементарных событий, / : О х Я+ ^ Я1, Я+ = {х | х > 0}, д : О х Я+ ^ Ят,

g =

( gi(x,u)\

\дт(х,и)/

, H =

( hii (и) ... hi n (и)\

\hki (и) ... hkn (и)

, h =

/hi (и)\

\hk (и)/

xi

x=

(4)

xn

Неравенства в (2) и (3) понимаются покомпонентно. Функции / и д предполагаются при любом значении набора < по х € Я+ выпуклыми и непрерывно дифференцируемыми.

В наборе < присутствуют параметры двух типов. В один тип входят такие случайные факторы, как спрос, погода, выход из строя оборудования и т.п. Они относятся к будущему. В другой — величины детерминированные, но известные неточно, такие как численность трудящихся, объем месторождения и т. п. Они относятся к прошлому или настоящему. Так же как и в первом типе, эти величины удобно трактовать как случайные с известными параметрами распределения.

Взаимосвязь между набором < и ограничениями (2) и (3) различна. Ограничения (3) должны выполняться при любой мыслимой реализации параметров (таково, например, ограничение числа пассажиров в такси). Иными словами, необходимо соблюдать при каждой случайной реализации условий задачи общие физические ограничения системы, которых нельзя нарушать вообще. Ограничения (2)

© Колбин В. В., Свищикова М. В., 2012

11

¡^rg^^pgja j^s-,,__Изв. Сарат. ун-та. Нов. сер. 2012. Т. 12. Сер. Математика. Механика. Информатика, вып. 4

должны выполняться в среднем (как, например, требование достаточной заполняемости конкретных авиарейсов, для того чтобы данное направление имело доходность и не было убыточным). Таким образом, необходимо, чтобы средние долговременные договорные обязательства в целом (поставки сырья и производство продукции, прибыль и т. п.) были удовлетворены, хотя при этом допускаются нарушения в кратковременных требованиях.

После введения случайностей в f, g, H, h решение задачи (1)-(4) становится случайным, что делает эту задачу как модель каких-то реальных событий неадекватной. Действительно, полученное решение задачи (1)-(4) xopt = x(u) должно быть принято до реализации настоящих случайных параметров из набора x, а те параметры из набора и, которые были известны неточно, так и остаются известными неточно к моменту принятия решения xopt. Иными словами, возникает порочный замкнутый круг: Природа делает свой ход и после принятия решения xopt, которое выбирается как функция от и.

Поэтому появление случайностей порождает серьезную проблему: формализацию понятия оптимальности параметров управления x в новых условиях, которое позволило бы создать новую задачу — задачу стохастической оптимизации. Известны различные приемы подобной формализации. Один из самых сложных — использование квантилей [1]. Другой способ — расчет управляющих параметров x по наихудшей реализации и [2-4], т. е. поиск argx ш minmaxf (x,u).

' x ш

Тем самым реализуется «правильный» порядок действий: Человек делает первый ход, стараясь добиться минимальности f (x,u), имея ввиду, что Природа после этого выберет и наихудшим образом. Поскольку на самом деле Природа не является сознательным противником Человека, поиск минимакса зачастую дает результат, субъективно воспринимаемый как неудовлетворительный.

Наиболее распространено применение детерминированных эквивалентов, которое обращается с Природой как c противником без интеллекта [2-7].

1. ПОСТРОЕНИЕ ДЕТЕРМИНИРОВАННЫХ ЭКВИВАЛЕНТОВ

При трактовке всех параметров набора и как случайных величин {ut}[=0 ограничение (2) согласно его смыслу естественно заменить на

E[g(x,u)] < 0, (5)

а ограничение (3) практически не меняется

H(u)x - h(u) < 0 V и е О. (6)

Здесь Е — символ математического ожидания.

Наиболее распространенный подход к формированию целевой функции [1-4] аналогичен трансформации (2) в (5) и дает

F(x) = Е [f (x, и)] ^ min, (7)

x^0

т. е. x надо выбрать так, чтобы среднее значение целевой функции было минимальным.

Найдем детерминированный эквивалент ограничениям (6), когда элементы матрицы H и столбца h имеют линейную зависимость от параметров и:

hj (и) = hj + h ¿j и, h¿ (и) = h¿ + h¿ и,

где h ¿j и h¿ — строки длиной r — (hj,..., hijr) и (h¿i,..., hir) соответственно, и все случайные величины из набора и распределены на конечных сегментах c полудлиной <5s > 0 : [и0 — ós,u° + <5s]. Тогда для любых значений переменных x существует максимум по и левых частей системы (6), т. е. величин

n n r

A¿(u) = H¿ (u)x — h¿ (u) = hijxj + h¿juxj — h¿ — h¿u = a¿s (x)ue + 0¿ (x). (8)

j=i j=i s=1

Здесь e¿(x) — скалярная функция, ais(x) = J^j hijsxj — his. Поскольку A¿(и) является сепарабельной функцией, то при сделанных предположениях относительно диапазонов изменения us максимайзер

12

Научный отдел

функции Aj(w) из (8) находится элементарно:

(Z>s(i,x) = <¿>0 + Ss signais(x), s = 1,r (9)

для каждого i-го ограничения из (6). Пусть (D = (Z>i,... ). Подставляя найденные максимай-зеры (9), i = 1,m, в каждую строку i-й функции-ограничения (6), получим детерминированный эквивалент для системы (6)

H(o>(i,x))x — hj(<¿>(i,x)) < 0, i = 1,k.

(10)

Его можно было бы снабдить эпитетом «настоящий», поскольку в отличие от детерминированных эквивалентов (5) и (7) он не требует переосмысления исходной задачи, а является сверткой по < каждого ¿-го ограничения из (6).

2. ИТЕРАТИВНЫЙ АЛГОРИТМ РЕШЕНИЯ ЗАДАЧИ (7), (5), (10)

Изложим для задачи (7), (5), (10) прямой итеративный алгоритм.

Шаг 0. Задается е ^ 0, натуральное число К, выбирается начальная точка х0 и назначается

у = х0, г = 0, я = 0.

Шаг 1. Генерируется случайный набор параметров < = < = (<,..., <) и составляется линейная программа

f (x*, о/) + V/(x*, a/)(x — x*)

x>0 '

g(x*,о*) + g'(x*,u/)(x — x*) < 0, Hj(w(i,x*))x — hj(w(i, x*)) < 0, i = l, k.

(11)

Здесь под градиентом понимается строка V/ = матрица Якоби

(dg!

dxi

f

dx1

' dxn

с помощью штриха обозначается

g =

dffm

V dx1

dgi \

dxr

dgm dxn /

Шаг 2. Система (11) решается одним из известных методов (например, симплекс-методом). Обозначим ее решение через Х.

Шаг 3. Положим = xt + pt(x* — xt). (Выбор весов pt обсудим после описания алгоритма.) Шаг 4. Если |xt+1 — y| > е, тогда {y := xt+1; S := 0; перейти на Шаг 5}.

S := S + |xt+1 — x*|.

Если S > Ке, то {вывод xt+1; выход из алгоритма}.

Шаг 5. Полагается t := t + 1. Переход к Шагу 1. (Таким образом, если предыдущее t обозначить через t', то после Шага 5 будет верно x* = x*'+1.)

Пояснения к алгоритму Формирование весов. Веса {pt }f° будем выбирать классическим образом [2-6] согласно аксиомам:

I. pt > 0 для всех t.

II. £ р2 < ГО.

t=1

n

III. £ pt ^ ГО при n ^ ro.

t=1

Такие веса существуют. Например, pt = 1/t. Они обеспечивают, с одной стороны, возможность уйти от «начальной» точки x0 к решению задачи (7), (5), (10), сколь далеко бы от «начальной» точки оно ни находилось (аксиома III). C другой стороны, в асимптотике «колебания» элементов последовательности {x*}f°, если она сходится к решению, относительно решения будут стремиться к

— min

Математика

13

Изв. Сарат. ун-та. Нов. сер. 2012. Т. 12. Сер. Математика. Механика. Информатика, вып. 4

нулю (аксиома II). Естественное требование смещения от текущей итеративной точки в направлении полученного минимума содержится в аксиоме I.

Правило остановки (Шаг 4). Зададимся конечной погрешностью е > 0. После £-й итерации сделаем еще столько шагов, чтобы их суммарная длина превосходила е в К раз. Другими словами,

-1

^ |Х+1 - X | > Ке.

Если при этом все итерации от г-й до (г + N)-й остаются в шаре радиуса е с центром X, т. е. {Х С , то на этом заканчивается итеративный процесс. В качестве ответа можно взять

последнюю итеративную точку из множества {xj .

Теорема. Алгоритм Шаг 1 - Шаг 5 с выбором весов согласно аксиомам I, II, III сходится.

Действительно, поскольку разность Х — X соответствует обобщенному градиенту, то приведенный алгоритм с указанным выбором весов подпадает под действие теоремы Ю. М. Ермольева [3], что обеспечивает сходимость этого алгоритма.

ЗАКЛЮЧЕНИЕ

Предлагаемый итеративный алгоритм вполне адекватен рассматриваемой задаче. Его сходимость имеет и некоторые недостатки, присущие сходимости классических прямых методов стохастического программирования, в частности замедление сходимости с возрастанием индекса шага итерации. Преимущество по сравнению с ними видится в более легком пошаговом решении линейной программы (11), чем вычисление обобщенного градиента с последующим нахождением проекции на допустимое множество [2, 3, 7].

Представляется интересным расширение области применения приводимого алгоритма на задачу более общего вида, а именно на ограничения вида (3) с нелинейностью по x.

Библиографический список

1. Кибзун А. И., Кан Ю. С. Задачи стохастического программирования с вероятностными критериями. М.: Физматлит, 2009. 372 с.

2. Ермольев Ю. М., Ляшко И. И., Михалевич В. С., Тю-пля В. И. Математические методы исследования операций. М. : Наука, 1979. 312 с.

3. Ермольев Ю. М. Методы стохастического программирования. М. : Наука, 1976. 340 с.

4. Поляк Б. Т. Введение в оптимизацию. М. : Наука, 1979. 384 с.

5. Юдин Д. Б. Математические методы управления в условиях неполной информации. М. : Сов. радио, 1974. 400 с.

6. Kolbin V. V. Stochastic programming. Boston, USA : D. Reidel Publ. C., 1977. 325 p.

7. Ермольев Ю. M, Норкин В. И. Методы решения невыпуклых негладких задач стохастической оприми-зации // Кибернетика и системный анализ. 2003. № 5. С. 89-106.

УДК 517.937: 517.983

УСЛОВИЯ ОБРАТИМОСТИ ОДНОГО КЛАССА НЕСАМОСОПРЯЖЕННЫХ ОПЕРАТОРОВ

С. В. Марюшенков

Воронежский государственный университет E-mail: stasint1 @ mail.ru

В данной работе получены условия обратимости одного класса несамосопряженных операторов, являющихся разностью неограниченного антисопряженного и нормального оператора.

Ключевые слова: несамосопряженный оператор, нормальный оператор.

The Conditions of Invertibility of a Class Nonselfadjoint Operators

S. V. Maryushenkov

In this work we obtain the conditions of invertibility of a class of nonselfadjoint operator that are difference between the nonbounded antisymmetric and the normal operator.

Key words: nonselfadjoint operator, normal operator.

© Марюшенков С. В., 2012

cyberleninka.ru


Prostoy-Site | Все права защищены © 2018 | Карта сайта