Пояснительная записка Курсовая работа по дисциплине «Методы оптимизации» тпжа 220201. 072 Пз icon

Пояснительная записка Курсовая работа по дисциплине «Методы оптимизации» тпжа 220201. 072 Пз






Скачать 306.67 Kb.
НазваниеПояснительная записка Курсовая работа по дисциплине «Методы оптимизации» тпжа 220201. 072 Пз
Чернышов Н.С
Дата конвертации21.07.2013
Размер306.67 Kb.
ТипПояснительная записка





МИНИСТЕРСТВО ОБРАЗОВАНИЯ РОССИЙСКОЙ ФЕДЕРАЦИИ

ВЯТСКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ

Факультет автоматики и вычислительной техники

Кафедра автоматики и телемеханики


Решение задач оптимизации




Пояснительная записка


Курсовая работа по дисциплине

«Методы оптимизации»


ТПЖА 220201. 072 ПЗ


Разработал студент гр. У ____________________ /Чернышов Н.С./

(подпись)


Руководитель работы _____________________ / Микрюкова В.И./

(подпись)


Киров 2011


ВЯТСКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕСИТЕТ

ФАКУЛЬТЕТ АВТОМАТИКИ И ТЕЛЕМЕХАНИКИ

Кафедра Автоматики и телемеханики

ЗАДАНИЕ НА КУРСОВУЮ РАБОТУ


по дисциплине «Методы оптимизации»


ТЕМА: “Решение задач оптимизации”


Студент ______________________________________________________

Группа ________


  1. Исходные данные: Функция двух переменных:

.

х(0)=[-10,-10]T-начальная точка.


  1. Цель задания: Найти минимум функции методами прямого поиска и градиентными методами.

  • методом равномерного симплекса;

  • методом Хука-Дживса;

  • методом сопряжённых направлений Пауэлла;

  • методом Коши;

  • методом Ньютона;

  • методом сопряжённых градиентов;

  • квазиньютоновским методом;

  • методом штрафных функций (получив ограничения на решение).


Предварительно необходимо найти стационарную точку Х и определить характер экстремума из необходимых и достаточных условий.


Окончание поиска:

  1. в методе равномерного симплекса после завершения одного оборота симплекса в области расположения стационарной точки.

  2. в методе Хука-Дживса после первого сокращения шага поиска;

  3. в методе Коши после выполнения четырёх итераций;

В остальных методах экстремум определяется точно и за конечное число шагов.


Руководитель работы _______________ / Микрюкова В.И. / __.__.2011 г.

(подпись) (Ф.И.О. преподавателя)

Задание принял ___________________ /_________________/ __.__.2011 г.

(подпись) (Ф.И.О. студента)

Реферат

Чернышов Н.С. Методы нахождения условного и безусловного экстремума: ТПЖА 220201.011 ПЗ: Курс. работа / ВятГУ, каф. АТ; рук. В. И. Микрюкова.– Киров, 2011. ПЗ 29 с., 8 рис., 1 таблица., 4 источника


ФУНКЦИЯ НЕСКОЛЬКИХ ПЕРЕМЕННЫХ, БЕЗУСЛОВНАЯ ОПТИМИЗАЦИЯ, УСЛОВНАЯ ОПТИМИЗАЦИЯ, МЕТОДЫ ПРЯМОГО ПОИСКА, ГРАДИЕНТНЫЕ МЕТОДЫ,УСЛОВНЫЙ ЭКСТРЕМУМ.


Объект исследования – изучение методов решения задач оптимизации.

Цель работы – отработка навыков решения задач безусловной оптимизации функции нескольких переменных методами прямого поиска и отработка навыков решения задач безусловной оптимизации градиентными методами.


Решена задача безусловной оптимизации функции нескольких переменных методами прямого поиска и градиентными методами.


Содержание


  1. Задание на курсовую работу ………………………………………….

  2. Содержание…………………………………………………………….

  3. Введение………………………………………………………………..

  4. Основная часть…………………………………………………………

    1. Методы безусловной оптимизации

      1. Методы прямого поиска

4.1.1.1 Метод поиска по симплексу………………………...

4.1.1.2 Метод Хука-Дживса………………………………...

4.1.1.3 Метод сопряжённых направлений Пауэлла………..

4.1.2 Градиентные методы

4.1.2.1 Метод Коши…………………………………………

4.1.2.2 Метод Ньютона……………………………………..

4.1.2.3 Метод сопряженных градиентов…………………..

4.1.2.4 Квазиньютоновский метод…………………………

4.1.3 Методы Условного экстремума

4.1.3.1 Метод штрафных функций…………………………

4.2 Выводы……………………………………………………………..

  1. Заключение………………………………………………………… 37

  1. Библиографический список литературы……………………… 38




2

4

5

6


7

13

17


21

24

26

29


31

36



Введение

С развитием производственных отношений в стране, перед наукой встаёт серьёзная и очень важная проблема оптимизации рыночных отношений, внедрения компьютерной обработки данных в экономику. Значительное число нерешённых задач стоит перед человечеством накануне второго тысячелетия. Во времена, когда борьба уже идёт не за минуты и секунды, а за микросекунды, не за метры и сантиметры, а за миллиметры и доли миллиметров, когда возможность учесть, а главное исследовать влияние косвенных факторов на жизненно важные области деятельности человека, становится не второстепенной, оптимизационные методы минимизации и максимизации приобретают всё большую ценность и востребованность.


Развитие численных линейных методов решения задач линейного программирования очень важно в нынешнее время, поскольку сложность решаемых задач взваливает всю работу на современные ЭВМ, работающие с « единичками» и « ноликами», и « неподозревающих» о существовании производных, первообразных, интегралов и пр. И нахождение оптимального решения сводится к представлению его в виде численных методов.

Применение оптимизационных задач имеет особый успех при проектировании и анализе больших технических систем. Кроме того, интенсивное развитие средств вычислительной техники стимулирует ускорение темпов внедрения теоретических разработок в инженерную практику. В настоящее время для инженера знание методов оптимизации столь же необходимо, как знание основ математического анализа, физики, радиоэлектроники и других дисциплин.


Нахождение стационарной точки



Целевая функция:

f(x) = (x1-2)2 + (x2 -7)2 +x1•x2 ;

Частные производные f по x1 и x2:

∂f/∂x1=2•x1 + x2 –4;

∂f/∂x2=x1 + 2•x2 –14;


Приравниваем эти производные к нулю:




2•x1 + x2 –4 = 0;

x1 + 2•x2 –14= 0;


Совместное решение этих уравнений даёт результат:

x2 = 8 ;

x1 = -2 ;


Таким образом, экстремумом целевой функции является точка с координатами x[-2;8], значение целевой функции, в которой

[x(-2;8)] = 1.


Для определения характера стационарной точки заполним определитель матрицы Гессе. Под определителем Гессе понимается определитель, составленный из вторых производных исходной целевой функции.

;

= 3;

Так как определитель матрицы больше нуля, то стационарная точка является точкой минимума.

Задача определения экстремума свелась к нахождению минимума целевой функции f(x).




Методы прямого поиска.


Многомерные методы оптимизации, основанные на вычислении целевой функции f(x), можно разделить на эвристические и теоретические. В первых реализуются процедуры поиска с помощью интуитивных геометрических представлений. Данные методы обеспечивают получение частных эмпирических результатов. Теоретические методы основаны на фундаментальных математических теоремах и обладают такими операционными свойствами как сходимость.

Метод поиска по симплексу

Суть метода заключается в исследовании целевой функции в вершинах некого «образца», в двумерном случае треугольника, построенного в пространстве переменных вокруг «базовой» точки. Вершина, давшая наибольшее значение целевой функции отображается относительно двух других вершин и таким образом становится новой базовой точкой, вокруг которой строится новый образец и снова выполняется поиск. В рассматриваемом методе таким образцом является регулярный симплекс. В случае двух переменных симплексом является равносторонний треугольник, в трёхмерном пространстве – тетраэдр.

Работа алгоритма начинается с построения регулярного симплекса в пространстве независимых переменных и оценивания значений целевых функции в каждой точке. Затем определяется вершина с максимальным значением целевой функции и проектируется через центр тяжести оставшихся вершин в новую точку. Процедура продолжается до тех пор, пока не будет накрыта точка минимума. Поиск заканчивается тогда, когда размеры симплекса или разность значений целевой функции становятся достаточно малыми.



Некоторые замечания:

  1. Если вершина с максимальным значением целевой функции построена на предыдущем шаге, то отбрасывается вершина со следующим по величине значением целевой функции.

  2. Если вокруг одной из вершин начинается циклическое движение, то необходимо уменьшить размеры симплекса.

При заданной начальной точке х(0) и масштабном множителе , координаты остальных N вершин симплекса в N – мерном пространстве вычисляются по формуле:


xj(0) + 1, если i = j;

x(i) =

xj(0) + 2, если i  j.

Приращения 1 и 2 определяются по формулам:

;

;

Величина α выбирается исследователем, исходя из характеристики решаемой задачи.

Вычисление центра тяжести:

Если х(i) – точка, подлежащая отражению, то координаты центра тяжести определяется по формуле:

;

Координаты новой вершины удовлетворяют уравнению

xнов( j ) = x( j ) + λ•(xc – x( j ));

Для того, чтобы симплекс обладал свойством регулярности, отображение должно быть симметричным, т.е. λ = 2.

xнов( j ) = 2•xc – x( j );

Если некоторая вершина симплекса не исключается на протяжении нескольких итераций, то необходимо уменьшить размер симплекса и построить новый симплекс, выбрав в качестве базовой точку с минимальным значением целевой функции.


Нахождение минимума целевой функции симплекс-методом.

Задание:

Найти минимум функции .

Начальные данные :

- начальный масштабный множитель;

- начальная точка;


Минимизируем целевую функцию до первого уменьшения размера симплекса.

Решение:

,

,


1.

;  заменяем

;

;

;

;

2.

;

; заменяем

;

;

;

3.

;

;

; заменяем

;

;

4.

;  заменяем

;

;

;

;

5.

;

; заменяем

;

;

;


6.

;

;  заменяем

;

;

;

7.

;

; ;

; заменяем

;

;

8.

;

; ; заменяем

;

;

;

9.

; заменяем

; ;

;

;

;

10.

;

;

; заменяем

;

;

11.

;

;

;  заменяем

;

;

12.

;

;  заменяем

;

;

;


13.

; заменяем

;

;

;

;


14.

;  заменяем

;

;

;

;


15.

;  заменяем

;

;

;




Симплекс сделал 1 оборот в области расположения точки х(13), т.е. точку х(13) при заданных условиях можно считать точкой минимума целевой функции f (для повышения точности необходимо уменьшить размер симплекса).

Таким образом точка х =– точка минимума, значение функции в которой f(x) =


Графическое приложение к Симплекс-методу.





Метод поиска Хука - Дживса


Метод относится к категории эвристических методов оптимизации. Процедура Хука - Дживса представляет собой комбинацию “исследующего” поиска с циклическим изменением переменных и ускоряющего поиска по найденному образцу. Исследующий поиск ориентирован на выявление характера локального поведения целевой функции и определение направления вдоль “оврагов”. Полученная в результате исследующего поиска информация используется затем в процессе поиска по образцу при движении по “оврагам”.


Исследующий поиск

Для проведения исследующего поиска необходимо задать величину шага, которая может быть различна для разных координатных направлений и изменяться в процессе поиска. Поиск начинается в некоторой исходной точке. Делается пробный шаг вдоль одного из координатных направлений. Если значение целевой функции в пробной точке меньше, чем в исходной, то шаг считается удачным. В противном случае возвращаются в исходную точку и делают шаг в противоположном направлении. После перебора всех N координат исследующий поиск заканчивается. Полученную в результате исследующего поиска точку называют базовой.


Поиск по образцу

Поиск по образцу заключается в реализации единственного шага из полученной базовой точки вдоль прямой, соединяющей эту точку с предыдущей базовой точкой. Новая точка определяется по формуле:

xр(к + 1) = x(к) + [x(к) - x(к - 1)] ;

Как только движение по образцу не приводит к уменьшению целевой функции, точка xр(к + 1) фиксируется в качестве временной базовой точки и выполняется исследующий поиск. При улучшении значения целевой функции эта точка рассматривается как новая базовая точка. Если же исследующий поиск не дал результата, необходимо вернуться в предыдущую точку и провести исследующий поиск.

Поиск завершается, когда величина шага приращения становится достаточно малой.


Метод Хука-Дживса

х – векторная величина приращения

х = 1;

 - коэффициент уменьшения шага.



 - минимальное значение приращения α, при котором ещё стоит искать минимум.

В условиях данной задачи ограничимся значением α =1, т.е. будем искать минимум до первого уменьшения приращения.


Будем искать минимум до первого уменьшения приращения.

f(x) = (x1-2)2 + (x2-7)2 + x1•x2;

х(0)=[-10;-10]T .

х(0)=[-10;-10]T f = 533


  1. Исследующий поиск вокруг базовой точки х(0):

фиксируя х2, даём приращение переменной х1:

х2=-10; х1=-10+1=-9  f =500<533удача

фиксируя х1, даём приращение переменной х2:

х1=-9; х2=-10+1=-9  f = 458<500удача

х(1) = [-9;-9]T;

Т.к. поиск был удачным, переходим к поиску по образцу:

хp(2) = 2•х(1) – х(0);

хp (2) = [-8;-8]T f =389



  1. Исследующий поиск вокруг точки хp (2):

фиксируя х2, даём приращение переменной х1:

х2=-8; х1=-8+1=-7  f = 362<389удача

фиксируя х1, даём приращение переменной х2:

х1=-7; х2=-8+1=-7  f = 326<362удача

х(2) = [-7;-7]T;

Т.к. поиск был удачным, переходим к поиску по образцу:

хp (3) = 2•х(2) – х(1);

хp (3) = [-5;-5]T  f =218



  1. Исследующий поиск вокруг точки хp (3):

фиксируя х2, даём приращение переменной х1:

х2=-5; х1=-5+1=-4  f = 200<218удача

фиксируя х1, даём приращение переменной х2:

х1=-4; х2=-5+1=-4  f = 173<200удача

х(3) = [-4;-4]T;

Т.к. поиск был удачным, переходим к поиску по образцу:

хp (4) = 2•х(3) – х(2);

хp (4) = [-1;-1]T  f =74



  1. Исследующий поиск вокруг точки хp (4):

фиксируя х2, даём приращение переменной х1:

х2=-1; х1=-1+1=0  f = 68<74удача

фиксируя х1, даём приращение переменной х2:

х1=0; х2=-1+1=0  f =53<68удача

х(4) = [0;0]T;

Т.к. поиск был удачным, переходим к поиску по образцу:

хp (5) = 2•х(4) – х(3);

хp (5) = [4;4]T  f =29.


5. Исследующий поиск вокруг точки хp (5):

фиксируя х2, даём приращение переменной х1:

х2=4; х1=4+1=5  f = 38>29неудача

х1=4-1=3  f = 22<29удача

фиксируя х1, даём приращение переменной х2:

х1=3; х2=4+1=5  f =20<22удача

х(5) = [3;5]T;

Т.к. поиск был удачным, переходим к поиску по образцу:

хp (6) = 2•х(5) – х(4);

хp (6) = [3;5]T  f =85.


В результате исследующего поиска не было достигнуто увеличение значения целевой функции, т.е. значение шага нужно уменьшить. Таким образом, мы получили, что нужно уменьшить приращение для х1 и х2:

α = 1/2=0.5;

Далее необходимо произвести исследующий поиск вокруг точки

х (5) = [3][5], используя новое значение приращения α =0.5;

Когда α достигнет какого-то небольшого значения, заданного пользователем, поиск экстремума можно прекратить.

Т.о. мы получили точку х = [3;5]Т, значение функции в которой

f(x) = 20. Это значение значительно приближено к значению функции в стационарной точке (1), однако дальнейший ход решения укажет на улучшение результата.


Вывод: Как и в предыдущем методе, необходимо большое количество итераций для достижения точки оптимума целевой функции. Так же метод обладает низкой точностью.


Графическое приложение к методу Хука-Дживса:




Метод сопряженных направлений Пауэлла

Метод относится к категории теоретических методов оптимизации. Метод ориентирован на решение задач с квадратичными целевыми функциями. Основная идея алгоритма заключается в том, что если квадратичная функция N переменных приведена к сумме квадратов, то ее оптимум может быть найден в результате реализации N одномерных поисков по преобразованным координатным (сопряженным) направлениям. Сопряженные направления определяются алгоритмически. Для нашего двумерного случая реализация метода требует три одномерных поиска. Для нахождения экстремума квадратичной функции N переменных необходимо выполнить N2 одномерных поисков.


Метод сопряжённых направлений Пауэлла


Решение:

Целевая функция:



Начальная точка:

Значение целевой функции в этой точке:

Шаг 1. Зададим исходные точки S(1) и S(2):

S(1) = [1;0] S(2) = [0;1]

Шаг 2. Найдем значение , при [Х(0)+2S(2)]. Произвольная точка на луче из точки Х(0) в направлении S(2) определяется как

Х = Х(0) + S(2) = [-10;-10] + [0;1]

откуда X1 = -10 X2 = - 10

Подставляя эти значения в целевую функцию, получаем


(Х) =

Дифференцируем это выражение по и приравниваем нулю:

’(X) = 2 - 44

2 - 44 = 0

Отсюда находим :

 = 22

X(1) = [-10;-10] + 12[0;1] = [-10;12]

[X(1)] = 49

Аналогично найдем значение , при [Х(1)+S(1)].

Х = Х(1) + S(1) = [-10;12] + [1;0]

откуда X1 = -10 X2 =12

Подставляя эти значения в целевую функцию, получаем

(Х) =

Дифференцируем это выражение по и приравниваем нулю:

’(X) = 2 - 24

2 - 24 = 0

Отсюда находим :

= 12

X(2) = [-10;6] + 12[1;0] = [-2;12]

[X(2)] = 17


Также найдем значение , при [Х(2)+2S(2)].

Х = Х(2) + S(2) = [-2;12] + [0;1]

откуда X1 = -2 X2 = 12 +

Подставляя эти значения в целевую функцию, получаем


(Х) =

Дифференцируем это выражение по и приравниваем нулю:

’(X) = 8 + 2

8 + 2 = 0

Отсюда находим :

 = -4

X(3) = [-2;12] – 4[0;1] = [-2;8]

[X(3)] = 1


Шаг 3. Положим

S(3) = X(3) – X(1) = [8;-4]


Направление S(3) оказывается сопряженным с направлением S(2). Поскольку N = 2, то оптимизация вдоль направления S(3) дает искомый результат.
Шаг 4. Найдем такое значение , при [X(3) + S(3)]

X = X(3) + [8;-4] = [-2;8] + [8;-4]

X1 = -2 + 8 X2 = 8 – 4



’(X) = 96

отсюда

= 0

тогда

Х(4) = [-2;8]+0*[8;-4] = [-2; 8]


Таким образом, получили точку х= [-2;8]T, значение функции в которой f(x) = 1, совпадает со стационарной точкой.


Вывод: метод сопряженных направлений Пауэлла обеспечивает высокоточный при малом количестве итераций по сравнению с предыдущими методами.


Графическое пояснение метода сопряженных направлений Пауэлла:




Методы прямого поиска являются удобными при простых целевых функциях, или когда необходимо найти оптимум с невысокой степенью точности. Но требуют больших затрат времени и вычислительных ресурсов, из-за большого числа проводимых итераций: метод поиска по симплексу – 16 итераций, метод Хука-Дживса – 5 итераций, метод сопряженных направлений Пауэлла – 4 итерации.


Градиентные методы поиска экстремума функции

В отличие от методов прямого поиска градиентные методы поиска используют информацию о производных функции. Это позволяет уменьшить количество необходимых вычислений значений функции. Эти методы делятся на две группы: методы, использующие информацию только о первых производных, и методы, учитывающие информацию и первых, и вторых производных.


Описание метода Коши

В методе Коши или методе наискорейшего спуска в качестве направления поиска выбирается направление антиградиента. Алгоритм метода выглядит следующим образом:

x(k + 1) = x(k) - (k)f(x(k)), где f (x) – градиент.

Значение (k) на каждой итерации вычисляется путем решения задачи одномерного поиска экстремума f(x) вдоль направления градиента f(x(k)). Если в качестве (k) взять некоторое положительное число, то получится простейший градиентный алгоритм:

f(k + 1) = x(k) - f(x(k));

Одно из главных достоинств метода Коши является его устойчивость, так как всегда выполняется условие

f(x(k + 1))  f(x(k));

Однако вблизи экстремума скорость сходимости алгоритма становится недопустимо низкой, так как вблизи экстремума значение градиента стремится к нулю.


Метод Коши:

f(x)= (х1 - 2)2 + (х2 – 7)2 +х1•х2

Условие окончания поиска: выполнение четырех итераций.

∂f/∂x1=2•x1 + x2 – 4 ∂f/∂x2=x1 + 2•x2 –14

Зададим начальное приближение х(0) = [-10;-10]Т .

Новое приближение определим по формуле:

х(1) = х(0) – α (0)•f (x(0) ).

f (x(0) ) = [-34;-44]T


  1. Выбираем α (0) такое, чтобы минимизировать функцию f (x(1) ).

x(1) = [-10;-10]T- α (0) [-34;-44]T = [-10+ α (0)•34;-10 + α (0)•44]T

По аналогии с предыдущим методом найдем α (0) = 0.3369;

x(1) = [1,4546; 4,8236]T


  1. Далее найдём точку x(2) = х(1) - α (1)•f (x(1) ).

f (x(1) ) = [3,7328; -2,8982]T

x(2) = [1,4546; 4,8236]T - α (1)•[ 3,7328; -2,8982]T

Найдем α (1) = 0,9695;

x(2) = [-2,1643; 7,6334]T


  1. Далее найдём точку x(3) = х(2) - α (2)•f (x(2) ).

f (x(2) ) = [-0,6952;- 0,8975]T

x(3) = [-2,1643; 7,6334]T - α (2)• [-0,6952;- 0,8975]T

Найдем α (2) = 0,3368;

x(3) = [-1,9901;8,0677]T


  1. Далее найдём точку x(4) = х(3) - α (3)•f (x(3) ).

f (x(3) ) = [0,0035; 0,029]T

x(4) = [-1,9901;8,0677]T - α (3)• [-0,0135; 0,059]T

Найдем α (3) = 0,128;

x(4) = [2,0005 ; 8,0601]T


После выполнения четырех итераций получено практически точное решение х* = х(4), при котором значение целевой функции f*=1,0036.


Графическое пояснение метода Коши




Вывод: метод Коши обеспечивает высокую точность при очень малом количестве итераций, т.к. использует информацию о производных.


Метод Ньютона

Этот метод использует информацию о вторых производных целевой функции. Эта информация появляется при квадратичной аппроксимации целевой функции, когда при её разложении в ряд Тейлора учитываются члены ряда до второго порядка включительно. Алгоритм метода выглядит следующим образом

x(k + 1) = x(k) - 2f(x(k))-1f(x(k)), где 2f(x) – матрица Гессе.

В случае, когда матрица Гессе положительно определена, то направление поиска по методу Ньютона оказывается направлением спуска.


Нахождение минимума целевой функции методом Ньютона:

Исходные данные:

Целевая функция

Нахождение минимума целевой функции методом Ньютона:

f(x) = x12 - 4•x1 + x2 2 - 14•x2 + x1•x2 + 51;

x(0) = [-10;-10]T

∂f/∂x1=2•x1 + x2 –2 ∂f/∂x2=x1 + 2•x2 –2

2f/∂x12=2

2f/∂x1∂x2=1

2f/∂x22=2

2f/∂x2∂x1=1





  1. 1

1 2
f(x) = [2•x1 + x2 –2;x1 + 2•x2 –2]T

двойные круглые скобки 6


2f(x) =


f (x(0) ) = [-34;-44]T;

x(1) = x(0) – [2f(x)]-1•f (x(0) );

прямоугольник 5

f(x(1)) = 1;

Мы получили точку х = [-2;8]Т, значение функции в которой f(x) = 1 за одну итерацию, что говорит о пригодности метода для нахождения минимума без использования ЭВМ.




Графическое приложение к методу Ньютона:





Вывод: методом Ньютона точка оптимума найдена за одну итерацию, что гораздо лучше, чем 2 итерации метода Коши, и десятки итераций при методах прямого поиска. Недостатками метода является необходимость знать 1 и 2 производные целевой функции. Иногда это трудно или невозможно. Также при значительно удаленном от оптимального решения x(0) метод Ньютона не отличается точностью, однако весьма эффективен вблизи точки x*.

Метод сопряженных градиентов

Данный метод обладает положительными свойствами методов Коши и Ньютона. Кроме того этот метод использует информацию только о первых производных исследуемой функции. Метод сопряженных градиентов позволяет получить решение за N шагов в N-мерном пространстве и обладает квадратичной сходимостью. В основе метода лежит организация поиска вдоль сопряженных направлений, причем для получения сопряженных направлений используется квадратичная аппроксимация целевой функции и значения компонент градиента. Операции аргумента проводятся по формуле

x(k + 1) = x(k) + (k)s(x(k)) ;

Направление поиска на каждой итерации определяется с помощью формулы

s(k) = -g(k) + s(k - 1) ;

В этом случае направление s(k) будет С - сопряжено со всеми ранее построенными направлениями поиска.

Если функция f(x1, x2, ... , xN) квадратичная, то для нахождения точки экстремума требуется определить N-1 таких направлений и провести поиски вдоль каждой прямой. Если f(x) не является квадратичной, то количество поисков возрастет.


Нахождение минимума целевой функции методом сопряжённых градиентов:


Решение:


f(x)= (х1 - 2)2 + (х2 – 7)2 +х1•х2

x(0) = [-10;-10]T


ШАГ 1:

f(x) = [2•x1 + x2 – 4 ; x1 + 2•x2 –14]T

f(x(0) ) = [-34;-44]T

s(0) = -g(0) = -f(x(0) ) = -[-34;-44]T

ШАГ 2:

Поиск вдоль прямой:

х(1) = х(0) - •f(x(0) )  0.3369;

х(1) = [-10;-10]Т – 0.3369•[-34;-44]T = [1,4546;4,8236]T


ШАГ 3:

Определим направление s(1):

g(1) = [3,7328; -2,8982]Т

s(1) = -g(1) + [ |g(1)|2 / | g(0)|2 ]•s(0) ;

s(1) = -[3,7328; -2,8982]Т - [22,3332 / 3092] • [-34;-44]T = [-3,9783; 2,5814]T


ШАГ 4:

Поиск вдоль прямой:

x(2) = x(1) + •s(1)  10,9864;

х(2) = [1,4546;4,8236]T + 0.9864*[-3,9783; 2,5814]T = [-2,3691;7.269]T


ШАГ 5:

Определим направление s(2):

g(2) = [-1.3686;-1.6299]Т

s(2) = -g(2) + [ |g(2)|2 / | g(1)|2 ]•s(1) ;

s(2) = -[-1.3686;-1.6299]Т - [4.5295 / 22.3332] • [-3,9783; 2,5814]T = [0.5618; 2.1534]T


ШАГ 6:

Поиск вдоль прямой:

x(3) = x(2) + •s(2)  20.5136;

х(3) = [-2,3691;7.269]T + 0.5136*[0.5618; 2.1534]T = [-2.0619; 8.1136]T


Таким образом, проделав 3 итераций, мы пришли к точке х(3)=[ -2.0619;8.1136], отличной от точки экстремума х*=[-2; 8] во втором знаке после запятой, что говорит о влиянии сокрашений на результат .


Графическое приложение к методу сопряжённых градиентов:





Вывод: метод сопряженных градиентов вобрал в себя все лучшее от методов Коши и Ньютона, т.е. одинаково хорошо доставляет минимум функции на значительном удалении от х* и вблизи нее.


Квазиньютоновский метод

Данный метод обладает положительными чертами метода Ньютона, однако, использует информацию только о первых производных. В этом методе приближение к очередной точке в пространстве оптимизируемых параметров задается формулой

x(k+1) = x(k) + (k)s(k) .

Направление поиска определяется выражением

s(k) = -A(k)(X(k)), где A(k) - матрица порядка NN.

Матрица A – вычисляется по формуле

A(k) = A(k-1) +Ac(k-1),где

Ac(k-1) = ; (1)

,где g(k) = g(k) - g(k-1) изменение градиента на предыдущем шаге.


Нахождение минимума целевой функции Квазиньютоновским методом:

Нахождение минимума целевой функции Квазиньютоновским методом:

f(x) = x12 - 4•x1 + x2 2 - 14•x2 + x1•x2 + 53;

x(0) = [-10;-10]T

∂f/∂x1=2•x1 + x2 –4 ∂f/∂x2=x1 + 2•x2 –14

ШАГ 1:

f(x) = [2•x1 + x2 –2; x1 + 2•x2 –2]T

f(x(0) ) = [-34;-44]T

Положим s(0) = -f(x(0) ) = [34;44]T;

ШАГ 2:

Поиск вдоль прямой:

х(1) = х(0) - •f(x(0) )  0,3369;

х(1) = [-10;-10]Т – 0.33369•[-34;-44]T = [1,4546; 4,8236]T;

Ш



  1. 0

0 1
АГ 3:


двойные круглые скобки 10


А(0) = Е =


х(0) = [1,4546; 4,8236]T - [-10;-10]T = [11,4546; 14,8236]T;

g(0) = g(1) – g(0) = [3,7328; -2,8982]T - [-34;-44]T = [34,7328; 41,1018]T;





А(1) = A(0) + Ac(0);



s(1) = - A(1)•g(1);

s(1) = [3,4698; -3,2128]T;

ШАГ 4:

Поиск вдоль прямой:

х(2) = x(1) + (1)s(1) = ;

(1) =1,01;


x(2) = [-2,06; 8,0657]Т

Точность метода позволяет уже на четвертом шаге считать текущую точку точкой-экстремумом. Т.е. х* = х(2) = [-2,06; 8,0657]Т;

f(x*) =1,012;


Вывод: Квазиньютоновский метод позволяет достаточно быстро вычислить точку оптимума, и использует информацию только о первых производных в отличии от метода Ньютона. Неточность появляется вследствие округления.


Графическое приложение к квазиньютоновскому методу:





Поиск условного экстремума


Все предыдущие методы поиска оптимума функции были предназначены для задач безусловной оптимизации. Ниже будет разобран метод штрафных функций, один из многих, предназначенных для решения более сложных задач, в которых область поиска ограничена из каких-либо практических соображений.

Метод штрафных функций


Суть метода заключается в преобразовании исходной целевой функции посредством включения в нее функции от ограничений, получая, таким образом, задачу безусловной оптимизации, для решения которой можно использовать рассмотренные в первой части методы. Переход от задачи условной оптимизации к задаче безусловной оптимизации осуществляется посредством включения в исходную функцию “штрафов” за нарушение ограничений задачи. Если исходная задача имеет следующий вид:

min f (x), ХRN

при ограничениях

gj (x) ≥ 0

hk(x) = 0, k = 1...K

то преобразованная задача имеет вид:
P(x,R) = f(x) + [R, h(x),g(x)]

,где  - штрафная функция от ограничений задачи, а R - штрафной пара-метр. Наличие штрафного параметра R вызвано тем, что введение штрафной функции сильно деформирует поверхность целевой функции, что, в свою очередь, приводит к ухудшению обусловленности преобразованной задачи. Поэтому параметр R служит “регулятором” веса штрафной составляющей в целевой функции, и процесс решения задачи разбивается на ряд вспомогательных задач с различными значениями параметра R и контролем сходимости их решений.


Виды штрафов

Квадратичный штраф имеет вид  = R{h(x)}2. Этот вид штрафов используется для учёта ограничений-равенств. Функция  непрерывна и имеет непрерывную производную, откуда следует, что если непрерывны и дифференцируемые f(x) и h(x), то стационарную точку можно найти ана-литически.

Логарифмический штраф

 = - Rln(g(x));

Этот штраф положителен для всех х таких, что 0 < g(x) <1, и отрицателен при g (x) > 1. Логарифмический штраф – это барьерная функция, неопределённая в точках, где g (x) < 0. Поэтому на начальном этапе поиска, когда значение шага поиска велико, необходимо обеспечить защиту процедуры от попадания рабочей точки в недопустимую область.

Штраф, заданный обратной функцией

 = R•1/g(x);

Как и предыдущий штраф, является барьерным. В допустимой области вблизи границы значение штрафа быстро убывает при продвижении внутрь допустимой области. На самой границе значение P(x,R) неопределено, как и в предыдущем случае возможно появление недопустимых точек.

Штраф типа квадрата срезки

 = R•2,

α, если α ≤ 0,

< α > =

0,если α > 0.

Этот штраф является внешним, и недопустимые точки не создают проблем по сравнению с допустимыми. Различие заключается в том, что в допустимых точках штраф равен нулю. Этот вид штрафа удобен тем, что P(x,R) непрерывна и определена всюду. Параметр R положителен и увеличивается от итерации к итерации.


Задача

Метод штрафных функций:


Исходные данные:

f(х12)=(х1–1)2+(х2–1)21·х2;

x(0) = [-10,-10]T – начальная точка.

Ограничение на решение:

h(x1,x2)= 2⋅x1-x2-2

Найдём минимум целевой функции f с заданным квадратичным штрафом:

h(x1,x2)= 2⋅x1-x2-2= 0.


P(x1,x2,R) =(х1–1)2+(х2–1)21·х2 + 1/R·(2⋅x1-x2-2)2.



Совместное решение даёт



Устремляя R к нулю, получаем = [32/28;8/28]; f () = 16.8364; h()=0.

Устремляя R к бесконечности, получаем = [2/3;2/3]; f () = 2/3; h()=-4/3.


Решим данную систему для различных значений R:

R


x1

x2

f(x1,x2)

10-4

1.141804

0.2857

1.09116

10-3

1.141679

0.28571

1.08046

10-2

1.120411

0.28574

1.08002

10-1

1.118161

0.28611

1.07046

1

1.096756

0.32258

0.99552

10

1.09615

0.482758

0.79552

102

0.73602

0.63416

0.69954

103

0.67405

0.66314

0.66670

104

0.667410

0.66678

0.66666


Видно, что при увеличении штрафного коэффициента R его влияние на целевую функцию снижается, что и предоставляет возможность отыскать ее экстремум с достаточно большой точностью.


Графическое приложение к методу штрафных функций:





Выводы по основной части работы


Рассмотренные группы методов безусловной оптимизации можно сравнить по скорости и точности их работы.

Методы прямого поиска, хотя и не требуют большей, чем значения целевой функции, информации о поведении последней, однако, производят большое количество итераций при доставлении решения с высокой точностью, так как поиск производится ими «вслепую». Так, эвристические алгоритмы поиска достигают решения за несколько десятков итераций, а теоретические выполняют до десяти итераций (в зависимости от вида функции).

Градиентные методы обладают большей скоростью, но требуют для своей работы информацию о поведении функции в виде производных, найти которые иногда очень сложно.

Их достоинством является высокая точность получения решений.

Таким образом, среди рассмотренных алгоритмов нет ни одного в полной мере универсального, подходящего для решения задач при любых условиях.

Заключение


Анализируя результаты исследования (сравнения) всех рассмотренных выше методов, можно прийти к выводу о том, что каждый из них имеет свои достоинства и недостатки и более применим для задач одних видов и менее – для других. Однако, пользователь всегда сможет найти подходящий алгоритм для решения своей конкретной проблемы, выбирая как из вышеприведенного множества методов, так и из огромного спектра их модифицированных, усовершенствованных и комбинированных вариантов.

Однако, есть целый класс проблем, где найти оптимум либо крайне сложно, либо вообще невозможно получить точное решение с помощью алгоритмов данных категорий. К таким задачам относится, например, моделирование глобальных социально-экономических процессов.

Библиографический список литературы:





  1. Карманов В.Г. Математическое программирование. – М: Наука. Главная редакция физико-математической литературы, 1986

  2. Коршунов Ю.М. Математические основы кибернетики. – М: Энергия, 1980.

  3. Микрюкова В. И. Методы оптимизации. Методические указания по выполнению курсовой работы. Киров, 2010.

  4. Микрюкова В. И.: курс лекций по дисциплине «Методы оптимизации».



Ваша оценка этого документа будет первой.
Ваша оценка:

Похожие:

Пояснительная записка Курсовая работа по дисциплине «Методы оптимизации» тпжа 220201. 072 Пз iconПояснительная записка Курсовая работа по дисциплине «Методы оптимизации» тпжа 220201. 129 Пз
345.5kb.  
Пояснительная записка Курсовая работа по дисциплине «Методы оптимизации» тпжа 220201. 072 Пз iconПояснительная записка Курсовая работа по дисциплине «Информационные сети и телекоммуникации» тпжа 220201. 003 Пз
10.6kb.  
Пояснительная записка Курсовая работа по дисциплине «Методы оптимизации» тпжа 220201. 072 Пз iconПояснительная записка Курсовой проект по дисциплине «электронные устройства» тпжа. 220201. 031125 пз
10.3kb.  
Пояснительная записка Курсовая работа по дисциплине «Методы оптимизации» тпжа 220201. 072 Пз iconПояснительная записка тпжа 210131. 072 Пз разработал студент гр. У-31 / Чернышов Н. С./ (подпись)
190.2kb.  
Пояснительная записка Курсовая работа по дисциплине «Методы оптимизации» тпжа 220201. 072 Пз iconПояснительная записка тпжа 210131. 072 Пз разработал студент гр. У-31 / Чернышов Н. С./ (подпись)
157.9kb.  
Пояснительная записка Курсовая работа по дисциплине «Методы оптимизации» тпжа 220201. 072 Пз iconПояснительная записка к курсовой работе По дисциплине «Методы оптимизации»
146.5kb.  
Пояснительная записка Курсовая работа по дисциплине «Методы оптимизации» тпжа 220201. 072 Пз iconПояснительная записка Курсовая работа по дисциплине " Сети и системы радиосвязи и средства их информационной защиты" тпжа. 210403. 61. 12. 009 Пз
621.7kb.  
Пояснительная записка Курсовая работа по дисциплине «Методы оптимизации» тпжа 220201. 072 Пз iconРасчетно-графическая работа №2 по дисциплине «методы оптимизации» Вариант №1 Факультет бизнеса Группа: фби-93
128.9kb.  
Пояснительная записка Курсовая работа по дисциплине «Методы оптимизации» тпжа 220201. 072 Пз iconРасчетно-графическая работа №1 по дисциплине «методы оптимизации» Вариант №1 Факультет бизнеса Группа: фби-93
87.5kb.  
Пояснительная записка Курсовая работа по дисциплине «Методы оптимизации» тпжа 220201. 072 Пз iconКурсовая научно-исследовательская работа пояснительная записка по дисциплине «Экспериментальные исследования»
340.3kb.  
Разместите кнопку на своём сайте:
Рефераты


База данных защищена авторским правом ©CoolReferat 2000-2018
обратиться к администрации | правообладателям | пользователям
Основная база рефератов
Рефераты