Имя материала: Оптимальное управление в экономике: теория и приложения

Автор: Лагоша Борис Александрович

7.2. условия оптимальности для многошагового процесса при наличии ограничений на управление

Рассмотрим задачу (7.1) - (7.4), в которой множество v*x по-прежнему совпадает со всем пространством X (i.t. других ограничений, кроме краевых условий (7.2), на состояние системы нет), a u*(t) не обязательно является внутренней точкой множества VMr. Пусть, кроме того, функция ф(/, х) дифференцируема по х, а функции/'(/, ху и), і = 1,2,..., я,/°(ґ, ху и) дифференцируемы по х, и в точках х*(0, u*(f).

Для представленной задачи нельзя использовать необходимое условие (7.9), выведенное в предположении, что u*(f) - внутренняя точка множества К-

Для решения воспользуемся теоремой о достаточных условиях оптимальности, согласно которой следует обеспечить выполнение условий (7.5) и (7.6).

Условие (7.6) выполняется тривиально, поскольку правый конец траектории закреплен (см. соотношение (7.2)). Рассмотрим выполнение условий (7.5). Условия (7.8), (7.14) - (7.16) имеют место на основании совпадения множества V*x со всем пространством X. Обеспечим выполнение условия max R(t, х, и) при фиксированном х, т.е.

 

/?(*,**(г),и*(*))= max /?(*,**(г),и(г)), t = 0,1,...,Г-1.

ueVx

Рассмотрим, как связан факт максимизации функции R(t, х, и) по иеУц со свойствами градиента этой функции по управлению.

Пусть и - скляр. Тогда множество V* — отрезок: У*и = {и: a(t) < <и< b(t)}, t = О, 1,..., Г—1; момент времени / фиксирован.

Конкретизируем необходимые условия maxtf(f,x,w) при фик-

ueV!,

сированном х в зависимости от расположения и* внутри отрезка или на его границах. Рассмотрим три случая (рис. 7.1).

 

grad^       N    N дгадиН

            4          1-+      1          4Н       ►        ►

-1         0          < и

 

Рис. 7.1. Условия оптимальности для -г— sun —— > U

ои ои

1. Если и* є (а, Ь), т.е. и* — внутренняя точка отрезка, то

ЭЛ.     _ЭЯ(;,х*(0,У(' + 1),Ц),     _п (721)

2. Если и* = д, то необходимым условием тах/?(г,л:,м) ПрИ

ueV'

фиксированном х будет следующее ограничение на градиент функции:

 

|-Я(г,х*(0,Ч/(г + 1),іі))|иФ=в<0. (7.22)

 

3. Если w* = Ь, то необходимым условием тах/?(г,х,м) при

фиксированном х будет следующее ограничение на градиент функции #(/, х, |/, w):

 

|- H(t,x*(t)M* + L*=^0. (7.23) сш

Пусть и - вектор, a - множество допустимых значений и с гладкой границей S. В каждой точке границы S можно построить к ней внешнюю нормаль N. Для наглядности примем г = 2, тогда VMr — плоскость. Рассмотрим два случая.

Если и* - внутренняя точка множества vj, тогда необходимое условие max/?(r,x,w) при фиксированном х(0 будет

uev'

 

э17 u*(0'"*(0  Э^ L*(r)"

Если w* лежит на границе области 5, проведем внешнюю нормаль Nk границе S множества Ухи (рис. 7.2).

Тогда необходимым условием max/?(r,x,w) при фиксирование^'

ном x(t) будет ограничение на градиент функции

 

(yv,gradu//(r,x* (t)Mt +1), и) u4t)) > 0, (7'24)

 

в котором условие (7.24) отражает скалярное произведение соответствующих векторов.

Рис. 7.2. Внешняя нормаль и gradM H(t, х, у, и)

Итак, ограничения (7.24), а также их частный случай (7.21) -(7.23) являются только необходимыми условиями оптимальности, а состояние х*(0 и управление м*(0, полученные из них, -не более как подозрительные на оптимум, для которых может потребоваться проведение дополнительного исследования, аналогичного непрерывному варианту. В частности, если правые части уравнений процесса (7.1) линейны по и, то полученные с помощью сформулированных выше необходимых условий оптимальности состояние и управление являются оптимальными, т.е. эти необходимые условия оптимальности оказываются достаточными.

Существенная трудность метода (7.24), как видно из рис. 7.2, заключается в необходимости проверки ограничений (7.24) в каждой граничной точке области S. Уже для двумерной области таких точек бесконечное множество. Принятие для расчетов конечного числа точек чревато ошибками, хотя с использованием ЭВМ таких точек может быть взято достаточно много. Рассмотрим пример, на котором могут проясниться вычислительные аспекты.

Пример 7.2. В стандартной записи многошагового процесса (7.1)-(7.4) заданы:/0 = х{/1 =х{ +2х2 + u,f2 = u, F(x(T))= = 0, л = 2, г= 1>|< 1,х(0) = х0.

Так как на и есть ограничение, то быть уверенным в том, что u*(t) - внутренняя точка допустимой области Vj, нельзя. Поэтому будем исходить из дополнительного ограничения (7.24).

Строим функцию Гамильтона:

H(t,x,\f,u) = \f](x] + 2x2 + u) + \f2u-xl • Из ограничения (7.24) (см. рис. 7.1) имеем:

ЭЯ(;,**(0,у(г + 1),и) ди

dH(t,x*(t)Mt + lU) ди

Вычисляем

 

ЭЯ(г,**(г),у(г + 1),и)

|w*(r)>0 при и*(t) = 1; Ur)<0 при и*(г) = -1.

 

L*(/)=ViU + l) + V2^ + 1)*

 

следовательно,

 

и*(0 =

1;         Vi(f + l) + |f2(* +1)>0;

-1;        \f(t +l) + \f2(t +1)<0;

Vmg[-1;1];  ^(f+1)+ |/2(ґ +1) = 0.

(7.25)

 

Остальные уравнения метода Лагранжа:

 

¥2 (0 = 1^" '^(/)'    v(/+l)=2¥l (r+1}"

х*(г +1) = xi*(0 + 2^2(0 + и *(0;

*2(' + 1) = и*(0.

 

Начальные условия:

 

х (0)=х0]1х2(0)=х02.

Условия трансверсальности:

V,(7) = v2<7) = 0.

(7.26)

Постановка задачи метода Лагранжа закончена. Теперь приступаем к ее решению. Из условий трансверсальности (7.26) имеем

 

Ж,(7) + v2(7) = О,

откуда, используя выражение (7.25) для м*(ґ), получаем

 

и*(Г -l) = Vne[-l,l].

Для удобства вычислений постараемся выразить зависимости от t через зависимости от t + 1:

 

и * (О = X J (t +1) = sign (Vj (f + 1) + |f 2 (г +1));

2x*(0 + Vi(0 = Vi(*+1); |f2(0 = 2|f1(f+1);

дг*(0 +2^2(0 = **(* +l)-*2(f +1);

jf2(0 = sign (^(0 +¥г(0);

*l)=X0i;*2(0)=X02; |/1(Г)=0;|/2(Г)=0.

 

Вследствие наличия операции

 

sign z =

1,

-1,

Ve[-l;l],

z>0; z<0; z = 0

 

краевая задача нелинейная.

Проведем две смежные итерации, они должны прояснить ситуацию в направлении решения.

Первая итерация.

/ + 1

= T - 1.

Из условий трансверсальности (7.26) имеем у^Т) + \f2(T) = 0.

Положим х2(Т) = а, где а — пока неопределенное число, |сс| < 1.

Принимаем произвольное значение х*(7) = р. Значения аир

должны быть определены, как мы уже знаем, на последней

итерации, исходя из требования, чтобы имело место хх (0) = *oi> *

Х2 =*02-

Из краевой задачи после простых преобразований получаем:

2х*(Г -1) + |/,(Г -1) = 0; Ж2(Г-1)=0;

х*(Г-) + 2х2(Г -1) = р-а;

х*2(Г -1) = sign (Vl(T -1) + щ(Г -1)).

После исключения неизвестных и ряда упрощений приходим к решению нелинейного уравнения:

х*2(Г -1) = sign (*2(Г-1) + І(а-Р)).

 

Решение этого уравнения, как нетрудно убедиться посредством прямой подстановки, имеет следующий вид:

х2(Т-) =

а-р>2; ос-Р<-2;

|<х-р<2|; |ос-Р = 2|.

Рассматривать нужно все варианты полученного решения, так как аир пока не определены. Известно только, что Ja| < 1, а Р — произвольное число. Последовательно определяем хх (Т— 1), у, (7М), |/2 (7М). Здесь х*2(Т-) - различные варианты представленного выше решения.

Вторая итерация:

/+ 1 = 7М; t= Т-2.

Выполняя действия, аналогичные первой итерации, и исключая все переменные, кроме х2(Т—2), получим нелинейное Уравнение х*2 (Т - 2) = sign (4*2 (Т - 2) + 3|/, (Т -1) - 2х* (Т -1) + 2x2 (г " !))•

Здесь \f{ (7і—1), х*(7М), jc2(7"— 1) — определенные выше функции неизвестных величин аир.

Таким образом, на п-й итерации получим уравнение

х(Т -п) = sign (Апх*2(Т -n) + Fn(ос,(3)),

где Ап- рассчитанный коэффициент; Fn— заданная функция а и р.

Аналитическое решение такого уравнения, как видим, оказывается трудоемким и громоздким. Проще на первой итерации задавать численные значения а и р, с помощью ЭВМ доводить решение до конца, т.е. до начальных значений, сравнивать полученные ху(0) с заданными. При несовпадении заданных и полученных значений изменять а и р и вновь повторять серии расчетов до приемлемой близости начальных условий. Подобная вычислительная процедура уже упоминалась в разд. 1.6. Полная ее демонстрация будет представлена в главе 8.

 

Задачи для самостоятельной работы

В следующих задачах найти процесс, удовлетворяющий необходимым условиям оптимальности Лагранжа. Выделить случаи достаточности.

X [х2(г) + и2(0] + 2jc(5) -> min; t=0

x(t + l) = -x(t) + u(t) jt(0) = 0.

£ [x(t) + 2u(t) + u2(t)] -> min;

x(t + l) = -x(t) + 2u(t) jc(0) = 1, jc(5) = 1.

2 [4и2(0 - x(t)] - Xі(4) -> min;

r=0

jc(/ + 1) = 2jc(/)-w(0; jc(0) = 2. з

J) [jc2(r) + и2(г)] + 3jc2(4) -> min; /=0

jt(f+ 1) = -jc(0 + 2h(0; jc(0) = 1.

X [jc(0 + 2и2(0]-x(5) + 2jc2(5) -> min;

jc(/ + 1) = -jc(0 + 2h(0; *(0) = 1.

з

2 [x,2(/) -x2{t) + н,2(0 + «2(0] + *2(4) -> min; r=0

xl(t + l) = 2xl{t)-x2(t) + ul(t); x2(t + l) = -xl(t) + x2(t)-u2(t); x,(0) = l.X2(0) = l.

Страница: | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 | 18 | 19 | 20 | 21 | 22 | 23 | 24 | 25 | 26 | 27 | 28 | 29 | 30 |