<< Пред. стр.

стр. 9
(общее количество: 14)

ОГЛАВЛЕНИЕ

След. стр. >>

[22, 79]. Поэтому теорема 2.3 может рассматриваться как результат
применения этой общей методологии к конкретной модели оперативного
управления продолжительностью проекта.
79
˜ ˜
? y ? A ? (y*) – c(y*) ? ? (y) – c (y).
˜ ˜
Подставим в это условие y = 0. Получим: ? (y*) – c(y*) ? ? (0).
˜
В силу введенных предположений ? <0, что противоречит А.2.4. •
Пример 3. В частном случае, когда штрафы центра линейны:
?(t) = ?0 t, действие (5) единственно (так как штрафы линейны, а
функция затрат АЭ строго выпукла), следовательно на отрезке
[0; T – T0] функция {c(y) - ?0 y)} достигает единственного максиму-
ма. Более того, оптимальное решение оказывается устойчивым по
параметрам модели в следующем смысле.
Обозначим ? = c’ –1(?0), где c’ –1(?) – функция, обратная произ-
водной функции затрат АЭ (она существует в силу А.2.5). Тогда
оптимальное решение задачи (3) можно записать в виде:
?T ? T0 , T ? T0 + ?
(6) y*(?) = ? .
?, T ? T0 + ?
?
Содержательно, в случае линейных штрафов центру не обяза-
тельно знать «точную» оценку реального времени T завершения
проекта (неизвестного и приближенно оцениваемого в ходе его
реализации), если оптимистичная оценка задержки T – T0 времени
завершения проекта превышает величину ?, которая зависит от
внешних штрафов и функции затрат АЭ, то оптимальное с точки
зрения внешних выплат центра сокращение продолжительности
проекта «не зависит» от оценки будущей его продолжительности. •
Итак, мы рассмотрели задачу оптимизации продолжительности
проекта за счет использования механизмов стимулирования в
одноэлементной активной системе. Перейдем к описанию много-
элементного случая.
Пусть имеется многоэлементная АС с n ? 1 активными элемен-
тами, каждый из которых отвечает за соответствующую операцию
(комплекс которых и составляет проект) и может сокращать ее
продолжительность, независимо от продолжительности других
операций. Обозначим yi ? 0 – время сокращения i-ой операции,
i ? I, где I = {1, 2, …, n} – множество АЭ.
Время сокращения продолжительности проекта ?T зависит от
порядка выполнения и технологической связи операций и является
функцией от сокращений каждой из операций (как критических,
так и околокритических), то есть: ?T = Y(y1, y2, …, yn). Получили
80
многоэлементную активную систему со слабо связанными элемен-
тами [79].
Пусть центр решил n задач типа (3) – по одной для каждого
АЭ. Результатом является набор {?i(yi)} минимальных затрат цен-
тра на стимулирование по реализации1 соответствующего вектора y
действий АЭ: y = (y1, y2, ,…, yn). Целевая функция центра имеет при
этом вид:
?(y) = ?(T – T0 – Y(y)) - ? ?i(yi).
i?I
Следовательно, задача стимулирования заключается в поиске
такого допустимого (y ? A’ = ?n) вектора действий АЭ, который
минимизировал бы целевую функцию центра ?(y). Задача
?(y) > min является стандартной задачей условной оптимизации.
y?A?
В качестве ограничения множества допустимых действий АЭ
может выступать, например, бюджетное ограничение: если фонд
оперативного управления центра ограничен величиной R, то, оче-
видно, допустимыми будут такие действия, для которых имеет
место: A’ = {y ? ? + | ? ?i(yi) ? R}.
n
i?I
В зависимости от технологической взаимосвязи показателей
операций (см. раздел 1.4, посвященный проблемам агрегирования
показателей освоенного объема) возможны различные зависимости
Y(?). Например, если операции выполняются последовательно, то
?T = ? yi, если параллельно, то ?T = min yi и т.д.
i?I
i?I
Проиллюстрируем использование предложенного похода к
решению задач стимулирования в многоэлементных АС на сле-
дующем примере.
Пример 4. Предположим, что штрафы линейны, а бюджетное
ограничение отсутствует и ?T = ? yi, тогда получаем набор
i?I




1
В случае оптимальности компенсаторных функций стимулирования
минимальные затраты центра на стимулирование определяются затра-
тами АЭ, то есть имеет место: ?i(yi) = ci(yi), i ? I.
81
одноэлементных задач, в каждой из которых оптимально решение
?1
типа (6) с соответствующей функцией ?i(?) = c i' (?), i ? I.
Если ?T = min yi, тогда, очевидно, что в оптимальном реше-
i?I
нии все АЭ должны завершить свои операции одновременно, то
есть ? v ? 0: ? i ? I yi = v. Следовательно, решение задачи стиму-
лирования заключается в поиске такого значения скалярной вели-
чины v, которое минимизировало бы целевую функцию центра, то
есть: ?(T – T0 – v) - ? ?i(v) > min . Получили стандартную зада-
v ?0
i?I
чу скалярной оптимизации. Если штрафы линейны, то оптималь-
ным оказывается следующее сокращение продолжительности
?1
? ?
проекта: v* = ? ? c i' (?)? ( ? 0 ) . •
?i?I ?
Итак, задача оперативного управления продолжительностью
проекта в случае многоэлементной АС со слабо связанными АЭ
сводится к параметрическому набору одноэлементных задач сти-
мулирования и задаче поиска оптимальных значений параметров.
Основную сложность при этом представляет решение одноэле-
ментных задач1, так как второй этап сводится к стандартной задаче
условной или безусловной оптимизации. Поэтому при изучении
задач стимулирования в условиях неопределенности мы ограни-
чимся рассмотрением, в основном, одноэлементных задач.
Рассмотрев детерминированные задачи стимулирования, пе-
рейдем к рассмотрению задач оперативного управления продолжи-
тельностью проекта в условиях неопределенности.




1
Для случая сильно связанных АЭ игра АЭ может быть декомпозирована.
При этом оптимальной является «компенсаторная» «одноэлементная»
система стимулирования, то есть сделанные качественные выводы,
относительно необходимости акцентирования основного внимания на
специфике одноэлементных задач, остаются в силе и в общем случае
многоэлементных АС, то есть при сильно связанных активных элемен-
тах.
82
2.2.2. Внешняя интервальная неопределенность
относительно результатов деятельности АЭ

В рамках модели, рассмотренной в предыдущем подразделе,
предположим, что реальное сокращение z ? A0 = A = [0; +?) про-
должительности проекта зависит от действия АЭ и от состояния
природы. Будем считать, что, выбирая свои стратегии, участники
проекта имеют информацию лишь об интервале возможных значе-
ний: z ? Z(y) = [Q-(y); Q+(y)]. Кроме того, предположим, что дейст-
вия, выбираемые АЭ, не наблюдаются центром, которому стано-
вится известен лишь результат деятельности. Поэтому
стимулирование АЭ центром уже не может (как в детерминирован-
ном случае) основываться на действиях АЭ, а должно зависеть от
неопределенной величины – результата деятельности.
Целевая функция АЭ равна: f(?, y, z) = ?(z) – c(y). Устраняя ин-
тервальную неопределенность, то есть применяя метод максималь-
ного гарантированного результата (МГР), получим, что гарантиро-
ванное значение целевой функции АЭ равно:
(7) fГ(?, y) = min ?(z) – c(y).
z?Z ( y )
Следовательно, в рассматриваемой модели множество реали-
зуемых действий АЭ есть P(?) = Arg max fГ(?, y).
y? A
Введем следующее предположение:
А.2.6. ? y ? A Q-(y) ? y, Q+(y) ? y; Q-(?), Q+(?) – строго возрас-
тающие непрерывные функции.
Если целевая функция центра зависит от фактического сокра-
щения продолжительности проекта z ? A0, то ее гарантированное
значение равно:
(8) ?Г(?, y) = max ?(z, ?).
z?Z ( y )
Итак, задача стимулирования имеет вид:
? ? г (? ( y * ), y * ) > min
? ? ?M , y *?[ 0;T ?T0 ]
(9) ? * .
? y ? Arg max f г (? , y )
? y ?0
Задача (9) является детерминированной задачей стимулирова-
ния (см. задачу (3)).
83
Теорема 2.4а. Система стимулирования
?c( y * ), z ? [Q ? ( y * ); Q + ( y * )]
(10) ?(y , z) = ?
*
,
z ? [Q ? ( y * ); Q + ( y * )]
? 0,
реализует действие АЭ y*. Оптимальное значение реализуемого
действия АЭ определяется следующим выражением:
max ?(z, ?(z)).
(11) y* = arg min
y?[ 0, T ?T0 ] z?Z ( y )
При этом гарантированное значение целевой функции АЭ рав-
но нулю.
Реализуемость действия y* ? A системой стимулирования (10)
следует из определения гарантированной реализуемости и предпо-
ложения А.2.6. Справедливость остальных утверждений теорема
2.4а очевидна. •
Отметим, что в условиях теоремы 2.4а не фигурирует правая
граница Q+(y) диапазона возможных значений результата деятель-
ности при заданном действии. Это объясняется тем, что при вычис-
лении МГР в (7) и (8) используется минимум (соответственно,
максимум) про множеству Z(y) (см. также [79]).
Содержательно, для того, чтобы побудить АЭ выбрать дейст-
вие y* ? A центр вынужден компенсировать ему затраты в размере
c(y*) во всем множестве Z(y).
Предположим, что функция штрафов центра монотонна, тогда
целевая функция центра имеет вид:
?(y) = max {?(T – T0 – z) + ?(y, z)}.
z?Z ( y )
Так как функция штрафов монотонна, а система стимулирова-
ния (10) кусочно-постоянна, то ?(y) = ?(T – T0 –Q-(y)) + c(y). Задача
?(y) > min является скалярной оптимизационной задачей.
y ?0
Пример 5. Пусть левая граница множества возможных резуль-
татов деятельности имеет следующий вид: Q-(y) = (1-?-)y, где вы-
полнено: ?- ? [0; 1], а функция штрафов линейна. Тогда получаем,
что оптимальное решение y* = arg min ?(y) имеет вид (3), где
y ?0
?(?) = c ((1 – ? )?0).
’-1 -

Легко проверить, что с ростом неопределенности (увеличением
? ? [0; 1]) эффективность стимулирования не возрастает. В пре-
-


84
дельном случае (при ?- = 0) решение задачи в условиях неопреде-
ленности переходит в решение соответствующей детерминирован-
ной задачи, что вполне согласуется с общими принципами, изло-
женными в [79]. •
Рассмотрим теперь случай, когда на момент принятия решений
участники АС информированы асимметрично (данная модель
близка к задачам стимулирования, рассмотренным в [79]): АЭ знает
достоверно каким будет результат деятельности z ? A0 в зависимо-
сти от выбираемого им действия: z = z(y), а центр имеет информа-
цию об интервале возможных значений: z(y) ? Z(y). Для простоты
можно положить ? y ? A z(y) = y.
Целевая функция АЭ равна: f(?, y) = ?(z(y)) – c(y). Следова-
тельно, в рассматриваемой модели множество реализуемых дейст-
вий АЭ есть P(?) = Arg max {?(z(y)) – c(y)}.
y? A
Если целевая функция центра зависит от фактического сокра-
щения продолжительности проекта z ? A0, то ее гарантированное
значение равно:
(12) ?Г(?, y) = max ?(z, ?).
z?Z ( y )
Итак, задача стимулирования имеет вид:
? ? г (? ( y * ), y * ) > min
? ? ?M , y *?[ 0;T ?T0 ]
(13) ? * .
? y ? Arg max {? ( z ( y )) ? c( y )}
? y ?0
Задача (13) является детерминированной задачей стимулиро-
вания (см. задачу (3)).
Теорема 2.4б. Система стимулирования
?c( y * ), z ? [Q ? ( y * ); Q + ( y * )]
(14) ?(y , z) = ?
*
,
? +
z ? [Q ( y ); Q ( y )]
* *
? 0,
реализует действие АЭ y*. Оптимальное с точки зрения центра
значение реализуемого действия АЭ определяется следующим
выражением:
max ?(z, ?(z)).
(15) y* = arg min
y?[ 0, T ?T0 ] z?Z ( y )
При этом гарантированное значение целевой функции АЭ равно:
fГ(y*) = c(y*) – c(Q-(y*)) ? 0.
85
Доказательство теоремы 2.4б аналогично доказательству тео-
ремы 2.4а и опускается. Обсудим качественное различие результа-
тов.
Отличие моделей заключается в том, что в задаче (13), по
сравнению с задачей (10), АЭ достоверно знает зависимость между
своим действием и результатом деятельности, а центру по-
прежнему известен лишь интервал возможных значений. Следова-
тельно, имеет место асимметричная информированность участни-
ков. Так как в обоих случаях информированность центра одинако-
ва, то одинакова в обоих случаях и максимальная гарантированная
эффективность управления (максимальное гарантированное значе-
ние целевой функции центра на множестве гарантированно реали-
зуемых действий АЭ). Отличие в информированности АЭ приводит
к тому, что увеличивается гарантированное значение его целевой
функции. Системы стимулирования (11) и (14) одинаковы, однако
АЭ имеет возможность «обмануть центр», то есть выбрать действие
Q-(y*) (обеспечив тем самым z = Q-(y*)) и получить при этом возна-
граждение c(y*) превышающее его реальные затраты c(Q-(y*)).
В предельном случае, то есть при увеличении информирован-
ности участников АС, задачи (10) и (13) и их решения переходят,
соответственно, в детерминированную задачу (3) и ее решение (5),
то есть принцип соответствия [79] имеет место.

2.2.3. Внешняя вероятностная неопределенность
относительно результатов деятельности АЭ

В рамках модели, рассмотренной в предыдущем подразделе,
предположим, что реальное сокращение z ? A0 = [0; +?) продол-
жительности проекта зависит от действия АЭ, но является случай-
ной величиной с интегральной функцией условного распределения
F(z, y) – модель теории контрактов [79, 105, 107, 133-136, 144].
Будем считать, что, выбирая свои стратегии, участники проекта
имеют информацию лишь об этом распределении. Кроме того,
предположим, что действия, выбираемые АЭ, не наблюдаются
центром, которому становится известен лишь результат деятельно-
сти. Поэтому стимулирование АЭ центром уже не может (как в
детерминированном случае) основываться на действиях АЭ, а

86
должно зависеть от случайной величины – результата деятельно-
сти.
Дополнительно к предположениям А.2.4 и А.2.5 введем сле-
дующее предположение относительно свойств функции распреде-
ления (модель простого активного элемента [22, 79, 42]):
? F ( z ), z < y
А.2.7. F(z, y) = ? , F(T - T0) < 1.
z?y
?1,
Содержательно предположение А.2.7 означает, что реальное
сокращение продолжительности проекта оказывается не большим,
чем действие АЭ. Кроме того, считается, что, даже если АЭ ориен-
тируется (выбирает действие) на такое сокращение длительности,
что продолжительность проекта в детерминированном случае
оказалась бы меньшей, чем плановая, то существует ненулевая
вероятность того, что фактическая продолжительность проекта
превысит плановую.
Так как функции полезности (не путать с целевыми функция-
ми! [78]) участников проекта:
(16) ?(?(z), z) = ?(z) + ?(z),
(17) f(?(z), z) = ?(z) – c(z)
зависят от случайных величин, распределения которых им
известны, будем считать, что они выбирают свои стратегии, стре-
мясь максимизировать ожидаемую полезность. Таким образом,
целевые функции участников определяются их ожидаемой полез-
ностью, то есть имеет место1: ?(?, y) = E ?(?, z) = E {?(z) + ?(T –
T0 – z)} , f(?, y) = E f(?, z) = E {?(z) – c(z)}, а задача управления
имеет вид:
? ? ? (? ( z ), z ) p ( z, y * ) dz > min
? A0 ? ?M , y *?[ 0;T ?T0 ]
(18) ? * .
y ? Arg max ? f (? ( z ), z ) p ( z , y ) dz
? y ?0
? A0



1
Символ «E» обозначает оператор вычисления математического ожи-
дания.
87
Теорема 2.5а. Оптимальное решение ?*(z) задачи (18) имеет
вид:
? c( z ), z ? z *
(19) ? (z , z) = ?
* *
,
z>z *
?0,
где оптимальное значение результата деятельности АЭ z* определя-
ется следующим выражением:
(20) z* = arg min ?(?*, y).
y?[ 0, T ?T0 ]
Доказательство теоремы 2.5а использует тот факт, что в моде-
ли простого АЭ стационарные точки функции полезности и целе-
вой функции совпадают, то есть, практически, повторяет доказа-
тельство утверждения 3.1.15, приведенного в работе [79], и по этой
причине опускается.
Если затраты АЭ зависят не от результата его деятельности, а
непосредственно (и только!) от его действия, то есть c = c(y), то
дело обстоит несколько более сложным образом. Для этого случая
оптимальное решение задачи оперативного управления дается
следующей теоремой.
Теорема 2.5б. Если затраты АЭ зависят от его действия, то оп-
тимальное решение ?*(z) задачи (18) имеет вид:
? c( y * )
, z = y*
?
(21) ? (y , z) = ?1 ? F ( y )
** * ,
? 0, z ? y*
?
где оптимальное значение результата деятельности АЭ z* определя-
ется следующим выражением1:
(22) z* = arg max {с(y) + E?(T – T0 – z)}.
y? A
Докажем, что система стимулирования (21)2 реализует дейст-
вие y* ? A. Ожидаемая полезность АЭ равна:

1
Символ «E» обозначает оператор математического ожидания.
2
Отметим, что в работе [42] для близкой к рассматриваемой задачи
(также в модели простого АЭ) была доказана оптимальность следующей
z
c' ( x )
w0 ( z ) = ?
системы стимулирования: dx .
1 ? F ( x)
0
88
y

?
f(y, ?) = ?(z) p(z) dz + ?(y) [1 – F(y)] – c(y).
0
Подставляя систему стимулирования (21), легко видеть, что
выполнено условие реализуемости: ? y ? A f(y*, ?*) ? f(y, ?*).
Докажем, что (21) минимизирует затраты центра на стимули-
рование. Предположим противное, то есть пусть существует
˜
? ? M, такое, что выполнено:
y*
˜ ˜
? ? (z) p(z) dz + ? (y*) [1 – F(y*)] < E?*(y*, z) = c(y*).

<< Пред. стр.

стр. 9
(общее количество: 14)

ОГЛАВЛЕНИЕ

След. стр. >>