LEN-модель эквивалентности


8

Исходная позиция - модель принципала-агента с неполной информацией (моральный риск) и следующими свойствами:

  • Агентская утилита: u(z)=e(raz)
  • Основная утилита: B(z)=e(rpz)
  • Уровни усилий eR
  • Результаты xR,xN(μ(e),σ),μ(e)>0,μ(e)0
  • Контракт: w(x)=a+bx,

где rA а также rP является мерой Эрроу-Пратта абсолютного неприятия риска для агента и принципала соответственно.

Я ищу оптимальный договор для принципала, который он мог бы предложить агенту, когда усилия агента не видны. Утилита принципала может быть записана следующим образом:

UP(e,a,b)=e(rP((1b)xa))f(xe)dx

Я хочу показать, что имеет место следующая эквивалентность, означающая, что максимизация полезности принципала может быть записана как RHS следующей эквивалентности:

maxe,a,be(rP((1b)xa))f(xe)dxmaxe,a,b(1b)μ(e)arP2(1b)2σ2

где f(x|e)=1σ2πe(12(xμ(e)σ)2) является функцией плотности нормальной случайной величины xN(μ(e),σ)с ожидаемым значением μ(e) и дисперсия σ>0,

Я пытался использовать явную форму f(x|e) в LHS немного манипулируйте им, а затем итерируйте, но не можете получить эквивалентность.

Ответы:


1

Суть в том, что ожидаемая полезность принципала от выплаты z обусловленный определенным уровнем усилий e можно записать как

E[z|e]rp2Var(z|e).

Другими словами, поскольку богатство обычно распределяется, экспоненциальная полезность имеет простое представление «среднее отклонение». Для деривации, смотрите здесь .

Я полагаю, что выигрыш директора z равно xw(x)=(1b)xa, Тогда легко вычислить (условное) среднее значение и дисперсиюz:

E[z|e]=(1b)E[x|e]E[a]=(1b)μ(e)a,

Var[z|e]=(1b)2Var(x|e)Var(a)=(1b)2σ2.

Отсюда следует, что ожидаемая полезность принципала может быть записана как

(1b)μ(e)arp2(1b)2σ2.

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.