Страница 2 из 2 Полезность состояния является относительной для агента, предпочтения которого должна описывать функция полезности. Например, функции вознаграждения для игр, описанные в главе 6, представляют собой функции полезности. Полезность состояния, в котором белые могут победить в ходе какой-то шахматной партии, безусловно, высока для агента, играющего белыми, но низка для агента, играющего черными. Еще один пример состоит в том, что некоторые игроки (включая авторов этой книги) будут счастливы, сыграв вничью против чемпиона мира, а о других игроках (включая бывшего чемпиона мира) этого сказать нельзя. При этом не учитываются личные вкусы или предпочтения: читатель может подумать, что агент, который предпочитает шоколадным чипсам мороженое "Халапеньо" с добавлением компонентов жевательной резинки, — странный или даже бестолковый тип, но не сможет утверждать, что этот агент нерационален. В функции полезности может быть даже учтена польза от альтруистического поведения просто путем включения оценки благополучия других как одного из факторов, которые вносят вклад в полезность для самого агента. Предпочтения, будучи выраженными в виде полезности, комбинируются с вероятностями в общей теории рациональных решений, называемой теорией решений, следующим образом: Теория решений = Теория вероятностей + Теория полезности Фундаментальная идея теории решений состоит в том, что любой агент является рациональным тогда и только тогда, когда он выбирает действие, позволяющее достичь наибольшей ожидаемой полезности, усредненной по всем возможным результатам данного действия. Это — так называемый принцип максимальной ожидаемой полезности (Maximum Expected Utility — MEU). Мы наблюдали этот принцип в действии в главе 6, когда кратко рассматривали оптимальные решения в нардах, а ниже будет показано, что это — действительно полностью общий принцип.
<< В начало < Предыдущая 1 2 Следующая > В конец >> |