Страница 2 из 2 • Наиболее правдоподобное объяснение. Если дан ряд результатов наблюдений, то может потребоваться найти последовательность состояний, которые с наибольшей вероятностью стали причиной получения результатов наблюдений. Это означает, что может потребоваться вычислить значение . Например, если директор приходил с зонтиком в каждый из первых трех дней, а на четвертый пришел без зонтика, то наиболее вероятным объяснением становится наличие дождя в первые три дня и отсутствие в четвертый. Алгоритмы решения такой задачи являются полезными во многих приложениях, включая распознавание речи (целью которого является поиск наиболее вероятной последовательности слов, если дан ряд звуков) и реконструкцию цепочек битов, передаваемых по зашумленному каналу. Кроме этих задач, необходимы методы для создания с помощью обучения моделей перехода и моделей восприятия на основании наблюдений. Так же как и в случае статических байесовских сетей, обучение в динамических байесовских сетях может осуществляться в виде получения побочного результата от вероятностного вывода. Вероятностный вывод предоставляет оценку того, какие переходы между состояниями фактически происходили и какие состояния привели к получению данных результатов восприятия, а эти оценки могут использоваться для обновления моделей. Обновленные модели предоставляют новые оценки, и в этом процессе происходят итерации до тех пор, пока все вычисления не сходятся. Весь этот процесс представляет собой пример применения алгоритма "ожидания—максимизации", или алгоритма ЕМ (Expectation-Maximization) (см. раздел 20.3). Важно отметить, что для обучения требуется вероятностный вывод с полным сглаживанием, а не с фильтрацией, поскольку он предоставляет лучшие оценки состояний процесса. Обучение с фильтрацией может не позволить добиться правильной сходимости; рассмотрим, например, задачу обучения раскрытию убийств: чтобы узнать из наблюдаемых переменных с помощью вероятностного вывода, что скорее всего произошло на месте убийства, всегда требуется ретроспективный анализ. Алгоритмы для решения четырех задач вероятностного вывода, перечисленных в начале данного раздела, можно прежде всего описать на общем уровне, независимо от конкретного типа применяемой модели. Усовершенствования этих алгоритмов, относящиеся к каждой модели, будут описаны в соответствующих разделах.
<< В начало < Предыдущая 1 2 Следующая > В конец >> |