Страница 3 из 3 Теперь допустим, что развернуто N конфет, из которых с оказались вишневыми леденцами, а — лимонными, а количество оберток оказалось таковым: вишневых леденцов имели красные обертки, а — зеленые, тогда как лимонных леденцов имели красные обертки, а — зеленые. Правдоподобие этих данных выражается следующим образом:  На первый взгляд это соотношение кажется весьма сложным, но его можно упростить, взяв логарифмы, следующим образом:  Преимущество взятия логарифмов является очевидным— логарифмическое правдоподобие представляет собой сумму трех термов, каждый из которых содержит единственный параметр. После взятия производных по каждому параметру и приравнивания их к нулю будет получено три независимых уравнения, каждое из которых содержит только один параметр:  Решение для θ остается таким же, как и прежде. Решение для θ1? вероятности того, что вишневый леденец имеет красную обертку, представляет собой наблюдаемую долю вишневых леденцов в красных обертках, и аналогичным образом определяется решение для θ2. Эти результаты являются очень удобными, и легко показать, что их можно распространить на любую байесовскую сеть, условные вероятности в которой представлены в виде таблицы. Наиболее важный вывод состоит в том, что при наличии полных данных задача обучения параметрам с максимальным правдоподобием для байесовской сети декомпонуется на отдельные задачи обучения, по одной для каждого параметра3. Еще один важный вывод состоит в том, что значения параметра для любой переменной при наличии ее родительских значений представляют собой наблюдаемые частоты значений переменных для каждого набора родительских значений. Как и прежде, необходимо внимательно следить за предотвращением появления нулевых значений, если набор данных является небольшим.
<< В начало < Предыдущая 1 2 3 Следующая > В конец >> |