Главная arrow книги arrow Копия Глава 20. Статистические методы обучения arrow Обучение байесовским параметрам
Обучение байесовским параметрам

Сеть, показанная на рис. 20.2, б, имеет три параметра, θ, θΐ5 и θ2, где θι — вероятность наличия красной обертки на вишневом леденце, а θ2 — вероятность наличия красной обертки на лимонном леденце. Распределение априорных вероятностей байесовской гипотезы должно охватывать все три параметра; это означает, что необходимо задать распределение Ρ (Θ, 01# 02). Обычно предполагается, что соблюдается свойство ^ независимости параметров, как показано ниже.

Согласно этому предположению, каждый параметр может иметь свое собственное бета-распределение, которое обновляется отдельно по мере поступления данных.

После того как была сформулирована идея, что неизвестные параметры могут быть представлены случайными переменными, такими как 0, из нее можно вывести естественное заключение, что эти параметры можно включить в саму байесовскую сеть. Для этого также потребуется сделать копии переменных, описывающих каждый экземпляр. Например, если проверены три леденца, то для их описания потребуются переменные Flavor1, Flavor2, Flavor3, а также Wrapper1, Wrapper2, Wrapper3. Параметрическая переменная Θ определяет вероятность каждой переменной:

Аналогичным образом, вероятности оберток зависят от, например:

Теперь весь байесовский процесс обучения можно сформулировать как задачу вероятностного вывода в байесовской сети, имеющей соответствующую структуру (рис. 20.6). Предсказание, касающееся нового экземпляра примера, можно получить, добавляя к сети новые переменные экземпляра, с тем условием, что значения некоторых из них можно будет определять с помощью запросов. Такая формулировка процессов обучения и предсказания наглядно показывает, что для байесовского обучения не требуется задавать дополнительные "принципы обучения". Кроме того, это означает, что в действительности существует лишь единственный алгоритм обучения, т.е. алгоритм вероятностного вывода для байесовских сетей.

Рис. 20.6. Байесовская сеть, которая соответствует байесовскому процессу обучения. Распределения апостериорных вероятностей для параметрических переменныхможно определить путем вероятностного вывода на основании распределений апостериорных вероятностей этих параметрических переменных и свидетельств, касающихся переменных