贝叶斯决策论的基本思想非常简单。为最小化总风险,总是选择那些能够最小化条件风险R(
a|x)的行为。尤其是,为了最小化分类问题中的误差概率,总是选择那些使后验概率P(
wj|x)最大的类别。贝叶斯公式允许我们通过先验概率P(
wj)和条件密度p(x|
wj)来计算后验概率。如果对在模式
wj中所做的误分的惩罚与模式
wj的不同,那么在做出判决行为之前,必须先根据该惩罚函数对后验概率加权。
如果内在分布为多元的高斯分布,判决边界将是超二次型,其形状和位置取决于先验概率、该分布的均值和协方差。实际的期望误差率的上界可由Chernoff界和计算上较简单的Bhattacharyya界来确定。如果其输入测试模式具有丢失或遭到破坏的特征量,必须通过在这些特征量上积分来形成边缘分布,然后将贝叶斯决策过程用于其所得分布上。
而实际操作中,我们得到的多是包含各种属性的特征数据,从中定义风险函数、先验概率和条件概率往往是重要的前提操作。这样在给定了有限数据的情况下,这些概率的获取就是统计的事情了。下一步问题就是获取这些概率,那么常用的方法就是最大似然估计和贝叶斯参数估计了。