发布时间:2022-09-30 17:00
世上只有一种投资是只赚不赔的,那就是学习。
当你的的能力还驾驭不了你的目标时,
就应该沉下心来历练;
当你的才华撑不起你的野心时,
就应该静下心来学习
假设有 N 种可能的类别标记,即 y = { C 1 , C 2 , … , C N } y = \{C_1, C_2,… , C_N\} y={C1,C2,…,CN}
λ j i \lambda_{ji} λji 是将一个真实标记为 C j C_j Cj 的样本误分类为 C i C_i Ci 所产生的损失.
基于后验概率 P ( C i ∣ x ) P(C_i | x) P(Ci∣x)可获得将样本 x x x分类为 C i C_i Ci 所产生的期望损失(expected loss) ,
即在样本 x x x 上的"条件风险”:
R ( c i ∣ x ) = ∑ j = 1 N λ j i P ( c j ∣ x ) R(c_i | x)=\sum_{j=1}^N\lambda_{ji}P(c_j | x) R(ci∣x)=j=1∑NλjiP(cj∣x)
我们的任务是寻找一个判定准则以最小化总体风险:
R ( h ) = E x [ R ( h ( x ) ∣ x ) ] R(h)=E_x[R(h(x) | x)] R(h)=Ex[R(h(x)∣x)]
对每个样本 x x x,若 h h h 能最小化条件风险 R ( h ( x ) ∣ x ) R(h(x) | x) R(h(x)∣x) ,则总体风险 R ( h ) R(h) R(h) 也将被最小化。这就产生了贝叶斯判定准则(Bayes decision rule): 为最小化总体风险,只需在每个样本上选择那个能使条件风险 R ( c ∣ x ) R(c | x) R(c∣x)最小的类别标记,即:
h ( x ) = a r g m i n c h(x)=arg min_{c } h(x)=argminc
h称为贝叶斯最优分类器(Bayes optimal classifier),与之对应的总体风险 R ( h ) R(h) R(h) 称为贝叶斯风险(Bayes risk). 1 − R ( h ∗ ) 1-R(h*) 1−R(h∗) 反映了分类器所能达到的最好性能,即通过机器学习所能产生的模型精度的理论上限。
后验概率 P ( c ∣ x ) P(c|x) P(c∣x)有两种策略获得:
给定 x x x, 可通过直接建模 P ( c ∣ x ) P(c | x) P(c∣x) 来 预测 c,这样得到的是"判别式模型" , 如
SpringBoot框架的基于java的疫情期间网课管理系统
docker-compose+postsql多容器部署django-vue项目
(大佬)睿智的目标检测13——Keras搭建mtcnn人脸检测平台
Java高级期末复习:Java EE框架整合开发入门到实战——Spring+Spring MVC+MyBatis微课版
动手学习深度学习2.0-线性回归的从零开始实现&pytorch框架实现
大厂面试小“炒”升级,早已不仅仅满足于CRUD,Java面试到底要怎么搞呢
Windows CE初探 --(转载焦点安全文章:http://www.xfocus.net/articles/200411/747.html)