基于经典的支持向量机算法完成鸢尾花的分类问题( 四 )
错误项的惩罚系数 。 C越大 , 即对分错样本的惩罚程度越大 , 因此在训练样本中准确率越高 , 但是泛化能力降低 , 也就是对测试数据的分类准确率降低 。 相反 , 减小C的话 , 容许训练样本中有一些误分类错误样本 , 泛化能力强 。 对于训练样本带有噪声的情况 , 一般采用后者 , 把训练样本集中错误分类的样本作为噪声 。
当c大的时候的效果为:
svc = svm.SVC(kernel='linear',C=1e3)
本文插图
可以看出当c很大的时候 , 会发现它的泛化效果不太好
当c小的时候的效果为:
svc = svm.SVC(kernel='linear',C=1e-1)
本文插图
可以看出其实泛化效果也不是太好 , 可能是测试数据集不多的原因 。
支持向量机的有个好处是对于许多数据集 , 默认参数'C=1'其实工作得很好 。
核方法
采用核方法 , 能够很方便地产生非线性分类边界 。
linear , 线性核 , 会产生线性分类边界 。 一般来说它的计算效率最高 , 而且需要数据最少 。 poly, 多项式核 , 会产生多项式分类边界 。 rbf , 径向基函数 , 也就是高斯核 , 是根据与每一个支持向量的距离来决定分类边界的 。 它的映射到无线维的 。 它是最灵活的方法 , 但是也需要最多的数据 。
演示:
svc = svm.SVC(kernel='linear')线性核
本文插图
svc = svm.SVC(kernel='poly', degree=4)多项式核:
本文插图
svc = svm.SVC(kernel='rbf', gamma=1e2)高斯核
本文插图
这就是三种不同核方法的拟合效果
推荐阅读
- 泰迪小公举|原定演员临时辞演,找了个满口东北话的新人救场,却意外成就经典
- 娱乐圈|为何吴京要说女孩不要混娱乐圈?杨幂的例子太经典,柳岩却最无奈
- 卢伟冰|月销44万台,力压华为P40 Pro成老大,卢伟冰这波操作堪称经典
- 壁纸|支持 iOS 14 系统,隐藏 Dock 栏壁纸分享
- 西安王老师聊教育|饮食养生,当以何书为经典?
- 辣妹盘点酱|Hz高刷+鸿蒙OS华为Mate40,华为Mate30白菜价直呼残暴,支持144
- 移动信息IT杂谈三星Galaxy Note 20 Ultra:不支持100倍变焦,最高到50倍
- 追着幸福跑|两只“量子柴郡猫”交换笑脸
- 那年初夏|MIUI 12稳定版正式推送!率先支持13款机型,看看有你的吗?
- 游戏葡萄说|与妻儿聚少离多!17年23个世界冠军还差一纪录,马龙感谢家人支持
