A股上市公司传智教育(股票代码 003032)旗下技术交流社区北京昌平校区

 找回密码
 加入黑马

QQ登录

只需一步,快速开始

前言:支持向量机(Support Vecor Machine,以下简称SVM)虽然诞生只有短短的二十多年,但是自一诞生便由于它良好的分类性能席卷了机器学习领域,并牢牢压制了神经网络领域好多年。如果不考虑集成学习的算法,不考虑特定的训练数据集,在分类算法中的表现SVM说是排第一估计是没有什么异议的。

支持向量机:

支持向量机是一种二类分类模型,它的基本模型是定义在特征空间上的 间隔最大的线性分类器,间隔最大使它有别于感知机;
支持向量机还包括核技巧,这使它成为实质上的非线性分类器,其学习的策略是间隔最大化;
支持向量机包含由简至繁的模型,线性可分支持向量机、线性支持向量机、非线性支持向量机
大体认识SVM

支持向量机(SVM),是一种有监督学习算法。可以处理线性以及非线性的情况。



SVM思想一:(最大间隔)

      找出一条分割线(超平面),使得两个类别与线(面)的间隙越大越好。-------模型越健壮

衡量方法:

距离的计算





要注意:向量的内积的表示方法,故向量的内积看成一个实数即可





SVM思想二:(决策公式)

数据标签定义

    数据集:(X1,Y1)(X2,Y2)…(Xn,Yn)

    Y为样本的类别:当X为正例时候Y = +1 当X为负例时候Y = -1

    决策方程:



          ==>      

SVM思想三:优化的目标

通俗解释:找到一个条线(w和b),使得离该线最近的点(雷区)能够最远

将点到直线的距离化简得



放缩变换:对于决策方程(w,b)可以通过放缩使得其结果值|Y|>= 1,(之前我们认为恒大于0,现在严格了些)



优化目标:



由于,只需要考虑



(目标函数搞定!)

SVM思想四:优化理论

当前目标:



求解极大值问题转换成极小值问题=>



约束条件:



拉格朗日乘子法(结论,直接用)

带约束的优化问题:



原式转换:



于是,我们的式子:



约束条件:



SVM求解

分别对w和b求偏导,分别得到两个条件(由于对偶性质)



对w、b求偏导:



带入目标函数:







对ɑ求极大值



条件:



换成求极小值:





SVM思想五:核变换

低维不可分问题

核变换:既然低维的时候不可分,那我给它映射到高维呢?



目标:找到一种变换的方法,也就是




---------------------
【转载】
作者:不曾走远~
原文:https://blog.csdn.net/qq_20412595/article/details/82106934


2 个回复

倒序浏览
回复 使用道具 举报
回复 使用道具 举报
您需要登录后才可以回帖 登录 | 加入黑马