sklearn-SVC实现与类参数详解
sklearn-SVC实现与类参数
对应的API:http://scikit-learn.sourceforge.net/stable/modules/generated/sklearn.svm.SVC.html
它是基于libsvm实现的。随着样本数量的增加,拟合时间的复杂度要高于二次,这就使得当样板数量超过一万个时,很难扩展到数据集中。
在多类处理时,是按照1对1的方案进行处理的。
函数的的定义为:
def__init__(self,C=1.0,kernel='rbf',degree=3,gamma='auto',coef0=0.0, verbose=False,max_iter=-1,decision_function_shape='ovr',random_state=None):
参数的含义:
-C:float参数默认值为1.0。错误项的惩罚系数。C越大,即对分错样本的惩罚程度越大,因此在训练样本中准确率越高,但是泛化能力降低,也就是对测试数据的分类准确率降低。相反,减小C的话,容许训练样本中有一些误分类错误样本,泛化能力强。对于训练样本带有噪声的情况,一般采用后者,把训练样本集中错误分类的样本作为噪声。
-kernel:str参数默认为‘rbf‘,算法中采用的核函数类型,可选参数有:
linear:线性核函数
poly:多项式核函数
rbf:径像核函数/高斯核
sigmod:sigmod核函数
precomputed:核矩阵
-degree:int型参数(default=3),这个参数只对多项式核函数(poly)有用,是指多项式核函数的阶数n,如果给的核函数参数是其他核函数,则会自动忽略该参数。
-gamma:float参数,默认为auto核函数系数,只对'rbf'、‘poly'、‘sigmoid'有效。
如果gamma为auto,代表其值为样本特征数的倒数,即1/n_features。
-coef0:float参数默认为0.0
核函数中的独立项,只有对‘poly'和‘sigmod'核函数有用,是指其中的参数c
-probability:bool参数默认为False
是否启用概率估计。这必须在调用fit()之前启用,并且会fit()方法速度变慢。
-shrinking:bool参数默认为True
是否采用启发式收缩方式。
-tol:float参数默认为1e^-3
svm停止训练的误差精度。
-cache_size:float参数默认为200
指定训练所需要的内存,以MB为单位,默认为200MB。-class_weight:字典类型或者‘balance'字符串。默认为None
给每个类别分别设置不同的惩罚参数C,则该类别的惩罚系数为class_weight[i]*C,如果没有给,则会给所有类别都给C=1,即前面参数指出的参数C。
如果给定参数‘balance',则使用y的值自动调整与输入数据中的类频率成反比的权重。
-verbose:bool参数默认为False
是否启用详细输出。此设置利用libsvm中的每个进程运行时设置,如果启用,可能无法在多线程上下文中正常工作。一般情况都设为False,不用管它。
-max_iter:int参数默认为-1
最大迭代次数,如果为-1,表示不限制
-random_state:int型参数默认为None
伪随机数发生器的种子,在混洗数据时用于概率估计。
SVC的方法
1、fit()方法:用于训练SVM,具体参数已经在定义SVC对象的时候给出了,这时候只需要给出数据集X和X对应的标签y即可。
2、predict()方法:基于以上的训练,对预测样本T进行类别预测,因此只需要接收一个测试集T,该函数返回一个数组表示个测试样本的类别。
3、predict_proba():返回每个输入类别的概率,这与predict方法不同,predict方法返回的输入样本属于那个类别,但没有概率。使用此方法时,需要在初始化时,将probability参数设置为True。
例如:
importnumpyasnp importmatplotlib.pyplotasplt fromsklearnimportsvm #wecreate40separablepoints np.random.seed(0) X=np.r_[np.random.randn(20,2)-[2,2],np.random.randn(20,2)+[2,2]] Y=[0]*20+[1]*20 #fitthemodel clf=svm.SVC(kernel='linear',probability=True) clf.fit(X,Y) print(clf.predict_proba([[-0.1,0.7],[0.3,0.5]])) #result #[[0.418440150.58155985] #[0.348107380.65189262]]
如果初始化时不适用probability参数:
clf=svm.SVC(kernel='linear') clf.fit(X,Y) print(clf.predict([[-0.1,0.7],[0.3,0.5]])) #gettheseparatinghyperplane w=clf.coef_[0] #输出的结果为:[1,1]
属性有哪些:
svc.n_support_:各类各有多少个支持向量
svc.support_:各类的支持向量在训练样本中的索引
svc.support_vectors_:各类所有的支持向量
以上这篇sklearn-SVC实现与类参数详解就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持毛票票。
声明:本文内容来源于网络,版权归原作者所有,内容由互联网用户自发贡献自行上传,本网站不拥有所有权,未作人工编辑处理,也不承担相关法律责任。如果您发现有涉嫌版权的内容,欢迎发送邮件至:czq8825#qq.com(发邮件时,请将#更换为@)进行举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。