当前位置:首页 » 原油黄金 » 支持向量机在商品期货中

支持向量机在商品期货中

发布时间: 2021-04-28 17:58:03

A. SVM(支持向量机)在建模过程中,训练集,测试集的选择有什么规律和原则呢

说服性比较困难.在分类器联合算法(类似于boosting)中,做法与你的做法类似,特别是随机子空间法.但是联合算法只对弱分类器有效,甚至有人证明过对于强线性分类器必定过适应.
注意到相关文献描述说服力的时候,都会讲到联合算法对于弱分类器或许有用.而普通支持向量机本身无论是分类还是回归都是绝对稳定的,所以如果按照你所说的做法来做,几乎没有什么说服力,等价于你是在为算法找数据,而不是根据数据做算法.

B. 什么是支持向量机(SVM)以及它的用途

SVM - support vector machine, 俗称支持向量机,为一种supervised learning算法,属于classification的范畴。在数据挖掘的应用中,与unsupervised的Clustering相对应和区别。

广泛应用于机器学习(Machine Learning), 计算机视觉(Computer Vision) 和数据挖掘(Data Mining)当中。

假设要通过三八线把实心圈和空心圈分成两类,那么有无数多条线可以完成这个任务。在SVM中,寻找一条最优的分界线使得它到两边的margin都最大。

(2)支持向量机在商品期货中扩展阅读:

SVM 的优点

1、高维度:SVM 可以高效的处理高维度特征空间的分类问题。这在实际应用中意义深远。比如,在文章分类问题中,单词或是词组组成了特征空间,特征空间的维度高达 10 的 6 次方以上。

2、节省内存:尽管训练样本点可能有很多,但 SVM 做决策时,仅仅依赖有限个样本(即支持向量),因此计算机内存仅仅需要储存这些支持向量。这大大降低了内存占用率。

3、应用广泛:实际应用中的分类问题往往需要非线性的决策边界。通过灵活运用核函数,SVM 可以容易的生成不同的非线性决策边界,这保证它在不同问题上都可以有出色的表现(当然,对于不同的问题,如何选择最适合的核函数是一个需要使用者解决的问题)。

C. 支持向量机中的函数距离和几何距离怎么理解

SVM是通过超平面将样本分为两类。
在超平面确定的情况下,可以相对地表示点距离超平面的远近。对于两类分类问题,如果,则的类别被判定为1;否则判定为-1。
所以如果,则认为的分类结果是正确的,否则是错误的。且的值越大,分类结果的确信度越大。反之亦然。
所以样本点与超平面之间的函数间隔定义为

但是该定义存在问题:即和同时缩小或放大M倍后,超平面并没有变化,但是函数间隔却变化了。所以,需要将的大小固定,如,使得函数间隔固定。这时的间隔也就是几何间隔 。
几何间隔的定义如下

实际上,几何间隔就是点到超平面的距离。想像下中学学习的点到直线的距离公式
所以在二维空间中,几何间隔就是点到直线的距离。在三维及以上空间中,就是点到超平面的距离。而函数距离,就是上述距离公式中的分子,即未归一化的距离。
定义训练集到超平面的最小几何间隔是
SVM训练分类器的方法是寻找到超平面,使正负样本在超平面的两侧,且样本到超平面的几何间隔最大。
所以SVM可以表述为求解下列优化问题
以上内容在《统计学习方法》中,均有详细的讲解。

D. 神经网络和支持向量机的优缺点!

SVM有如下主要几个特点:
(1)非线性映射是SVM方法的理论基础,SVM利用内积核函数代替向高维空间的非线性映射;
(2)对特征空间划分的最优超平面是SVM的目标,最大化分类边际的思想是SVM方法的核心;
(3)支持向量是SVM的训练结果,在SVM分类决策中起决定作用的是支持向量。
(4)SVM 是一种有坚实理论基础的新颖的小样本学习方法。它基本上不涉及概率测度及大数定律等,因此不同于现有的统计方法。从本质上看,它避开了从归纳到演绎的传统过程,实现了高效的从训练样本到预报样本的“转导推理”,大大简化了通常的分类和回归等问题。
(5)SVM 的最终决策函数只由少数的支持向量所确定,计算的复杂性取决于支持向量的数目,而不是样本空间的维数,这在某种意义上避免了“维数灾难”。
(6)少数支持向量决定了最终结果,这不但可以帮助我们抓住关键样本、“剔除”大量冗余样本,而且注定了该方法不但算法简单,而且具有较好的“鲁棒”性。这种“鲁棒”性主要体现在:
①增、删非支持向量样本对模型没有影响;
②支持向量样本集具有一定的鲁棒性;
③有些成功的应用中,SVM 方法对核的选取不敏感

两个不足:
(1) SVM算法对大规模训练样本难以实施
由于SVM是借助二次规划来求解支持向量,而求解二次规划将涉及m阶矩阵的计算(m为样本的个数),当m数目很大时该矩阵的存储和计算将耗费大量的机器内存和运算时间。针对以上问题的主要改进有有J.Platt的SMO算法、T.Joachims的SVM、C.J.C.Burges等的PCGC、张学工的CSVM以及O.L.Mangasarian等的SOR算法
(2) 用SVM解决多分类问题存在困难
经典的支持向量机算法只给出了二类分类的算法,而在数据挖掘的实际应用中,一般要解决多类的分类问题。可以通过多个二类支持向量机的组合来解决。主要有一对多组合模式、一对一组合模式和SVM决策树;再就是通过构造多个分类器的组合来解决。主要原理是克服SVM固有的缺点,结合其他算法的优势,解决多类问题的分类精度。如:与粗集理论结合,形成一种优势互补的多类问题的组合分类器。

E. 支持向量机中的函数距离和几何距离怎么理解

函数距离是定义出来的,直接看没什么东西,甚至有可能感觉不到具体的意义。
即“样本的归类×超平面”;
而几何距离,则是样本点距离超平面的欧式距离,有点像点到直线的距离那样。
函数距离和几何距离之间,长得很像,就在于集合距离相当于把W和b进行了归一化。归一化就是以||w||做分母,w和b做分子。g(x)=|wx+b|/||w||。
他们之间的应用,其实最关键的还是几何距离,你如果继续看SVM的推导,就会发现,到了后面没函数距离啥事儿。

F. 如何用BP模型和支持向量机模型在MATLAB中实现预测

如何用BP模型和支持向量机模型在MATLAB中实现预测
根据你的描述: BPNN可以用matlab里的神经网络工具箱,GUI的界面或者matlab源程序都可以 SVM推荐用Libsvm或Lssvm,网上都有下载额

G. 支持向量机中所谓的支持向量究竟是什么

运算上说,标量机只是一个数一个数地进行计算,而向量机则能够对一批数据同时进行加工处理。
因此,向量机比标量机的运算速度快,更适合于演算数据量多的大型科学、工程计算问题。

H. 支持向量机(SVM)中的参数C和gamma代表什么含义呢

C是惩罚系数,理解为调节优化方向中两个指标(间隔大小,分类准确度)偏好的权重,即对误差的宽容度,C越高,说明越不能容忍出现误差,容易过拟合,C越小,容易欠拟合,C过大或过小,泛化能力变差。

gamma是选择RBF函数作为kernel后,该函数自带的一个参数。隐含地决定了数据映射到新的特征空间后的分布,gamma越大,支持向量越少,gamma值越小,支持向量越多。支持向量的个数影响训练与预测的速度。

(8)支持向量机在商品期货中扩展阅读:

1、支持向量机(Support Vector Machine, SVM)是一类按监督学习方式对数据进行二元分类的广义线性分类器其决策边界是对学习样本求解的最大边距超平面。

2、SVM使用铰链损失函数计算经验风险并在求解系统中加入了正则化项以优化结构风险,是一个具有稀疏性和稳健性的分类器。SVM可以通过核方法进行非线性分类,是常见的核学习方法之一。

I. 请高人指点!什么是支持向量机(SVM)其本质原理是什么

支持向量机SVM ( Support Vector Machines)是由Vanpik领导的AT&TBell实验室研究小组
在1963年提出的一种新的非常有潜力的分类技术, SVM是一种基于统计学习理论的模式识别方法,主要应用于模式识别领域.由于当时这些研究尚不十分完善,在解决模式识别问题中往往趋于保守,且数学上比较艰涩,因此这些研究一直没有得到充的重视.直到90年代,一个较完善的理论体系—统计学习理论 ( StatisticalLearningTheory,简称SLT) 的实现和由于神经网络等较新兴的机器学习方法的研究遇到一些重要的困难,比如如何确定网络结构的问题、过学习与欠学习问题、局部极小点问题等,使得SVM迅速发展和完善,在解决小样本 、非线性及高维模式识别问题中表现出许多特有的优势,并能够推广应用到函数拟合等其他机器学习问题中.从此迅速的发展起来,现在已经在许多领域(生物信息学,文本和手写识别等)都取得了成功的应用。
SVM的关键在于核函数,这也是最喜人的地方。低维空间向量集通常难于划分,解决的方法是将它们映射到高维空间。但这个办法带来的困难就是计算复杂度的增加,而核函数正好巧妙地解决了这个问题。也就是说,只要选用适当的核函数,我们就可以得到高维空间的分类函数。在SVM理论中,采用不同的核函数将导致不同的SVM算法

它是一种以统计学理论为基础的,以结构风险最小化的学习机学习方法,要优于神经网络学习,以上是摘自本人的毕业设计,如需转载,请通知本人

J. 支持向量机分类法

支持向量机(Support Vector Machine,SVM)分类过程是基于Vapnik和Cher- vonenkis提出的统计学习理论(Statistical Learning Theory,SLT),Vapnik对SVM进行了详细的讨论(Vapnik,1995;Shah et al.,2003;Mahesh et al.,2004;李海涛等,2007;张兵等,2011)。支持向量机(SVM)分类的主要思想是寻找最优分离超平面(Optimal Separating Hyperplane,OSH),将两类样本无错误的分开,并使分类空隙最大,如图2.2所示。记H为最优分离超平面,H1和H2之间的距离M为分类间隔。

图2.2 最优分离超平面和支持向量机的最大边缘

支持向量机用来解决非线性问题,它是通过如图2.2(a)所示的核函数Φ(x)表示的非线性变换把非线性问题转换成高维数的线性问题,在这种线性变换特征空间中可以获得最优分离超平面,支持向量机方法正是基于这种从线性可分情况下的最优分类面提出的。结合二分类问题,可以通过线性超平面把给定数据集划分成两类,如图2.2(b)所示。因此,支持向量机针对两种感兴趣区域的最大边缘,并在它们之间设置了一个线性分离超平面,以此拓展到高维空间线性分离超平面发展成为最优分离超平面。

图2.2中实心点和空心点分别表示两类的样本,H为分类线,H1和H2分别为过各类样本中距离分类线最近的点且平行于分类线的直线,它们之间的距离叫做分类空隙或分类间隔(margin)。所谓最优分类线就是要求分类线不但能将两类正确分开,而且要使分类间隔最大。前者是保证经验风险最小(为0),分类间隔最大实际上就是使推广性的界中的置信范围最小,从而使真实风险最小。推广到高维,最优分类线就成为最优分类面。

支持向量机的目标就是寻求一个超平面,它能否联合核函数来分离数据,以便于使所有具有相同标签的点能归类到超平面的同一侧。假设训练数据集是线性可分的k个训练样本组成,这些样本表示为(xi,yi)(i =1,…,k),其中x∈Rn是各个样本的n维数据矢量,并且属于两类中标以yi∈ {-1,+1}的任何一类(类别标签)。支持向量机就是找到n维空间中由g(x)=w·x+b定义的线性判定函数。分类超平面(OSH)方程如下:

高光谱遥感影像信息提取技术

假如矢量w和尺度b能够确定的话,判定函数式(2.5)和式(2.6)能够被满足,则这些训练的模式被称为可线性分离:

高光谱遥感影像信息提取技术

即使两类所有样本都满足|g(xi)|≥1,距离分类面最近的样本的|g(xi)|=1,这样分类间隔就等于2/w,因此使间隔最大等价于使w(或||w‖2)最小;而要求分类线对所有样本正确分类,就是要求它满足:

高光谱遥感影像信息提取技术

因此,满足条件式(2.4)且使‖w‖2最小的分类面就是最优分类面。过两类样本中距离分类面最近的点且平行于最优分类面的超平面H1、H2上的训练样本就是式(2.4)中使等号成立的那些样本,称之为支持向量(Support Vectors)。因为它们支撑了最优分类面,如图2.2中H1、H2上标出的点。

根据上面的讨论,最优分类面问题可以表示成如下的二次规划问题,即在条件式(2.7)的不等式约束下,求函数

高光谱遥感影像信息提取技术

的最小值。为此,可以定义如下的拉格朗日(Lagrange)函数:

高光谱遥感影像信息提取技术

其中,ai>0为Lagrange系数,下面对w和b求Lagrange函数的极小值。把式(2.9)分别对w和b求偏微分并令它们等于0,就可以把原问题转化为如下这种较简单的对偶问题,在约束条件:

高光谱遥感影像信息提取技术

对ai求解下列函数的最大值:

高光谱遥感影像信息提取技术

若 为最优解,则

高光谱遥感影像信息提取技术

上式表明最优分类面的权系数向量是训练样本向量的线性组合。

这是一个不等式约束下二次函数求极值问题,存在唯一解。且根据Kuhn-Tucker条件,这个优化问题的解须满足:

高光谱遥感影像信息提取技术

因此,对多数样本ai*将为零,取值不为零的 对应于使式(2.7)等号成立的样本即支持向量,它们通常只是全体样本中的很少一部分。

基于最优分类面的分类规则就是解上述问题得到的最优分类函数:

高光谱遥感影像信息提取技术

式中:sgn()为符号函数。由于非支持向量对应的ai均为零,因此式(2.14)中的求和实际上只对支持向量进行。b*是分类的域值,可以由任意一个支持向量用式(2.7)求得,或通过两类中任意一对支持向量取中值求得。最优分类面是在线性可分的前提下得到的,在线性不可分的情况下,就是某些训练样本不能满足条件式(2.7)时得到的最优分类面,称之为广义最优分类面。因此可以在式(2.7)中增加一个松弛项εi≥0,成为:

高光谱遥感影像信息提取技术

广义最优分类面问题可以进一步演化为在条件式(2.15)的约束下求下列函数的极小值:

高光谱遥感影像信息提取技术

式中:C>0是某个指定的常数,它用来控制对错分样本惩罚的程度,实现在错分样本的比例与算法复杂度之间的折中。

广义最优分类面的对偶问题与线性可分情况下几乎完全相同,只是约束条件式(2.10)变为:

高光谱遥感影像信息提取技术

实际求解最优化问题和计算分类平面时,只涉及训练样本之间的内积运算(xi,yi),即只需计算核函数K(x · x′)。目前常用的核函数有线性核函数、多项式核函数、高斯径向基核函数(RBF核函数)和Sigmoid核函数等。

热点内容
普洱墨江哈尼族自治县晚籼稻期货开户 发布:2021-12-16 12:35:43 浏览:396
阿坝小金县橡胶期货开户 发布:2021-12-16 12:35:40 浏览:908
楚雄大姚县豆一期货开户 发布:2021-12-16 12:34:02 浏览:736
做期货能在网上开户吗 发布:2021-12-16 12:32:22 浏览:591
安庆宜秀区早籼稻期货开户 发布:2021-12-16 12:32:22 浏览:377
正确的原油期货开户 发布:2021-12-16 12:29:41 浏览:39
达州市纤维板期货开户 发布:2021-12-16 12:25:11 浏览:310
呼伦贝尔新巴尔虎左旗白银期货开户 发布:2021-12-16 12:25:07 浏览:883
上海外盘期货哪里开户 发布:2021-12-16 12:24:10 浏览:448
香港日发期货开户网站 发布:2021-12-16 12:24:09 浏览:780