怎样减少支持向量机 训练过程的训练时间

Service Unavailable
Service Unavailable
HTTP Error 503. The service is unavailable.提高支持向量机训练速度的CM-SVM方法--《计算机工程与设计》2006年22期
提高支持向量机训练速度的CM-SVM方法
【摘要】:针对支持向量机在大规模样本学习时,学习速度慢,需要存储空间大等问题,提出了一种将支持向量机方法与C均值方法结合的CM-SVM方法。在该方法中,先采用C均值方法对训练样本集进行聚类,然后依据聚类域中样本的类型特点确定样本的约简方式。仿真图像实验结果表明,CM-SVM方法提高了支持向量机的学习速度,同时支持向量机的分类精度几乎没有降低,表现出较好的样本约简性能。
【作者单位】:
【关键词】:
【基金】:
【分类号】:TP18【正文快照】:
0引言由于支持向量机方法较好的理论基础和它在一些领域的应用中表现出来的优秀的推广性能,它已经在手写数字识别、人脸识别、函数回归和密度估计等许多领域取得了很好的结果[1~3]。然而支持向量机目前仍然在很多领域难以推广应用,其主要原因是支持向量机在处理大规模训练样
欢迎:、、)
支持CAJ、PDF文件格式,仅支持PDF格式
【参考文献】
中国期刊全文数据库
李晓黎,刘继敏,史忠植;[J];计算机学报;2001年01期
中国博士学位论文全文数据库
夏建涛;[D];西北工业大学;2002年
张翔;[D];华中科技大学;2004年
【共引文献】
中国期刊全文数据库
江祥奎,原思聪;[J];电脑开发与应用;2005年10期
黎昱,黄席樾,周欣,刘涛;[J];重庆大学学报(自然科学版);2003年07期
张莉,康耀红,王曙光,张春元;[J];福建电脑;2004年05期
黄发良,钟智;[J];广西师范学院学报(自然科学版);2004年03期
杨哲海;王扈;徐晓密;周玉岩;;[J];海洋测绘;2005年06期
薛志东;李利军;邱德红;王乘;;[J];华中科技大学学报(自然科学版);2006年01期
路威,蔡建平,刘娟;[J];测绘学院学报;2005年02期
,史忠植;[J];计算机研究与发展;2004年07期
袁家政;须德;鲍泓;;[J];计算机研究与发展;2006年08期
董一鸿;[J];计算机工程与应用;2003年32期
中国重要会议论文全文数据库
李泽辉;聂生东;陈兆学;;[A];中国仪器仪表学会第九届青年学术会议论文集[C];2007年
张东娜;彭宏;吴铁峰;;[A];第一届全国Web信息系统及其应用会议(WISA2004)论文集[C];2004年
王世卫;李爱国;;[A];第三届全国信息获取与处理学术会议论文集[C];2005年
中国博士学位论文全文数据库
罗志勇;[D];西北工业大学;2006年
袁家政;[D];北京交通大学;2008年
尚文倩;[D];北京交通大学;2007年
彭士纯;[D];华中科技大学;2006年
谢磊;[D];华中科技大学;2006年
宗校军;[D];华中科技大学;2006年
杨金芳;[D];华北电力大学(河北);2007年
曾志强;[D];浙江大学;2007年
董一鸿;[D];浙江大学;2007年
应晓敏;[D];中国人民解放军国防科学技术大学;2003年
中国硕士学位论文全文数据库
杨国鹏;[D];解放军信息工程大学;2007年
虞国全;[D];南昌大学;2007年
张世荣;[D];大连理工大学;2007年
张欣;[D];湘潭大学;2007年
王志龙;[D];兰州大学;2007年
刘铮;[D];华中科技大学;2006年
霍罕妮;[D];大连理工大学;2007年
唐孝;[D];四川师范大学;2007年
陈卫民;[D];南京航空航天大学;2006年
钱升华;[D];河北工业大学;2006年
【二级参考文献】
中国期刊全文数据库
焦李成,张莉,周伟达;[J];电子学报;2001年03期
瞿东晖,张立明;[J];电子学报;1995年07期
张学工;[J];自动化学报;2000年01期
孙才志,王敬东,潘俊;[J];模糊系统与数学;2001年01期
李晓黎,刘继敏,史忠植;[J];计算机学报;2001年01期
张铃;[J];计算机学报;2001年02期
张铃;[J];计算机学报;2002年07期
李红莲,王春花,袁保宗;[J];计算机学报;2003年08期
刘宁宁,胡志刚,田捷,诸葛婴,戴汝为;[J];软件学报;1999年04期
冯元戬,施鹏飞;[J];上海交通大学学报;2003年06期
【相似文献】
中国期刊全文数据库
田盛丰,黄厚宽,李洪波;[J];中文信息学报;2000年03期
萧嵘;王继成;张福炎;;[J];计算机科学;2000年03期
王国胜,钟义信;[J];电子学报;2001年10期
崔伟东,周志华,李星;[J];计算机工程与应用;2001年01期
王国胜,钟义信;[J];计算机工程与应用;2001年19期
李晓黎,刘继敏,史忠植;[J];计算机学报;2001年01期
胡寿松,王源;[J];控制与决策;2001年05期
高学,金连文,尹俊勋,黄建成;[J];电子学报;2002年05期
时文刚,刘树林,张嘉钟,黄文虎;[J];机械强度;2002年03期
田盛丰,黄厚宽;[J];软件学报;2002年06期
中国重要会议论文全文数据库
苏毅;吴文虎;郑方;方棣棠;;[A];第六届全国人机语音通讯学术会议论文集[C];2001年
宋普云;沈雪勤;吴清;;[A];第六届全国计算机应用联合学术会议论文集[C];2002年
雷静;沈雪勤;;[A];第六届全国计算机应用联合学术会议论文集[C];2002年
许建生;盛立东;;[A];第八届全国汉字识别学术会议论文集[C];2002年
谢湘;匡镜明;;[A];现代通信理论与信号处理进展——2003年通信理论与信号处理年会论文集[C];2003年
张凡;贺苏宁;;[A];第七届全国人机语音通讯学术会议(NCMMSC7)论文集[C];2003年
赵书河;陈秀万;陈军锋;吴才聪;;[A];第十四届全国遥感技术学术交流会论文摘要集[C];2003年
蒋铁军;张怀强;李积源;;[A];管理科学与系统科学研究新进展——第7届全国青年管理科学与系统科学学术会议论文集[C];2003年
刘碧森;钟守铭;陈华富;;[A];第二届全国信息获取与处理学术会议论文集[C];2004年
赵洪波;冯夏庭;;[A];第八次全国岩石力学与工程学术大会论文集[C];2004年
中国重要报纸全文数据库
李水根;[N];健康报;2005年
记者 刘英楠;[N];科学时报;2005年
上海大学理学院教授、副院长
陆文聪;[N];中国化工报;2006年
清华大学 苏光大;[N];计算机世界;2006年
周颖;[N];中国中医药报;2006年
课题主持人
李心丹 课题协调人
上海证券交易所
课题研究员
南京大学工程管理学院;[N];中国证券报;2007年
;[N];计算机世界;2007年
耿挺;[N];上海科技报;2007年
张云普?通讯员
安强强;[N];中国石油报;2008年
冯治恩;[N];铜川日报;2008年
中国博士学位论文全文数据库
刘广利;[D];中国农业大学;2003年
赵冲冲;[D];西北工业大学;2003年
张敏贵;[D];西北工业大学;2003年
张春华;[D];中国农业大学;2004年
孙宗海;[D];浙江大学;2003年
徐芳;[D];武汉大学;2004年
梅建新;[D];武汉大学;2004年
蔡从中;[D];重庆大学;2003年
孙德山;[D];中南大学;2004年
翟永杰;[D];华北电力大学(河北);2004年
中国硕士学位论文全文数据库
姬水旺;[D];武汉科技大学;2002年
冯洪海;[D];河北农业大学;2002年
董西国;[D];哈尔滨工程大学;2002年
边后琴;[D];武汉科技大学;2002年
黄建强;[D];浙江大学;2003年
刘庆平;[D];燕山大学;2003年
雷静;[D];河北工业大学;2003年
董云杰;[D];兰州理工大学;2003年
宋普云;[D];河北工业大学;2003年
黄文艳;[D];河北工业大学;2003年
&快捷付款方式
&订购知网充值卡
400-819-9993
《中国学术期刊(光盘版)》电子杂志社有限公司
同方知网数字出版技术股份有限公司
地址:北京清华大学 84-48信箱 大众知识服务
出版物经营许可证 新出发京批字第直0595号
订购热线:400-819-82499
服务热线:010--
在线咨询:
传真:010-
京公网安备75号用于回归估计的支持向量机方法_百度文库
两大类热门资源免费畅读
续费一年阅读会员,立省24元!
用于回归估计的支持向量机方法
上传于||暂无简介
阅读已结束,如果下载本文需要使用0下载券
想免费下载更多文档?
定制HR最喜欢的简历
下载文档到电脑,查找使用更方便
还剩4页未读,继续阅读
定制HR最喜欢的简历
你可能喜欢我有这样的一个问题:已知两个数据集,完全是separable的。目的是找到一个最优的separating hyperplane把两个数据集分开。基于如下两个观察,是否有如后文描述的能够减少训练时间的算法?&br&1. SVM的复杂度是O(n^2)~O(n^3),其中n是the amount of training instances(原始链接:&a href=&///?target=http%3A///questions//training-complexity-of-linear-svm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Training complexity of Linear SVM&i class=&icon-external&&&/i&&/a&)。&br&2. 在separable case,其实对于最终separating hyperplane的估计结果被support vectors(图中虚线上的点)主导。interiors其实对于训练结果并不大。&br&&img src=&/02c18abd0da8e9b065e27_b.jpg& data-rawwidth=&800& data-rawheight=&862& class=&origin_image zh-lightbox-thumb& width=&800& data-original=&/02c18abd0da8e9b065e27_r.jpg&&&br&&br&那么,我们能否先通过某种算法,从数据集中剔除全部内点,剩下一个包含support vectors的较小的数据集。然后再进行SVM的训练。这样能否起到减少训练时间的作用?&br&&br&个人感觉回答这个问题的关键有两点:&br&1. 寻找内点的算法复杂度可能是O(n^2),复杂度最低的算法是?&br&2. 我所查询的SVM的复杂度是针对non-linear kernel的,针对linear kernel是否SVM的复杂度更低?&br&&br&因为本身并不是搞machine learning的,对于概念的理解很可能有偏差,请指正。
我有这样的一个问题:已知两个数据集,完全是separable的。目的是找到一个最优的separating hyperplane把两个数据集分开。基于如下两个观察,是否有如后文描述的能够减少训练时间的算法?1. SVM的复杂度是O(n^2)~O(n^3),其中n是the amount of training instances(原始链接:)。2. 在separable case,其实对于最终separating hyperplane的估计结果被support vectors(图中虚线上的点)主导。interiors其实对于训练结果并不大。…
我感觉你要问的就是怎么剔除掉那些非支持向量,其实就是针对支持向量的样本选择方法。这样的方法有很多,你搜一下就能找到,比较经典的是用距离或者k近邻来找。复杂度肯定是比没有做样本选择要低的,因为你选样本就是为了加速,再弄个麻烦的方法,不是得不偿失么。至于复杂度最低的,还真没比较过,近几年也陆陆续续有新的文章出来,这个比较的范围太庞大了。而且这个复杂度还有可能跟你的样本选择方法中的参数有关系,不能一概而论哪个最快的。然后关于核函数的复杂度,对于一般SVM来说,线性和非线性核的计算复杂度是一样的,它们内部都是一次乘法。
已有帐号?
无法登录?
社交帐号登录
快乐的小姑娘Service Unavailable
Service Unavailable
HTTP Error 503. The service is unavailable.

我要回帖

更多关于 lol怎样减少封号时间 的文章

 

随机推荐