Global convergence of SMO algorithm for support vector regression

Norikazu Takahashi, Jun Guo, Tetsuo Nishi

研究成果査読

38 被引用数 (Scopus)

抄録

Global convergence of the sequential minimal optimization (SMO) algorithm for support vector regression (SVR) is studied in this paper. Given ι training samples, SVR is formulated as a convex quadratic programming (QP) problem with ι pairs of variables. We prove that if two pairs of variables violating the optimality condition are chosen for update in each step and subproblems are solved in a certain way, then the SMO algorithm always stops within a finite number of iterations after finding an optimal solution. Also, efficient implementation techniques for the SMO algorithm are presented and compared experimentally with other SMO algorithms.

本文言語English
ページ(範囲)971-982
ページ数12
ジャーナルIEEE Transactions on Neural Networks
19
6
DOI
出版ステータスPublished - 2008
外部発表はい

ASJC Scopus subject areas

  • ソフトウェア
  • コンピュータ サイエンスの応用
  • コンピュータ ネットワークおよび通信
  • 人工知能

フィンガープリント

「Global convergence of SMO algorithm for support vector regression」の研究トピックを掘り下げます。これらがまとまってユニークなフィンガープリントを構成します。

引用スタイル