劣勾配法
劣勾配法(れつこうばいほう、英: Subgradient methods)とは、劣微分を用いた凸最適化の解法である。1960年代から1970年代にかけてナウム・ショアによって編み出された解法であり、微分不可能な目的関数に対して収束性を持つことが知られている。目的関数が微分可能な関数で無制約な問題の場合は最急降下法と同様の探索方向が使用される。
劣勾配法は2階微分可能な連続凸最小化問題に対してニュートン法より収束が遅いが、ニュートン法は微分不可能な点を持つ問題に対して適用することができないことから、汎用性が高い解法である。
近年では、凸最適化問題に対して内点法が提案されているが、射影劣勾配法やバンドル法といった解法も研究がなされている。劣勾配法などは計算にかかるメモリの量が比較的少量で済むことから、高次元の凸最適化問題に対しては適した解法である。
射影劣勾配法は大規模問題に対して分解法と共に使用されることが多い。分解法を用いることで問題を分割して問題を安易に扱うことができる。
古典的な劣勾配法の規則
[編集]定義域 において凸関数を とする。 最も古典的な劣勾配法は以下の式によって反復点が更新される: ただし は 点 における の劣勾配を表し、 は 回目の を表す。 もし が微分可能関数であるならば、劣勾配は勾配 と等しい。 ある反復において劣勾配 が の における降下方向ではない可能性もあり得る。したがって反復を通じて最良の目的関数値 を記録する必要があり、これは: と表される。
ステップサイズ規則
[編集]劣勾配法にはいくつかのステップサイズ規則が知られている。本記事では収束性が証明されている古典的なステップサイズ規則について説明する。
- Constant step size:
- Constant step length: ただし、
- Square summable but not summable step size: 以下の性質を満たすもの
- Nonsummable diminishing: 以下の性質を満たすもの
- Nonsummable diminishing step lengths: ただし、
上記のステップサイズの規則ではステップサイズは反復開始前にあらかじめ固定するオフライン型に分類される。つまり各ステップサイズは各反復における情報を利用しない。このオフライン型の規則は微分可能関数に対する降下法で用いられるオンライン型のステップサイズの規則とは異なった規則となっている。具体的には微分可能関数の最小化問題に対する手法ではウルフ条件を満たすステップサイズを選択する。このときステップサイズは各反復における点や探索方向を用いて決定される。(改良型を含む)劣勾配法におけるステップサイズの規則に関する内容は Bertsekas[1]および Bertsekas、Nedic、Ozdaglar[2] の著書にまとめられている。
収束の結果
[編集]constant step-length を使用し劣勾配のユークリッドノルムが1となるようにスケーリングした場合、劣勾配法は最小値に十分近い値へ収束することがショアにより示されている[3]。すなわち、
が成り立つ。古典的なこれらの劣勾配法は収束が遅いことから、現在では一般的な問題に対して推奨されていないが[4][5]、特定の問題ではその問題特有の性質を活かすことで簡単に適応するできるため、広く用いられている。
射影劣勾配法とバンドル法
[編集]1970年代、凸最適化問題に対して降下法の一種のバンドル法[注釈 1]をクロード・ルマレシャルとフィル・ウルフによって提案された[6]。バンドル法は提案当時と現在において違う意味合いで用いられていた。現在知られている改良型のバンドル法や収束性の解析についてはKiwielによってによってまとめられた[7]。 現在のバンドル法はボリス・ポリャク(1969)の射影劣勾配法から編み出されたステップサイズ決定のためのLevel Control規則を用いている。しかし、特定の問題では射影劣勾配法の方がバンドル法よりも優位性を持っている[4][5]。
制約付き最適化問題
[編集]射影勾配法
[編集]劣勾配法を拡張させた解法として射影劣勾配法が挙げられる。以下の最適化問題:
- minimize subject to
を考える。ただし、 は凸集合を表す。 射影劣勾配法は以下の式によって値を更新していく: ただし、 は の射影、かつ は における の劣勾配を表す。
一般の制約
[編集]劣勾配法は不等式制約付き最適化問題に対する解法として拡張することができる。以下の最適化問題を考える:
- minimize subject to
ただし、 は凸関数である。不等式制約付き最適化問題においても無制約最適化問題と同様に更新式は となる。ただし、 はステップサイズであり、 は における目的関数・制約の関数の劣勾配を表す。すなわち、 と表される。ただし、 は の劣微分である。現在の反復点が制約を満たす場合、劣勾配法は目的関数の劣勾配により値を更新する。現在の反復点が制約を満たさない場合、劣勾配法は違反している制約関数の劣勾配から値を更新する。
脚注
[編集]注釈
[編集]出典
[編集]- ^ Bertsekas 2015.
- ^ Bertsekas 2003.
- ^ The approximate convergence of the constant step-size (scaled) subgradient method is stated as Exercise 6.3.14(a) in Bertsekas(636頁): Bertsekas 1999, p. 636, Bertsekas attributes this result to Shor: Shor 1985
- ^ a b Lemaréchal, Claude (2001). “Lagrangian relaxation”. In Michael Jünger and Denis Naddef. Computational combinatorial optimization: Papers from the Spring School held in Schloß Dagstuhl, May 15–19, 2000. Lecture Notes in Computer Science. 2241. Berlin: Springer-Verlag. pp. 112–156. doi:10.1007/3-540-45586-8_4. ISBN 3-540-42877-1. MR1900016
- ^ a b Kiwiel, Krzysztof C.; Larsson, Torbjörn; Lindberg, P. O. (August 2007). “Lagrangian relaxation via ballstep subgradient methods”. Mathematics of Operations Research 32 (3): 669–686. doi:10.1287/moor.1070.0261. MR2348241 .
- ^ Bertsekas 1999.
- ^ Kiwiel, Krzysztof (1985). Methods of Descent for Nondifferentiable Optimization. Berlin: Springer Verlag. pp. 362. ISBN 978-3540156420. MR0797754
参考文献
[編集]- Bertsekas, Dimitri P. (1999). Nonlinear Programming. Belmont, MA.: Athena Scientific. ISBN 1-886529-00-0
- Bertsekas, Dimitri P.; Nedic, Angelia; Ozdaglar, Asuman (2003). Convex Analysis and Optimization (Second ed.). Belmont, MA.: Athena Scientific. ISBN 1-886529-45-0
- Bertsekas, Dimitri P. (2015). Convex Optimization Algorithms. Belmont, MA.: Athena Scientific. ISBN 978-1-886529-28-1
- Shor, Naum Z. (1985). Minimization Methods for Non-differentiable Functions. Springer-Verlag. ISBN 0-387-12763-1
- Ruszczyński, Andrzej (2006). Nonlinear Optimization. Princeton, NJ: Princeton University Press. pp. xii+454. ISBN 978-0691119151. MR2199043