非線形共役勾配法
この項目「非線形共役勾配法」は翻訳されたばかりのものです。不自然あるいは曖昧な表現などが含まれる可能性があり、このままでは読みづらいかもしれません。(原文:Nonlinear conjugate gradient method) 修正、加筆に協力し、現在の表現をより自然な表現にして下さる方を求めています。ノートページや履歴も参照してください。(2019年1月) |
数理最適化において、非線形共役勾配法(ひせんけいきょうやくこうばいほう、英: nonlinear conjugate gradient method)とは非線形最適化問題に共役勾配法を拡張したものをいう。
原理
[編集]の最小値問題は、次のように勾配が0となる点を得れば解ける。
- .
線形共役勾配法は線形方程式 の求解に用いられるのに対して、非線形共役勾配法は、関数の極小値探索を勾配 のみを用いて行う。この手法は、対象非線形関数が極小点近傍において近似的に2次関数的に振る舞う、すなわち極小点において2階微分可能でありかつ2階微分が非特異的である場合に適用可能である。
N 変数関数 f(x) が与えられたとき、その勾配 はその関数を最も増大させる方向を示す。まずは、最急降下法と同じくその逆方向へと探索を行う。
この方向に直線探索を行うことによりf を最小とするようなステップ長 α を求める。
このように最初のイテレーションで最急方向 に降下した後は、以下の手順に従い、共役方向 を計算してその方向へと降下する。ここで、 とする。
- 最急方向 を算出
- 後述する式に従って を算出
- 共役方向 を算出
- 直線探索 を行う
- 位置を更新
純粋な二次関数では、N 回反復すればかならず(丸め誤差を除いて)最小値に到達するが、非二次関数では収束はより遅くなる。後続の探索方向は共役性を失うため、最適化の進捗が止まる前に、少なくともN回反復する毎に探索方向を最急降下方向にリセットする必要がある。しかし、反復する毎に毎回リセットを行ってしまうと、最急降下法と変わらなくなってしまう。このアルゴリズムは、方向リセットをした後(すなわち最急降下方向)でも進捗がないとき、または何らかの許容基準に達したときに最小値を見つけたとみなして停止する。
線形近似の範囲内ではパラメータ α と β は線形共役勾配法と同一となるが、直線探索を用いて算出する。共役勾配法は、最急降下法ではジグザグパターンに陥ってしまい収束が遅くなってしまうような、狭い(ill-conditionな)谷に沿って最適化を進めることができる。
以下に示す4つの公式が βn の算出方法として有名である。それぞれ、名前は開発者の名に因む。
- Fletcher–Reeves:[1]
- Polak–Ribière:[2]
- Hestenes-Stiefel:[3]
- Dai–Yuan:[4]
これらの公式は2次関数に対しては全て同一となるが、非線形最適化問題に際してはヒューリスティクスもしくは好みにもとづいて選ばれる。 のように選ぶと、自動的に降下方向のリセットも行われるため普及している[5]。
ニュートン法に基くアルゴリズムはより急速に収束する可能性がある。それらのアルゴリズムは勾配とヘッセ行列の厳密値(ニュートン法の場合)もしくは推定値(準ニュートン法の場合)を用いてステップ方向とステップ長の両方を線形方程式系を解いて求める。しかし、高次元の問題においてはヘッセ行列の厳密値の計算は実行不可能なほど計算コストが高く、また推定値でさえその格納には のメモリを要するため格納すら難しい場合がある。
関連項目
[編集]脚注
[編集]出典
[編集]- ^ R. Fletcher and C. M. Reeves, "Function minimization by conjugate gradients", Comput. J. 7 (1964), 149–154.
- ^ E. Polak and G. Ribière, "Note sur la convergence de directions conjugu´ee", Rev. Francaise Informat Recherche Operationelle, 3e Ann´ee 16 (1969), 35–43.
- ^ M. R. Hestenes and E. Stiefel, "Methods of conjugate gradients for solving linear systems", J. Research Nat. Bur. Standards 49 (1952), 409–436 (1953).
- ^ Y.-H. Dai and Y. Yuan, "A nonlinear conjugate gradient method with a strong global convergence property", SIAM J. Optim. 10 (1999), no. 1, 177–182.
- ^ J. R. Shewchuk, "An Introduction to the Conjugate Gradient Method Without the Agonizing Pain", August 1994.
外部リンク
[編集]- An Introduction to the Conjugate Gradient Method Without the Agonizing Pain by Jonathan Richard Shewchuk.
- A NONLINEAR CONJUGATE GRADIENT METHOD WITH A STRONG GLOBAL CONVERGENCE PROPERTY by Y. H. DAI and Y. YUAN.
- Different types of Nonlinear Conjugate Gradient