BFGS法

数理最適化において、ブロイデン・フレッチャー・ゴールドファーブ・シャンノ法(: Broyden–Fletcher–Goldfarb–Shanno algorithm)、略してBFGS法は、非制限非線形最適化問題に対する反復的解法の一つである[1]。関連の深いDFP法と同様、BFGS法は勾配のプレコンディショニング[訳語疑問点]曲率の情報を用いて行うことにより降下方向を決定する。その際、損失関数ヘッセ行列の推定値を勾配(またはその推定値)のみを用いて(一般化)割線法により漸進的に改善する[2]

BFGS法における曲率行列の更新には逆行列の評価を要さないため、計算複雑度英語版に留まり、ニュートン法よりも高速である。L-BFGS法もよく用いられ、メモリ使用量を限定できるため、多変数(e.g. >1000)問題に対する解法としてより適している。BFGS-B法はシンプルなボックス拘束を扱える[3]

このアルゴリズムの名前は、チャールズ・ジョージ・ブロイデン英語版ロジャー・フレッチャードナルド・ゴールドファーブ英語版デイビッド・シャンノ英語版に因む[4][5][6]

理論的根拠

[編集]

上のベクトル、 微分可能スカラー値関数とし、の取り得る値に制限はないものとして、を最小化する最適化問題を考える。

BFGS法は初期推定値から始め、各ステージ毎に反復的により良い推定値へと更新していく。

ステージkにおける降下方向英語版 pkはニュートン方程式に類似した次の方程式を解くことにより得られる。

ここでBkxkにおけるヘッセ行列の推定値であり、各ステージごとにxkにおける目的関数の勾配を用いて反復的に更新される。降下方向pkを得たのち、この方向に向けて直線探索を行い、を最小とするようなスカラーγ > 0を求め、次の点xk+1を決定する。

Bkの更新においては、以下の式であらわされる準ニュートン条件が課せられる。

ここでおよびとおくと、Bk+1は以下の正割方程式を満たす。

Bk+1が正定値行列であるためには曲率条件skyk>0が満たされる必要がある。この条件は正割方程式に左からskをかけることにより検証できる。目的関数が強凸関数でない場合、この条件は明示的に課す必要があり、これはたとえばxk+1を決定する際にウルフ条件を満たす点を選べばよい。

xk+1におけるヘッセ行列を全て計算するかわりに、ステージkにおける推定値に次のように2つの行列を足すことによりBk+1を計算する。

UkおよびVkはどちらも階数1の対称行列であるが、これらの和を取ることにより階数2の対称行列を用いて更新することとなる。対称ランク1英語版法と比べ、BFGS法とDFP法はどちらも階数2の行列を更新に用いる点が異なる。より単純な手法である対称ランク1法は階数1の行列を用いて更新を行うが、正定値性が保証されない。Bkの対称性と正定値性を維持するため、更新式はのように選ぶ。正割条件を課すと、およびとして以下を得る[7]

最後に、 αおよびβに代入するとBk+1の更新式は以下のように書ける。

アルゴリズム

[編集]

非線形関数を対称とする非制限最適化問題を考える。

初期推定解および初期推定ヘッセ行列から始め、次の各ステップを反復することによりxkは解に収束する。

  1. 降下方向pkを解くことにより求める。
  2. 1次元最適化(直線探索)を行い、前ステップで求めた降下方向に向う許容しうるステップサイズαkを求める。厳密な直線探索が行われた場合、 となる。実用上はαkがウルフ条件を満たすことをもって許容する、非厳密な直線探索で十分なことが多い。
  3. とし、により推定解を更新する。
  4. を計算する。
  5. により推定ヘッセ行列を更新する。

何らかの基準値ε > 0のもと、勾配のノルムを満たしたとき解が収束したものとみなしアルゴリズムを終了する。

のように選んだ場合、最初のステップは最急降下法と等価となるが、以降のステップはBkがヘッセ行列を推定することにより徐々に改善される。

このアルゴリズムのステップ1はBkの逆行列を用いて実行されるが、この逆行列はステップ5でSherman–Morrisonの公式英語版 を用いることにより次のように効率的に求めることができる。

この計算は が対称行列であり、 および skykがスカラーであることをもちいて次のように展開でき、一時行列を要せず実行することができる。

したがって、逆行列をもとめるための計算を一切することなく、ヘッセ行列の逆行列そのものを推定することが可能である[8]

初期推定解x0、ヘッセ行列の逆行列の推定値H0から始め、次の各ステップを反復することによりxkは解へと収束する。

  1. 降下方向pkにより得る。
  2. 1次元最適化(直線探索)を行い、前ステップで求めた降下方向に向う許容しうるステップサイズαkを求める。厳密な直線探索が行われた場合、 となる。実用上はαkがウルフ条件を満たすことをもって許容する、非厳密な直線探索で十分なことが多い。
  3. とし、により推定解を更新する。
  4. を計算する。
  5. によりヘッセ行列の逆行列の推定値を計算する。

最尤推定ベイズ推定などの統計推定問題においては、最終的なヘッセ行列の逆行列を用いて解の信頼区間もしくは確信区間を推定することができる [要出典]。しかし、これらの量は正確には真のヘッセ行列により定義されるものであり、BFGS近似は真のヘッセ行列に収束しない場合がある[9]

発展

[編集]

BFGS更新公式は曲率skykが常に正であり、ゼロから離れた下界があることに強く依拠している。この条件は凸な対称関数においてウルフ条件を用いた直線探索を用いる場合は満たされるが、実際の問題(たとえば逐次二次計画法)では負やほぼゼロの曲率があらわれることがしばしばある。このようなことは非凸関数を対象とする場合や直線探索ではなく信頼領域アプローチをとった場合におこることがある。この場合、BFGS法は誤った値をあたえることがある。

このような場合には、減衰BFGS更新[10]などと呼ばれる、skおよび/またはykを修正して頑健にした更新式が用いられることがある。

実装

[編集]

オープンソースの実装として有名なものは以下のようなものがあげられる。

  • ALGLIBC++およびC#用のBFGSおよびL-BFGS法を実装する。
  • GNU Octavefsolve関数は信頼領域をもちいた一種のBFGS法を用いる。
  • GSLはgsl_multimin_fdfminimizer_vector_bfgs2関数としてBFGSを実装している[11]
  • R言語では、、BFGS法(および矩形拘束を扱えるL-BFGS-B法)が基本関数optim()のオプションとして実装されている[12]
  • SciPyでは、scipy.optimize.fmin_bfgs関数がBFGS法を実装している[13]。パラメータLにとても大きな数を指定することにより、なんらかのL-BFGS法を実行することもできる。
  • Juliaでは、Optim.jlパッケージにBFGSおよびL-BFGSが実装されている[14]

プロプライエタリな実装としては以下のようなものがあげられる。

  • 大規模非線形最適化ソフトウェアArtelys KnitroはBFGS法およびL-BFGS法の両方を実装する。
  • MATLAB Optimization Toolboxでは、fminunc関数がBFGS法を3次直線探索と組み合わせたアルゴリズムを「中規模スケール」の問題向けに実装している。
  • MathematicaにはBFGS法が含まれる。
  • LS-DYNAもBFGS法を用いて陰解を求めている。

関連項目

[編集]

出典

[編集]
  1. ^ Fletcher, Roger (1987), Practical Methods of Optimization (2nd ed.), New York: John Wiley & Sons, ISBN 978-0-471-91547-8, https://archive.org/details/practicalmethods0000flet 
  2. ^ Dennis, J. E. Jr.; Schnabel, Robert B. (1983), “Secant Methods for Unconstrained Minimization”, Numerical Methods for Unconstrained Optimization and Nonlinear Equations, Englewood Cliffs, NJ: Prentice-Hall, pp. 194–215, ISBN 0-13-627216-9, https://books.google.com/books?id=ksvJTtJCx9cC&pg=PA194 
  3. ^ Byrd, Richard H.; Lu, Peihuang; Nocedal, Jorge; Zhu, Ciyou (1995), “A Limited Memory Algorithm for Bound Constrained Optimization”, SIAM Journal on Scientific Computing 16 (5): 1190–1208, doi:10.1137/0916069, http://www.ece.northwestern.edu/~nocedal/PSfiles/limited.ps.gz 
  4. ^ Fletcher, R. (1970), “A New Approach to Variable Metric Algorithms”, Computer Journal 13 (3): 317–322, doi:10.1093/comjnl/13.3.317 
  5. ^ Goldfarb, D. (1970), “A Family of Variable Metric Updates Derived by Variational Means”, Mathematics of Computation 24 (109): 23–26, doi:10.1090/S0025-5718-1970-0258249-6 
  6. ^ Shanno, David F. (July 1970), “Conditioning of quasi-Newton methods for function minimization”, Mathematics of Computation 24 (111): 647–656, doi:10.1090/S0025-5718-1970-0274029-X, MR274029 
  7. ^ Fletcher, Roger (1987), Practical methods of optimization (2nd ed.), New York: John Wiley & Sons, ISBN 978-0-471-91547-8, https://archive.org/details/practicalmethods0000flet 
  8. ^ Nocedal, Jorge; Wright, Stephen J. (2006), Numerical Optimization (2nd ed.), Berlin, New York: Springer-Verlag, ISBN 978-0-387-30303-1 
  9. ^ Ge, Ren-pu; Powell, M. J. D. (1983). “The Convergence of Variable Metric Matrices in Unconstrained Optimization”. Mathematical Programming 27 (2). doi:10.1007/BF02591941. 
  10. ^ Jorge Nocedal; Stephen J. Wright (2006), Numerical Optimization 
  11. ^ GNU Scientific Library — GSL 2.6 documentation”. www.gnu.org. 2020年11月22日閲覧。
  12. ^ R: General-purpose Optimization”. stat.ethz.ch. 2020年11月22日閲覧。
  13. ^ scipy.optimize.fmin_bfgs — SciPy v1.5.4 Reference Guide”. docs.scipy.org. 2020年11月22日閲覧。
  14. ^ (L-)BFGS · Optim” (英語). julianlsolvers.github.io. 2024年8月17日閲覧。

関連文献

[編集]

外部リンク

[編集]