ドッグレッグ法
この項目「ドッグレッグ法」は翻訳されたばかりのものです。不自然あるいは曖昧な表現などが含まれる可能性があり、このままでは読みづらいかもしれません。(原文:en: Powell's dog leg method) 修正、加筆に協力し、現在の表現をより自然な表現にして下さる方を求めています。ノートページや履歴も参照してください。(2022年9月) |
ドッグレッグ法(ドッグレッグほう、英: dog leg method)またはパウエルのドッグレッグ法(パウエルのドッグレッグほう、英: Powell's dog leg method)は、1970年にマイケル・J・D・パウエルによって導入された、非線形最小二乗問題を解くための反復的最適化アルゴリズムである[1]。レーベンバーグ・マルカート法と同様、ガウス・ニュートン法と勾配降下法とを組み合わせるが、信頼領域を明示的に使用する。各反復において、ガウス・ニュートン法により算出されたステップが信頼領域内にある場合は、それを使用して現在の解を更新する。ガウス・ニュートン法により算出されたステップが信頼領域外に出てしまう場合、コーシー点と呼ばれる最急降下方向に沿った目的関数の最小点を探す。コーシー点が信頼領域の外側にある場合は、信頼領域の境界まで切りつめられ、新しい解として採用される。コーシー点が信頼領域内にある場合、新しい解は、信頼領域の境界と、コーシー点とガウス・ニュートン法によるステップを結ぶ線(ドッグレッグステップ)との交点を次の解とする[2]。
このアルゴリズムの名前は、ドッグレッグステップの構成がゴルフのドッグレッグホールの形状に似ていることに由来する[2]。
定式化
[編集]を所与として、次の形式の最小二乗問題を考える。
パウエルのドッグレッグ法は最適点に収束する点列をにより構築することでこの問題を解く。各反復において、ガウス・ニュートン法ステップは次のように与えられる。
ここで、はヤコビ行列を表わす。一方、最急降下方向は次式のように与えられる。
目的関数を最急降下方向に沿って線形化すると、以下を得る。
コーシー点におけるパラメータtの値を計算するには、最後の表式をtに関して微分したものとゼロを結んだ等式を解けばよく、解は次の式で与えられる。
所与の信頼半径のもと、パウエルのドッグレッグ法では次のように更新ステップを選択する。
- ガウス・ニュートンステップが信頼領域内にある場合()、
- と最急降下ステップの両方が信頼領域の外にある場合()、
- は信頼領域の外側にあるが、は内側にある場合、をについてを満たすよう解いたもの(ドッグレッグステップ)[1]
出典
[編集]参照文献
[編集]- Lourakis, M.L.A.; Argyros, A.A. (2005). “Is Levenberg-Marquardt the most efficient optimization algorithm for implementing bundle adjustment?”. Tenth IEEE International Conference on Computer Vision (ICCV'05) Volume 1. pp. 1526-1531. doi:10.1109/ICCV.2005.128. ISBN 0-7695-2334-X
- Yuan, Ya-xiang (2000). "A review of trust region algorithms for optimization". Iciam. Vol. 99.
- Powell, M.J.D. (1970). “A new algorithm for unconstrained optimization”. In Rosen, J.B.; Mangasarian, O.L.; Ritter, K.. Nonlinear Programming. New York: Academic Press. pp. 31–66
- Powell, M.J.D. (1970). “A hybrid method for nonlinear equations”. In Robinowitz, P.. Numerical Methods for Nonlinear Algebraic Equations. London: Gordon and Breach Science. pp. 87–144
外部リンク
[編集]- “Equation Solving Algorithms”. MathWorks. 2022年9月17日閲覧。