転移学習

出典: フリー百科事典『ウィキペディア(Wikipedia)』

転移学習(てんいがくしゅう、: transfer learning)は、ある問題を解決する際に得た知識を蓄積し、関連する別の問題にそれを適用することに焦点を当てた機械学習の研究領域である[1]。たとえば、乗用車を認識するために得た知識は、トラックを認識するためにも応用できるかもしれない。この研究領域は、学習転移英語版に関する長い歴史を持つ心理学の文献と何かの関係をもつが、2つの分野の実用的な結びつきは限定的である。実用的な面では、過去に学習した仕事の情報を新たな仕事の学習のために再利用または転送することで、強化学習手段のサンプル効率を大幅に改善することができる可能性がある[2]

歴史[編集]

1976年、Stevo BozinovskiとAnte Fulgosiは、ニューラルネットワークの学習における転移学習に明示的に取り組んだ論文を発表した[3][4]。この論文では、転移学習の数学的および幾何学的モデルを示している。1981年には、コンピュータ端末の文字を表す画像のデータセットに対して、転移学習を適用してニューラルネットワークを学習させた研究が報告された。ポジティブとネガティブな両方の転移学習が実験的に実証された[5]

1993年、Lorien Prattは、機械学習における転移についての論文を発表し、識別性に基づく転移アルゴリズムを定式化した[6]

アンドリュー・ンは、NIPS 2016のチュートリアルで[7][8][9]、転移学習は教師あり学習の次に機械学習の商業的成功の原動力になると述べ、その重要性を強調した。

定義[編集]

転移学習の定義は、ドメインとタスクの観点から与えられる。ドメイン は、特徴空間 周辺確率分布 からなり、ここに とする。特定のドメイン が与えられた場合、タスクは、ラベル空間 と、目標の予測関数 の2つの要素から構成される。この関数 は、新しいインスタンス の対応するラベル を予測するために用いられる。このタスクは、 で示され、 のペア からなる学習データから学習される[10]

ソースドメイン と学習タスク 、ターゲットドメイン と学習タスク が与えられ、ここで の場合、転移学習の目的は、 の知識を用いて、 の対象の予測関数 の学習を改善することである[10]

応用[編集]

マルコフ論理ネットワーク英語版[11]ベイジアンネットワーク[12]における転移学習のアルゴリズムが利用可能である。また、転移学習は、癌(がん)の亜類型の発見[13]建物運用[14][15]一般的なゲームプレイ英語版文書分類[16][17][18]文字認識[19]、医療画像、スパムフィルタリング[20]にも応用されている。

2020年に、脳波記録(EEG)波形の動きをジェスチャー認識領域から精神状態認識領域へ分類するときに、その物理的性質が似ていることから、筋肉からの電気筋運動記録(EMG)信号間で転移学習が可能であることが発見された。また、この関係は逆にも作用し、脳波記録が筋運動記録をさらに分類できることも示された[21]。この実験では、ニューラルネットワークおよび畳み込みニューラルネットワークの精度が、最初のエポック(学習前、つまり標準的なランダムな重み分布との比較)と漸近(学習プロセスの終了)の両方で、転移学習によって向上することが分かった[22]。すなわちアルゴリズムは別のドメインに触れさせることで改善された。さらに、事前学習されたモデルの最終使用者は、完全結合層の構造を変更することで、より優れた性能を得ることができる[23]

コードに関する機械学習の領域では[24]、転移学習がセキュリティ上の脆弱性を自動的に修復するのに役立つことが示されている[25]

参照項目[編集]

脚注[編集]

  1. ^ Spring Research Presentation: A Theoretical Foundation for Inductive Transfer”. Brigham Young University, College of Physical and Mathematical Sciences (2007年). 2007年8月1日時点のオリジナルよりアーカイブ。2007年8月5日閲覧。
  2. ^ George Karimpanal, Thommen; Bouffanais, Roland (2019). “Self-organizing maps for storage and transfer of knowledge in reinforcement learning”. Adaptive Behavior 27 (2): 111–126. arXiv:1811.08318. doi:10.1177/1059712318818568. ISSN 1059-7123. 
  3. ^ Stevo. Bozinovski and Ante Fulgosi (1976). "The influence of pattern similarity and transfer learning upon the training of a base perceptron B2." (original in Croatian) Proceedings of Symposium Informatica 3-121-5, Bled.
  4. ^ Stevo Bozinovski (2020) "Reminder of the first paper on transfer learning in neural networks, 1976". Informatica 44: 291–302.
  5. ^ S. Bozinovski (1981). "Teaching space: A representation concept for adaptive pattern classification." COINS Technical Report, the University of Massachusetts at Amherst, No 81-28 [available online: UM-CS-1981-028.pdf]
  6. ^ Pratt, L. Y. (1993). “Discriminability-based transfer between neural networks”. NIPS Conference: Advances in Neural Information Processing Systems 5. Morgan Kaufmann Publishers. http://papers.nips.cc/paper/641-discriminability-based-transfer-between-neural-networks.pdf 
  7. ^ (英語) NIPS 2016 tutorial: "Nuts and bolts of building AI applications using Deep Learning" by Andrew Ng, https://www.youtube.com/watch?v=wjqaz6m42wU 2019年12月28日閲覧。 
  8. ^ NIPS 2016 Schedule”. nips.cc. 2019年12月28日閲覧。
  9. ^ Nuts and bolts of building AI applications using Deep Learning, slides
  10. ^ a b Lin, Yuan-Pin; Jung, Tzyy-Ping (27 June 2017). “Improving EEG-Based Emotion Classification Using Conditional Transfer Learning”. Frontiers in Human Neuroscience 11: 334. doi:10.3389/fnhum.2017.00334. PMC 5486154. PMID 28701938. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC5486154/.  Material was copied from this source, which is available under a Creative Commons Attribution 4.0 International License.
  11. ^ Mihalkova, Lilyana; Huynh, Tuyen; Mooney, Raymond J. (July 2007), “Mapping and Revising Markov Logic Networks for Transfer”, Learning Proceedings of the 22nd AAAI Conference on Artificial Intelligence (AAAI-2007), Vancouver, BC, http://www.cs.utexas.edu/users/ml/papers/mihalkova-aaai07.pdf 2007年8月5日閲覧。 
  12. ^ Niculescu-Mizil, Alexandru; Caruana, Rich (March 21–24, 2007), “Inductive Transfer for Bayesian Network Structure Learning”, Proceedings of the Eleventh International Conference on Artificial Intelligence and Statistics (AISTATS 2007), http://www.stat.umn.edu/~aistat/proceedings/data/papers/043.pdf 2007年8月5日閲覧。 
  13. ^ Hajiramezanali, E. & Dadaneh, S. Z. & Karbalayghareh, A. & Zhou, Z. & Qian, X. Bayesian multi-domain learning for cancer subtype discovery from next-generation sequencing count data. 32nd Conference on Neural Information Processing Systems (NeurIPS 2018), Montréal, Canada. arXiv:1810.09433
  14. ^ Arief-Ang, I.B.; Salim, F.D.; Hamilton, M. (8 November 2017). DA-HOC: semi-supervised domain adaptation for room occupancy prediction using CO2 sensor data. 4th ACM International Conference on Systems for Energy-Efficient Built Environments (BuildSys). Delft, Netherlands. pp. 1–10. doi:10.1145/3137133.3137146. ISBN 978-1-4503-5544-5
  15. ^ Arief-Ang, I.B.; Hamilton, M.; Salim, F.D. (2018-12-01). “A Scalable Room Occupancy Prediction with Transferable Time Series Decomposition of CO2 Sensor Data”. ACM Transactions on Sensor Networks 14 (3–4): 21:1–21:28. doi:10.1145/3217214. 
  16. ^ Banerjee, Bikramjit, and Peter Stone. "General Game Learning Using Knowledge Transfer." IJCAI. 2007.
  17. ^ Do, Chuong B.; Ng, Andrew Y. (2005). "Transfer learning for text classification". Neural Information Processing Systems Foundation, NIPS*2005 (PDF). 2007年8月5日閲覧
  18. ^ Rajat, Raina; Ng, Andrew Y.; Koller, Daphne (2006). "Constructing Informative Priors using Transfer Learning". Twenty-third International Conference on Machine Learning (PDF). 2007年8月5日閲覧
  19. ^ Maitra, D. S.; Bhattacharya, U.; Parui, S. K. (August 2015). “CNN based common approach to handwritten character recognition of multiple scripts”. 2015 13th International Conference on Document Analysis and Recognition (ICDAR): 1021–1025. doi:10.1109/ICDAR.2015.7333916. ISBN 978-1-4799-1805-8. 
  20. ^ Bickel, Steffen (2006). "ECML-PKDD Discovery Challenge 2006 Overview". ECML-PKDD Discovery Challenge Workshop (PDF). 2007年8月5日閲覧
  21. ^ Bird, Jordan J.; Kobylarz, Jhonatan; Faria, Diego R.; Ekart, Aniko; Ribeiro, Eduardo P. (2020). “Cross-Domain MLP and CNN Transfer Learning for Biological Signal Processing: EEG and EMG”. IEEE Access (Institute of Electrical and Electronics Engineers (IEEE)) 8: 54789–54801. doi:10.1109/access.2020.2979074. ISSN 2169-3536. 
  22. ^ Maitra, Durjoy Sen; Bhattacharya, Ujjwal; Parui, Swapan K. (August 2015). “CNN based common approach to handwritten character recognition of multiple scripts”. 2015 13th International Conference on Document Analysis and Recognition (ICDAR): 1021–1025. doi:10.1109/ICDAR.2015.7333916. https://ieeexplore.ieee.org/document/7333916/. 
  23. ^ Kabir, H. M., Abdar, M., Jalali, S. M. J., Khosravi, A., Atiya, A. F., Nahavandi, S., & Srinivasan, D. (2020). Spinalnet: Deep neural network with gradual input. arXiv preprint arXiv:2007.03347.
  24. ^ Allamanis, Miltiadis; Barr, Earl T.; Devanbu, Premkumar; Sutton, Charles (2019-07-31). “A Survey of Machine Learning for Big Code and Naturalness” (英語). ACM Computing Surveys 51 (4): 1–37. doi:10.1145/3212695. ISSN 0360-0300. https://dl.acm.org/doi/10.1145/3212695. 
  25. ^ Chen, Zimin; Kommrusch, Steve James; Monperrus, Martin (2022). “Neural Transfer Learning for Repairing Security Vulnerabilities in C Code”. IEEE Transactions on Software Engineering: 1–1. doi:10.1109/TSE.2022.3147265. ISSN 1939-3520. https://ieeexplore.ieee.org/document/9699412/. 

推薦文献[編集]