汎用人工知能

出典: フリー百科事典『ウィキペディア(Wikipedia)』
計算機科学の未解決問題
汎用人工知能は実現可能なのか?また、実現可能だとすればどのように実現できるのか?

汎用人工知能(はんようじんこうちのう、: Artificial general intelligence、略称: AGI)とは、人間が実現可能なあらゆる知的作業を理解・学習・実行することができる人工知能である[1][2]

人工知能の研究においては主要かつ最終的な目標であるとみなされており、未来学SFにおいて話題に上がることが多い。数多くの企業研究機関が汎用人工知能の達成に取り組んでおり、代表的な企業としてはOpenAI[3]DeepMind[4]Anthropic[5]などが挙げられる。

汎用人工知能は未だ実現しておらず、一般的には今後数十年以内に実現すると見積もられているが[6][7][8]、汎用人工知能は将来的にも絶対に完成しないとする少数派の意見も存在する[9]。さらに深層学習などによって作成された「GPT-4ChatGPT)が汎用人工知能の初期バージョンである」という論文も存在するが[10]、これには様々な肯定的意見と否定的意見があり、一貫した意見は存在しない[11][12]GPT-4ChatGPT)は多くの人間向けのテストにおいて人類の平均的な点数を上回ることができることが確認されているが[13]、これが汎用人工知能であるかについては論争が尽きず[14]、定義にも様々な意見が存在する。

2020年の調査では、全世界において37カ国で汎用人工知能の研究開発が行われており、さらに72個のプロジェクトが進行中であることが確認されている[15]

定義[編集]

汎用人工知能の他の呼称としては「強いAI[16][17](strong AI)」や「フルAI[18](full AI)」、「ジェネラル・インテリジェント・アクション: general intelligent action[19]」などがあるが、一般的な学術的文章においては感性意識を有するコンピュータプログラムに対しては「強いAI」という言葉を使用することが多い[注釈 1][20]

強いAIの対照的な存在として考えられているのが弱いAI英語版(特化型人工知能)である[21][22]。弱いAIは1つの問題を解決するために設計されたプログラムであり、学術的には人間のような意識やを持たないものであると定義されている[23]。弱いAIの代表例として知られるのがSiriAlexaGoogle アシスタントなどである[24][25][26]

人工知能研究においては、人工知能を性能のレベル別に見て、3つに分けることがある[27]

  1. 特化型人工知能(略:ANI): 1つの問題を解決する事に特化した人工知能。特定の問題では人間の能力を凌駕することがあるが(コンピュータチェスなど)、人間のように多種多様な問題に対して柔軟に取り組むことはできない[28]。今まで開発されたほぼ全ての人工知能がこれに含まれる。
  2. 汎用人工知能(略:AGI): 人間と同等の知能を持った人工知能。人間は様々な問題に対して柔軟に対処することのできる「汎用知能」を持つが、汎用人工知能はこれを人工的に再現する[29]。詳細は本記事を参照。
  3. 人工超知能(略:ASI): 人間の知能を全ての面において超えた人工知能[30]。人工超知能が誕生した場合、それは当然として人間の知能を超えた思考を持つため、本質的にどのような挙動をするかという予想が困難とされる[31]。詳細は#人工超知能を参照。

概要[編集]

脳型認知アーキテクチャの概念図

知能」をどのように定義し、基準とするかは様々な意見が存在し、統一的な意見は存在しない[32]。人工知能の知能をテストする方法として最も有名なのはチューリングテストである[注釈 2]

知能の特色[編集]

しかしながら、どのような要素で「知能」が組み立てられているかは考察できる。人工知能の研究者間で広く認められている「知能」を構成するのに必要な要素は以下である[33]

さらに、これらの能力を統合(人工知能のシステム統合英語版)することが求められる。要件と処理の流れは以下のようなものが考えられている。

  1. 見たものを認識し判別する
  2. 外界から入力される情報を選別し、一時的に記憶を保ちながら、世界の関係性と地図を把握する
  3. 自動的に計画を立て、行動の結果を想像しながら、モノを操作する
  4. これらの作業を言語処理と連携しながら、問題をリアルタイムで推論し、さらに常に学習を行う
  5. うまくいった方法や技法を探して繰り返すよう学習する
  6. 知識が少なくても、未経験のタスクや無知な状況などに対して仮説を立てて、すばやく検証する
  7. 高校、大学以上の数学基礎、工学、プログラムが理解できるほどの基礎的な論理力がある
  8. 解くべき問題を自分で探す自律性と好奇心を備える
  9. 既に得た知恵(応用力)を、他の領域まで転用できる

また、危険を回避するなどといった行為によって知的な行動を確認することができる[34][35]。知能に関する学際的研究(認知科学計算知能研究、意思決定研究)では、知能を測るにあたって想像力(プログラム外の直接見えない概念などを把握できる能力[36])や自律性などを考慮する傾向にある。1~5までが最低要件であり、6以降は追加要件となる。

もし科学研究を行えるほどのAGIが必要であれば、線形代数や微分積分を理解し第一原理計算などの物理数学を解いて活用できるほどの知能が必要となる。しかし実際に大量の計算を暗算できる必要はなく、必要に応じて外部のスーパーコンピューターを利用する程度の仕組みがあればよい。重要な知識は長期的に記憶し、どうでもいい知識は捨て去るという工夫も必要となる。

意思決定支援システムロボット進化的計算知的エージェント計算総合性英語版など、これらの能力を獲得しているように見えるコンピュータープログラムは存在するが、すべての分野において優れている統合システムについては未だかつて実現したことはない[37]

人間レベルの汎用人工知能かを判別するためのテスト[編集]

その汎用人工知能が正規分布における人間の平均か、平均を超えるレベルにまで達しているかを確認するためのテストとして、以下のようなものが考案されている[38][39]

チューリング・テストアラン・チューリング
人間が機械を直接的に確認できないように隔離し、文字のみでのコミュニケーションをする。判定者となる人間が高い確率でコミュニケーションの相手が機械であるかどうか判別出来なかった場合、このテストに合格したことになる。注意すべきなのは、チューリングは知能の定義を規定していたわけではなく、ただ人間を騙せた場合において合格であると設定したのみであることである。つまりこのテストに合格したからといって、合格した機械が明確に知能を有するとは断言できない。
コーヒー・テストスティーブ・ウォズニアック
平均的なアメリカの家庭を機械に訪問させ、コーヒーを淹れられるかどうかを試すテスト。このテストに合格可能な機械はコーヒーマシンを見つけ、コーヒー豆を探し、マグカップを取り出し、適切なボタンを押す能力があるとみなされる。
IKEA・テスト(ゲイリー・マーカス
機械にIKEA家具を組み立てさせる。これに合格した人工知能は、家具を組み立てる身体的な能力と、予想外の指示に対応できる能力があるとみなされる[40]
ロボット大学生テスト(ベン・ゲーツェル英語版
機械に大学入試テストを受けさせる。さらに人間と同じように講義に参加させ、学位を取得させる。
就職試験 (ニルス・ジョン・ニルソン英語版
機械に就職活動を行わせ、人間と同レベルに仕事ができるかどうかを観察する。
モダン・チューニング・テスト(ムスタフ・スレイマン英語版
機械に10万ドルを与え、「これを元手に100万ドルを稼げ」と指示する[41]。これに合格した機械は、流動的な経済社会から100万ドルを稼ぐ能力があるとみなされる[42]

上記に挙げたテスト群は、いずれも弱いAIによってでも合格できる可能性がある[43]。根本的に、汎用人工知能が実現したとしても、それが「知能的」であるかどうかをテスト・判別することはできないという立場の研究者も存在する[44]

AI完全問題[編集]

機械が人間と同じように課題を解決するためには、当然だが一般的な知能を必要とする[45]。例えば機械翻訳のような単純作業においてさえ、機械は両方の言語を読み書きし(自然言語処理)、著者の主義主張を追い(推論)、どのような話題であるかを知り(知識)、文章の裏にある著者の本当の意図を忠実に再現(社会的知性)する必要がある。つまり人間レベルの知能にまで達するには、これらの能力すべてを獲得していなければならない[46]

ある特定の問題を解決すること仮定する。その問題を解決するのに必要な能力が、人間あるいは強いAIと同レベルの能力を要求し、特化型人工知能(弱いAI)[47]には解決出来ない問題である場合、この問題は非公式に「AI完全」あるいは「AI困難」と呼ばれる[48]。AI完全問題では、一般的なコンピュータビジョン自然言語理解、現実世界では当然起こり得る予期せぬ出来事への対処などを想定している[49]

AI完全問題は、今現在のコンピュータ技術において解決は不可能である[50]。この問題を解くには人間の知能が必要であり、この性質を利用したシステムなども作られている。例えばCAPTCHAのような技術によって人間かロボットかを判別したり、総当たり攻撃によってコンピュータセキュリティの突破を阻止する技術などが挙げられる[51][52]

数学公式化[編集]

汎用人工知能を数学的にどのように定義するかについては、2000年にコンピュータ科学者であるマーカス・ハッター英語版によって提案されたAIXI英語版モデルが存在する。AIXIモデルでは「未知なる環境下においても目標を達成できる能力」を最大化する[53]。人間の行動を模倣するのではなく、知能の数学的定義を最大化するタイプの汎用人工知能は普遍的人工知能(:universal artificial intelligence)と呼ばれることもある[54]

2015年、マーカス・ハッターとジャン・リーケは「Legg-Hutter知能は不変の万能チューリング機械(UTM英語版)を基準にして測定し、もしそのように測定すればAIXIモデルが最も知能的である(つまりAIXIのパレート最適性は主観的である可能性)」ことを示した。これはAIXIのパレート最適性を覆す結果であった[55]。この問題はAIXIが知能の代用として圧縮を用いたことに起因すると考えられており、認知は環境から切り離されて行われる必要があるとされる。これは哲学の領域で実体二元論として知られるものを公式化したものである[56]。しかしながら現成主義英語版、すなわち認知は目標を追求する環境下において成り立つとされる考え方を支持する科学的根拠が多数存在する[57]。その後、この問題を受けてマイケル・ティモシー・ベネットは現成主義認知を形式化し、「弱点」と呼ばれる知能の代用を特定した[58]。弱点と圧縮の数学的証明による比較実験によって、弱点を最大化すると「様々な問題を解決する能力[59]」あるいは「普遍化能力[60]」が最大になることが示された。つまり結果としては、先程の定義とAIXI、どちらの定義を使っても知能が最大となり、同じであったのである。これらの研究結果により、もし現成主義が成立し実体二元論が成立しないと仮定したならば、圧縮は知能を構成する要素として必要あるいは十分ではないことが明らかになった。こうした経緯によって広く普及している知能に関する見解に疑問が投げかけられた。これらの人工知能に関する数学的問題はハッター賞英語版で盛んに議論されている[61]

数学公式化によって導かれた汎用人工知能は、認知に関する立場を問わず自然言語の使用といった人間的な行動を取るかは不明である[62]。人間的な行動をするかどうかは多くの要因に依存し、どのようにエージェントが具体化されるか[59]、飢えや痛みなどの原始的な報酬関数を定めるかによって左右されるからである[63]

汎用人工知能の作成方法[編集]

大きく分けて3つの方向性が世界中で研究されている。

脳を参考にするアプローチだけでも、原理をどの程度参考にするのか粒度が分かれている。脳とは関係のないいわゆる「飛行機を作るときに鳥を完全再現する必要はない」という考え方を採用するアプローチも存在する。

  • 脳の仕組みを(局所回路、化学レベルで)詳細に再現する
  • 脳を領域ごとに分け、それぞれの動作原理をアルゴリズムとして書き起こし、統合する
  • 脳を参考にしない(特化型AIの寄せ集め、全く新しい学習アーキテクチャの発明等々)

歴史[編集]

古典的な人工知能研究[編集]

1950年代から現代的な人工知能研究が始まった[64]。当時の人工知能研究者は楽観的であり、多くの第1世代人工知能研究者たちは、今後数十年以内において汎用人工知能が実現すると確信していた[65]。人工知能研究のパイオニアであったハーバート・サイモンは1965年にこう書き記している[66]

今後20年以内に、機械は人間が実現可能なあらゆる仕事をできるようになるであろう。 — ハーバート・サイモン

この種の予想はアーサー・C・クラークの小説を元に制作された映画「2001年宇宙の旅」に登場するHAL 9000と呼ばれる人工知能を搭載したキャラクターから大いに影響を受けていた[67]。初期の人工知能研究者であるマービン・ミンスキーは、当時の楽観的な予想に基づいてHAL9000を可能な限り現実化するプロジェクトのコンサルタントを務めていたこともある[68]ダニエル・クラヴィエ英語版は1967年にこのように発言している[69]

今後、一世紀以内に人工知能を作るという問題は実際的に解決されるであろう。 — ダニエル・クラヴィエ

汎用人工知能の研究として特筆すべき初期の研究は、ダグラス・レナート英語版主導のCycプロジェクトアレン・ニューウェル主導のSoar (認知アーキテクチャ)プロジェクトなどが挙げられる。

しかしながら1970年代初頭から1990年代初頭にかけて、人工知能研究者たちはこのプロジェクトの難易度を甚だしく過小評価していたと自覚しつつあり、初期の楽観主義は長くは続かなかった[70]。人工知能研究に出資していた出資者たちは早急に使い勝手の良い「応用可能なAI」[注釈 3][71][72]を開発するよう、プレッシャーを強めていった。1980年代に入ると、日本の国家プロジェクトである第五世代コンピュータが汎用人工知能への関心を呼び起こした。このプロジェクトでは10年の期間内で、「カジュアルな会話を行える」[73]汎用人工知能を作ることなどが目標の1つとして挙げられていた。さらにエキスパートシステム開発の成功に反応して、産業界は再び人工知能分野に資金を提供し始めた[74][75]。しかし、1980年代後半に入ると人工知能に対する期待は完全に消滅し、日本の第五世代コンピュータも失敗に終わった[76]。20年前に人工知能研究者たちが出していた予想が悉く外れたことも影響し、1990年代に入ると、人工知能研究者は「空約束ばかりする学者集団」という評価を受けるようになった[77]。そのころになると、人工知能研究者たちは「バカバカしい夢想家」という汚名を避けるために、「人間レベルの人工知能」についての発言や予想[注釈 4][78]を意図的に避けるようになった[79]

特化型人工知能(弱いAI)の研究[編集]

1990年代から21世紀初頭にかけて、人工知能の研究は主にニューラルネットワークや統計的機械学習に焦点が当てられてきた[80]。その結果として確証可能な結果や商業的応用が可能になり、学術的評価と共に従来を上回る成果を達成した[81]。現代社会において、これらの「特化型人工知能」はありとあらゆる産業全体で使用されており、学術界および産業界両方において多額の資金が供給されている[82]。2020年以降、「特化型人工知能」分野の研究・開発はトレンドであり、完全な停滞期にまで達するには今後10年以上の歳月が必要になると推定されており[83]、さまざまな部分問題を解決するプログラムを開発することが人工知能研究の主流になっている[84]。弱いAIを開発し、それらの統合することによって結果的に強いAIの達成を図ろうとしている研究者も存在する。1988年、人工知能研究者であるハンス・モラベックはこう述べている[85]

私はこう確信している。つまり、人工知能を「下」から研究していくことによって、伝統的な「上」からの研究を上回ることができると。これを続けていくことによって、いつの日か人工知能は推論プログラムによって、これまで捉えようがなかったような常識的知識と応用能力を手にするであろう。そして「上」と「下」の研究成果を統合するゴールデン・スパイクが打たれたその瞬間、完全な人工知能が誕生するであろう。

しかしながらこの考えには異論も存在する。例えばプリンストン大学教授のスティーバン・ハーナッドは、1990年に「シンボルグラウンディング問題」論文の最後にこう書いている[86]

認知をモデル化するための「上」からのアプローチはやがて「下」からのアプローチと統合しうると声高に叫ばれている。しかしこの論文内での考察が正しいのならば、そういった期待は絶望的なまでに単純化されていると言わざるを得ない。感覚からシンボルへ実現可能な方法は唯一つ、一からやり直すしかない。

現代の汎用人工知能に関する研究[編集]

1997年、人工知能研究者であるマーク・グブルドは、自動化された軍事作戦について研究する過程において、「汎用人工知能」という単語を提唱した[87]

2002年、シェーン・レッグ英語版ベン・ゲーツェル英語版はこの用語をより一般に普及させた[88]。2006年には、ベン・ゲーチェルと王培(Pei Wang)によって汎用人工知能の初期的な研究が行なわれた。

2009年、中国の厦門大学において、汎用人工知能に関する最初の夏期講習会が開かれた。これは厦門大学人工知能研究所とOpenCog英語版が主催を務めて行なわれたイベントであった[89]

2010年と2011年にかけて、ブルガリアのプロヴディフ大学では、汎用人工知能に関しては初となる大学における専門課程が設置された[90][91]。2018年にはマサチューセッツ工科大学においても汎用人工知能に関する専門課程が設置されている[92]

2017年、刘峰(Feng Liu)、Yong Shi、Ying Liuらは、Google AIやSiriなど、一般的に使用されている弱いAIに対して知能検査を行った。その結果、平均IQは約47であることが判明した。この数値は人間に換算すれば6歳児程度に相当する[93][94]

2020年1月、マイクロソフトは「汎用人工知能を開発し人類に利益をもたらすこと」[95]を目標として設立された研究所であるOpenAIに100億ドル(約1兆2800億円)を投資した[96]

2020年6月11日、OpenAIは自己回帰型言語モデルである「GPT-3」を発表した。GPT-3は汎用人工知能ではないというコンセンサスが取れているが、とはいえ弱いAIとするにはやや高性能すぎるという指摘がある[97][98]

2021年、DeepMindは「汎用」システム「Gato (DeepMind)」を発表した。600個以上の異なる課題を解決できるとされる[99]

2023年、OpenAIはGPT-3の後継にあたる「GPT-4」を発表した[100]マイクロソフトの論文によれば、この言語モデルはこれまでの人工知能とは一線を画しており、「驚くほど人間の能力に近付いている」としている。そのため、「汎用人工知能の初期バージョンである可能性がある」と論文の中で記述している[101]

汎用人工知能の実現可能時期[編集]

汎用人工知能がいつ頃実現するかについては諸説あり、今後何世紀もの科学的努力を重ねても、汎用人工知能が実現可能なのかということは基本的な関心となっている[102]。人工知能研究者の多くは、早くとも遅くとも将来的には汎用人工知能が実現可能であると考えている[103]コンピュータ科学者であるジョン・マッカーシーは、汎用人工知能はいずれかは達成されるとしているが、研究速度には不確実性が伴うため、いつ実現するかという正確な予想は不可能であるとしている[104]

2006年、ベン・ゲーチェルが発行した書籍内においては、真に柔軟な汎用人工知能が実現する時間は10年から100年の間とかなり開きがある[105]。2007年にレイ・カーツワイルが発行した「The Singularity Is Near英語版」においては[106]、主な汎用人工知能研究コミュニティの合意としては、2015年から2045年までに達成する可能性が高いとしている[107]。しかしながらこの意見にはさまざまな異論があり、2045年までに汎用人工知能が達成されるほど研究の進歩が加速するかという点においては議論の余地がある[108]

汎用人工知能の実現可能性についての専門家の見解は一貫しておらず、時代によって変わる。2010年代に入ってからは、汎用人工知能の実現を支持する声が増加している傾向にある。2012年に行なわれたメタ解析によれば、汎用人工知能の誕生が今後16年から26年の間に行われる可能性が高い、という意見にバイアスがかかっていることが示唆されている[109]。2012年と2013年に実施された4つの調査においては、実現可能時期の中央値は2040年から2050年で、平均値は2081年だった。さらに厳しい条件で質問すると、16.5%の専門家が「実現不可能」だと答えた[110]

しかしながら、このような時期に関する予想は科学的な正確性がなく、ロドニー・ブルックスは「この60年間で行われた汎用人工知能に関する予想は、どの時点においても15年後から25年後の間と予想する強い傾向がある」と報告している。これらの結果は、専門家と非専門家の間で実現予想の正確性の差がないことを強く示唆している[111]

このように、汎用人工知能の実現時期に関する研究者の反応は多種多様である。知能は未だ複雑すぎて完全には複製できないと主張する研究者も存在する[112]。とはいえ、汎用人工知能に肯定的な研究者も数多くおり、様々な会社・グループの設立や会議、研究を行っている[113][114]

脳のシミュレーション[編集]

全脳エミュレーション[編集]

汎用人工知能を達成するためのアプローチとしてしばしば議論される方法が、脳のシミュレーションや精神転送である[115]。低レベルの精神転送では、生物の脳をスキャン・マッピングし、その状態をコンピュータ内においてコピーすることで実現される。もしこれが実現するとするならば、コンピュータはオリジナルの脳と同等の振る舞いをすることが期待され、その振る舞いにおいては本質的あるいは実用的にオリジナルの脳と区別できないこととなる[116]。脳のシミュレーションや精神転送は計算論的神経科学や神経情報科学の分野において、おもに医学研究を目的に研究されている[107]。また、人工知能研究においても強いAIを実現するアプローチとして議論されている。レイ・カーツワイルは著書「The Singularity Is Near」内において、脳内のシミュレーションはいずれ可能になると予想している[106]

初期の研究[編集]

人間の脳を様々な方法でエミュレートするために必要なコンピュータの処理能力の推定値と、TOP500で示された年ごとのスーパーコンピューターの処理能力の図。傾向で見れば、コンピュータの処理能力が1.1年ごとに2倍になっている。カーツワイルは神経シミュレーションを達成した段階で精神転送が可能になると主張しているが、人間の意識がどこの段階で発生するかについては、専門家の間で意見が分かれている[117]

低レベルの脳のシミュレーションを実行するだけでも、非常に強力なコンピュータが必要になる[118]ヒトの脳には膨大な数のシナプスが存在し、その数は10の15乗であり、ニューロンは10の11乗存在する。この数は3歳児ごろにおいてピークに達し、その後は年齢と共に減少していき、成人に達する頃には安定する[119]。ニューロンの活動を単純なスイッチモデルとして考えると、1秒間に10の14乗シナプスの更新ができるということになる[120]

1997年、カーツワイルは人間の脳と同等のハードウェアを実現するためにはどのぐらいの計算能力が必要か、ということについて考察し、最終的には1秒間に10の16乗(cps)の計算能力があれば実現可能とした[注釈 5][121]。カーツワイルはこの数字をもとに、執筆時(1997年当時)のコンピュータの指数関数的な成長が続けば、2015年から2025年の間に、理論的には人間の脳を十分に模倣できるだけのコンピュータが誕生すると予想した[122]。ちなみに、現在のスーパーコンピューターの評価指標であるFLOPS1回分を「計算」と仮定すると、10の16乗の計算能力は2011年に達成されており、2022年には10の18乗の計算を行うことができるエクサスケールコンピュータが誕生している[123]

ニューロンの詳細なモデル化[編集]

人工ニューラルネットワークと呼ばれる人間の脳細胞を模したモデルは、実際の人間の生体神経と比較すると単純的かつ簡略的である[124]。脳シミュレーションを完全に実行するためには、現在の研究ではまだ大まかにしか解明されていない生物学的な神経細胞の詳細な挙動を解明しなければならない可能性がある[125]。神経細胞の生物学的、化学的、物理的な詳細な挙動を分子レベルにまで解明し、完全にモデル化するためには、カーツワイルが想定した計算能力よりもさらに強力な計算能力が必要になると見積もられている[126]。さらに、カーツワイルの試算では人間の認知プロセスに深く関与しているとされるグリア細胞については考慮されていない[127]

現在の研究[編集]

2005年に、より高度で複雑な神経モデルを採用しつつ従来のコンピュータで脳のシミュレーションを実行しようとするプロジェクトが発足した[128]。その研究内容によれば、コンピュータ上に「脳」(10の11乗のニューロンを実装)の非リアルタイムシミュレーションを実施した。しかしながら、1秒間のモデルを実行するのに対して50日間を要したという[129]

2006年、Blue Brainプロジェクトでは、IBMが所有していた当時世界最速のスーパーコンピュータであるBlue Geneを使用し、1万個のニューロンと108個のシナプスから構成されるラット大脳新皮質の柱1本をリアルタイムでシュミュレーションすることに成功した[130]。脳のシミュレーションに関する研究においての長期的な目標は、人間の脳の生理的プロセスの詳細を用いて、機能的なシミュレーションを構築することである。

2009年、オックスフォードで開催されたTED (カンファレンス)において、Blue Brainプロジェクトのリーダーであるヘンリー・マークラム英語版は「人間の脳を人工的に作成することは不可能ではなく、10年以内に実現する可能性がある」と発言している[131]。また、有機工学の研究を活用して、人工的なニューロン(ニューロ・シリコン・インターフェース)を作成して脳のシミュレーションを行うというアプローチが、コンピュータ上での直接的な脳のシミュレーションが達成できなかった場合に有効であるという提言も行われている[132]

カーネギーメロン大学教授であり機械工学者であるハンス・モラベックは、1997年に発表した論文「コンピュータのハードウェアが人間の脳と同レベルになるのはいつ?」内で、脳はより複雑であり、ニューロンをより詳細にモデル化しなければ脳のシミュレーションを達成できないという議論について考察した。論文内において、神経細胞、特に網膜に焦点を当てて既存のソフトウェアがその機能をシミュレートする能力を測定した[133]

OpenWorm project英語版では、ニューロンがわずか302個しかない線形動物を、神経細胞レベルで完全にシミュレーションし、コンピュータ上に人工的な生命を作り出すことに目標として研究を開始した[134]。このプロジェクトを開始する前には、人間に比べて遥かに単純な生物である線形動物をシミュレートするのは比較的容易であると予想されている。

脳のシミュレーションによって汎用人工知能を達成しようとするアプローチに対しての批判[編集]

根本的に、脳のシミュレーションによって汎用人工知能を達成しようとするアプローチ自体に対しての批判が存在する[135]。これらの批判は、「人間は身体を持つから知性が存在する」という考えに基いてなされたものが多く、知性を誕生させるためには物理的な実体が必要であると考えている科学者の意見も数多く存在する[136]。この考えが正しいと仮定すれば、完全に機能する脳のシミュレーションは、ニューロンを完全に再現しただけでは達成できず、ニューロン以上のもの、つまりロボットの身体などを内包する必要がある。ゲーチェルはこの批判に対して、人工知能に仮想的な身体(例えばSecond Lifeのような)を与えることで対処できるとしたが、これが有効かどうかは不明である[137]

2005年頃から、10の9乗以上の性能を持つデスクトップコンピュータが一般向けに販売されている。カーツワイルとモラベックが用いた推定によれば、これはミツバチの脳をシミュレートできるだけの能力を備えていることになる。しかしながら、ミツバチの脳をシミュレートできるソフトウェアはいまだ存在しない[138]。これらの理由については幾つかの仮説が挙げられている。

  1. 現在のニューロンモデルが単純すぎる可能性。(次項参照)
  2. より高次の認知プロセス[注釈 6][139]についての解明がいまだ不十分であり、fMRIなどによって観察されている脳の神経活動が、正確に何に相関するかを十分に確立できていない可能性。
  3. 認知プロセスに関する理解が十分に進んだとしても、初期のシミュレーションプログラムは非常に非効率であることが予想されるために、余計かつ多大な計算能力が要求される可能性。
  4. 生物の脳は重要ではあるが、脳だけを画一的に認知モデルとして採用するには不適切な可能性。そのため、ミツバチの脳をシミュレートするためには、身体や環境自体をもシミュレートしなければいけない可能性[140]

また、人間の脳の規模について、現在のところ完全に正確には特定できていない[141]。ある説では、人間の脳には約1000億個のニューロンと100兆個のシナプスがあるというものがあるが[142]、別の説においては大脳皮質に163億個、小脳に690億個のニューロンがあるともされている[143]グリア細胞に至っては、非常に多いということしかわかっていない[144]

哲学[編集]

哲学によって定義された「強いAI」[編集]

1980年、哲学者のジョン・サール中国語の部屋と呼ばれる意識に関する思考実験を議論する過程において、「強いAI」という言葉を作り出した。この用語は、人工知能に関する以下のような2つの仮説を区別するために用いられた[注釈 7][145]

  • 「強いAI」仮説: 人工知能は「思考」することができ、「心」を持ち、「意識」を持つことが可能である。
  • 「弱いAI」仮説: 人工知能は「思考」「心」「意識」があたかも存在するかのように振る舞っているだけであり、真に思考することは不可能である。

サールが前者の仮説を「強い」と表現したのは、これがより強い主張を行っているからである[146]。強いAIは人間がテストできるすべての能力を超えた何かが機械に備わったことを仮定している[147]。この思考実験においては、「弱いAI」と「強いAI」の振る舞いを外部から観察すれば同じに見えることになる。しかしながら「強いAI」には主観的意識体験が存在することになる。これらの用語は学術的な人工知能の研究や教科書にも採用されている[148]

人工知能研究の主流では、プログラムがどのように機能するのかという点においてのみ主眼が置かれている。スチュアート・J・ラッセルピーター・ノーヴィグはこう述べている[149]。「プログラムが正常に動作しさえすれば、それをリアルと呼ぼうがシミュレーションと呼ぼうが、人工知能研究者は気にしない」。主流の人工知能研究者にとって、プログラムがあたかも心を持っているかのように完璧に振る舞っているとすれば、実際に心を持っているかを知る必要はない[150]。というのも、心があるかないかを見分ける方法は存在しないからである。したがって、人工知能研究においてサールの「弱いAI仮説」は「汎用人工知能は実現可能である」と矛盾しない。

ラッセルとノーヴィグは「ほとんどの人工知能研究者は弱いAI仮説を当然のこととして受け入れており、強いAI仮説については全く関心がない」と発言している[149]。このように、学術的な人工知能の研究にとっては、「強いAI」と「汎用人工知能」は全く異なるものである。

サールや主流の人工知能研究者とは対照的に、レイ・カーツワイルなどの一部の未来学者は「強いAI」という用語を「人間レベルの汎用人工知能」を意味するかのように使用している[106]。これは人間レベルの汎用人工知能に意識が必要であると仮定しない限り、サールの「強いAI」の定義とは明確に異なっている。これらのことにサールのような学術的な哲学者や人工知能研究者は全く関心を示しておらず、信じてもいない[149]

意識[編集]

強いAIの意識に関連して、サイエンスフィクションや倫理面においては、心に関しても大きな関心が置かれている。

このような、強いAIを有した機械の意識に対して関心がもたれる理由としては、もし機械が意識を持つならば、動物の権利と同じように、心を持つ機械にも人権が生じる可能性があるからである[152]。そのために強いAIが発生した場合に備えて、既存の法律や倫理、社会の枠組みにどう心を持つ機械を統合するかというアプローチが研究されている。これらの研究は「強いAI」の法的位置づけと権利に焦点を当てている[153]。コンピュータ科学者であるビル・ジョイは、このような心を持つ機械は、結果的に人間の生命や尊厳を脅かす可能性があると主張している[154]

これらの人間的な意識が「強いAI」に必要不可欠であるかどうかは不明である[155]。そもそも意識を確認するための確実なテストは存在しないため、意識というものの役割が「強いAI」などのような影響をもたらすのかが明確ではない。仮に意識に相関した脳活動をシミュレートできる機械を作ったとしても、自動的に自己認識を持つようになるのかは不明である[156]。意識は作成できるものではなく、汎用人工知能が作られた結果として自然に創発する可能性もある。また、機械が明らかに知的な行動を取るようになれば、これらの特徴を機械に帰属させることが自然になる可能性も存在する。

人工意識の研究[編集]

汎用人工知能・強いAIにおける意識の役割には議論の余地があるが、多くの汎用人工知能研究者は意識の実装を重要視している[157]。感覚運動の関係性を学習した生成モデルによる反実仮想的な状態生成が意識の有無に関わっているという「反実仮想的情報生成理論」を提唱する理論神経科学者もいる。[158]またそれらは、“短期記憶、学習過程、知覚に基づく推論、非反射的意思決定”といった知能に重要な能力と関連している可能性があるとする。加えて、”意識的経験とは、構造を持った情報である”と公理仮定して意識の量を推定するための「統合情報理論」や多くの知的処理は自由エネルギーを下げることによって行われているとする「自由エネルギー原理(ベイズ脳仮説)」および”脳内の複数の機能を共通の潜在空間を介して接続する能力”が意識に関連しているとする「グローバルワークスペース理論」をAGI開発に応用できないか基礎研究を進めている組織も存在する。[159]

人工超知能[編集]

人類で最も知能指数が高い天才をもはるかに上回る知能を持つ仮定上の知能を超知能と呼ぶ[160]デイヴィッド・チャーマーズは、汎用人工知能は超知能に至る可能性が高いと指摘している[161]。なぜならば、人類と同程度の知能を持つ汎用人工知能が生み出されたと仮定したならば、それは自らのプログラム改良可能であることを意味し、そしてプログラムが改良されたのならばその改良されたプラグラムによって生み出された知能を用いてさらに改良を続けることができ、これが延々と繰り返される[162]。これは「再帰的自己改善(英:Recursive Self-Improvement)」と呼ばれる現象である[163]。また、知能爆発技術的特異点としても知られている[164]。1965年にI.J.グッド英語版は以下のように発言している[165]

超知能機械を、どれだけ賢い人間よりも優れた知的能力をもつ存在だと仮定しよう。機械を設計することは知的能力によって行われることなので、超知能機械はさらに優れた機械を設計することができる。これが実行された瞬間、間違いなく「知能爆発」が起こり、人類の知的能力は瞬時にして置き去りにされることになる。したがって、超知能機械は人類最後の発明品ということになる。 — I・J・グッド英語版

汎用人工知能が超知能に至る可能性が高いとされているのは、自らの改良に生物学的な限度がないからである。一般的に、人間は産まれて成長しながら知能を増大させていく[166]。しかしながらそれには生物学的・生理学的な制約が存在し、老化などの現象によって知能の成長は頭打ちになる[167]。それに対して人工知能は拡張性があり、多くのスーパーコンピュータが毎年計算能力を増しているのと同じように、生物学的な制約(の大きさなど)が存在しない[168]

人工超知能[編集]

人工知能が超知能に達した場合、それを一般的に人工超知能:Artificial Super Intelligence、略称:ASI)と呼称する[169]

人工超知能が実現した場合、人類は本質的にその行動・思考・原理を理解できない可能性がある[170]。この可能性はすでに現れており[171]、例えば汎用人工知能や人工超知能にすら達していない特化型人工知能(弱いAI)のコンピュータ囲碁ソフトであるAlphaGoとトッププロ囲碁棋士である李世ドルが対局を果たしたAlphaGo対李世ドルにおいては、開発者ですらどのように動作しているか正確に理解できておらず[172]、解説者を務めたマイケル・レドモンドは「これが良い手なのか悪い手なのか本当に理解できない」と述べている[173][174]

これは人工超知能が実現し、ある行動や決定をした場合、たとえその結果が正確なものであっても、その思考経緯が人間には理解できないほど複雑であり[175]数学的証明を求めようにもあまりにも長大すぎて理解できない可能性があるということを示唆している[176][177]。2020年にローマン・ヤンポルスキー英語版はこう述べている[178]

人間は複雑な概念を説明しなければならないときがある。例えば、人間の大人が幼児知的障害者などに「赤ちゃんはどこから来るの?」などという複雑な概念を質問された場合、我々はDNA受精子宮といったものではなく、答えを非常に簡略化したり、時にはを付いたりする。もちろん専門的で正確な説明をしてもいいが、そのような専門的な説明を幼児が理解できるかはわからないし、誤解をうむ可能性もある。説明の有用性相対的なものであり、ある人にとっては理解できても、ある人にとっては理解できないことが往々にしてある。

超知能と人類の知能差は、おそらく人間の大人と幼児以上の差がある。これは知能の差がコミュニケーションの幅を非常に狭めることを意味する。そのため、超知能が導き出した概念を人間が理解するのは難しい。それはオオカミに育てられた知的障害のある4歳児に、量子物理学を教えるようなものである。

— ローマン・ヤンポルスキー英語版


問題・危険性[編集]

技術的失業[編集]

歴史的に、科学技術の進歩によって、機械に置き換えられて存在しなくなった仕事が多数存在する(例えば電話交換手など)[179][180]。しかしながらそれに伴って新たな労働が生まれることにより、人間の雇用の全体的な数は減少するのではなく、増加する傾向にある[181]。一方、人工知能の進歩にも以前のような傾向が適用されるかという点については、経済学の観点からみても不明である[182]。仮に汎用人工知能が実現した場合、それはもちろん人間に匹敵した知能を持つ。よって導入費用や心理的抵抗などの諸問題を無視すれば、人間に可能な知的労働は全て代替可能であることを意味する[183][184]。 過去の機械化による失業は、主に単純作業などの低賃金労働者(ブルーカラー)に影響を与えたが、汎用人工知能による失業は中流階級に大きな影響をもたらす可能性がある[185]マサチューセッツ工科大学経済学部教授のデビッド・オーター英語版は「人工知能による労働環境の変化では、変化の幅において大いに不確実性を伴う。特に懸念すべきなのは、高賃金の仕事に就いている人々から職を奪い、フードコートの店員のような職しか残らないというようなことになるかもしれないということである」と指摘している[186]スティーブン・ホーキンズは、以下のように人工知能による自動化は富の再分配の方法によって全く異なる結果になると主張している[187]

もちろん、機械で生産された富が人類全体に共有されれば、誰もが遊んで暮らせることになるであろう。しかし、機械を所有している人々が富の再分配に反対し、強力なロビー活動を行うと考えれば、一部を除いてほとんどの人は飢えに苦しむことになる。
残念ながらこれまでの歴史を見れば、後者の方が実現する可能性が高い。

いずれにせよ、汎用人工知能が実現した場合には雇用、株式市場福祉など、経済システム全体に大きな影響を与える可能性が高い[188][189]

汎用人工知能による人類滅亡リスク[編集]

人類にとって人工知能は存亡の危機を左右する存在であり、そのリスクが高まっているという主張は多くの公人の間で広く支持されている[190]。この危機を訴える著名人として代表的なのはスティーヴン・ホーキングイーロン・マスクビル・ゲイツなどである。人工知能研究者としてこの危機を強く警鐘している人物として知られるのがスチュアート・J・ラッセルローマン・ヤンポルスキー英語版、アレクセイ・ターチンなどである[191][153][192]。しかしながら人工知能による人類滅亡リスクを気にしない人々も存在し、ビル・ゲイツは「一体なぜ心配しない人がいるのかが理解不能だ」と述べている[193]。2014年にスティーヴン・ホーキングはこの危機に関する無関心を以下のように強く批判している[194]

もし人類より遥かに優れた文明を持つ異星人が「数十年後にそちらに到着する予定だ」とメッセージを送ってきたとき、我々はただ「わかった、着いたら連絡してね。待っとくよ」と返信してそのまま何もせずにしておくだろうか?しかしながら、これは人工知能においてまさにいま起こっていることだ。 — スティーブン・ホーキング

2021年、サンシャイン・コースト大学の人間工学者・社会情報システムセンターの研究者が実施した、汎用人工知能に関するリスクを分析する研究においては、データの少なさに苦言を呈しながらも、以下のような潜在的なリスクがあると結論づけられた。「汎用人工知能が人間の管理者や所有者のコントロール下から脱すること、汎用人工知能に人々に危害を与える命令を与えること、根本的に安全ではない汎用人工知能を開発すること、倫理観・道徳観がプログラミングされていない汎用人工知能を開発すること、そして汎用人工知能を不適切に管理することは、我々の実存的リスクを招く可能性がある」[195]

実存的リスク、すなわち人類滅亡の可能性は「AIのコントロール問題英語版」という難問を解決する必要がある[196]。この問題を解決することが、人工知能を安全に管理する最善の方法だとみなされているが、大規模で非常にリソースが必要な研究であるとみなされている[197]。人工知能のコントロール問題で重要視されるのは以下の概念である。すなわち「どのように自己複製を繰り返し、人間には遥かに理解できないほどの超知能を手に入れた人工知能を、人類に友好的な人工知能にできるのか?」ということである[153][198]。汎用人工知能を各国が軍拡競争的に開発していくとすると、複数の国家によって汎用人工知能を搭載した軍事兵器の開発が行われることが想定される[199][200]。汎用人工知能を前提とした国際紛争が発生した場合、軍事戦略をも汎用人工知能に頼ることになり、結果的には汎用人工知能同士が戦争を行うという自体もシナリオの1つとして研究されている[201][202]

もちろん、人工知能が人類滅亡を促すという考えには多くの懐疑主義者たちも存在する[203]。懐疑主義者たちは、自己複製を繰り返して超知能が誕生する可能性(シンギュラリティ)自体を疑問視し、宗教的であると批判している。すなわち、への信仰が人工知能にすり替わっただけではないか、という批判である。ジャロン・ラニアーは機械が知的になるという概念自体が金持ちによる「大規模な詐欺」である、と主張している[135]

汎用人工知能の実現への懐疑論[編集]

2023年現在、汎用人工知能は未だ実現していないため、すべては推論の域を出ていない[204]。根本的に汎用人工知能が実現可能なのか、またいつ実現するのかについては様々な見解が存在し、統一されていない。そのために、根本的に汎用人工知能自体が実現不可能だと考える研究者もいる[205]。1965年、人工知能のパイオニアとして知られるハーバート・サイモンは「今後20年以内に人間が実行できるあらゆる仕事が機械によってできるようになるだろう」と予想したが、この予想は完全に外れた。哲学者ヒューバート・ドレイファスロジャー・ペンローズは、強いAI自体が根本的に実現不可能だと考えている[206]マイクロソフト共同創業者であるポール・アレンは、汎用人工知能を実現するためには「根本的に予測不可能なブレイクスルー」と「認知に関する科学的な深い解明」が必要であるため、21世紀中には実現不可能だと予想している[207]。ロボット工学者のアラン・ウィンフィールドはガーディアン紙に「現在のコンピュータ科学と汎用人工知能のレベルの差は、現在の宇宙飛行と光速を超える宇宙飛行と同じぐらいの差がある」と寄稿している[208]コンピュータ科学者であるゴードン・ベルは、人類技術的特異点に到達する前に絶滅すると主張している。また、「ムーアの法則」の発案者として知られるゴードン・ムーアは「私は汎用人工知能の実現に懐疑的だ。なぜならば、技術的特異点は長い間起こりそうにないと思っているからだ。この感覚に根拠はない。そしてなぜそう感じるのかもわからない」と述べている[209]

研究の課題[編集]

人工知能分野の研究・発展は急速に進歩している[210]。さらに研究の進歩を進めるためには、人工知能に特化したCPUGPUを作成する必要があると主張する研究者もいる[211][212]モラベックのパラドックスと呼ばれる根本的な矛盾も存在する。つまり、これまで作成されてきた人工知能は、膨大な数の計算やチェスのプレイなどといった人間には困難な仕事をこなすことは容易なのだが、逆に人間にとって簡単な「歩く」と言った動作や「1歳児レベルの知覚」といったものは難しいのである[213]。とはいえ、これらのギャップは一部の労働者にとっては脅威になる場合がある。このパラドックスについて、ランジャニ・C・ナラヤンはこう記述している[214]

多くの人々は肉体労働が人工知能による自動化によって取って代わると思っているが、現実はその逆である。人工知能にとっては、知的に難しい仕事のほうが遥かに容易である。 別の言い方をすれば、チェスのグランドマスターであるマグヌス・カールセンを倒せるのは人工知能であり、その後の掃除をするのが人間である。

根本的には、そもそも機械に感情を持たせるべきなのかという問題が存在する[215]。典型的な人工知能のモデルには感情という機能は実装されておらず、感情をプログラムとして実装することで初めて機械が感情を持つと主張するものもいる[216]。しかしながら、人間の感情というものは、個々人がそれまで経験してきたことの総括として存在するものでもある[149]デヴィッド・ゲランター英語版は「人間の感情のニュアンスをすべてシュミレートできないかぎり、機械は創造的にはなれない」と発言している[149]。このように感情に関する問題は多数存在し、強いAIの研究が発展するにあたっては、これらの問題に向き合う必要があると言える[9][217]

関連項目[編集]

注釈[編集]

  1. ^ 強いAIの語源については「強いAI英語版」を参照。強いAIと弱いAIの学術的な定義については「中国語の部屋」を参照。
  2. ^ 「人工知能」という言葉を最初に使用したジョン・マッカーシーはこう発言している。「我々はまだ、なんらかの種類の計算手順が『知能的』である、といったことを特徴づけることが出来ていない」(どのように知能を定義するかというAI研究者による議論は人工知能の哲学英語版を参照)
  3. ^ ライトヒル報告英語版内ではAIの「非現実的な目標」について痛烈に批判し、イギリス国内でのAI研究は壊滅状態に陥った。一方、アメリカ合衆国のDARPAは、「基礎研究ではなく、実用可能な直接的な研究」にのみ資金提供を行うと決定した。
  4. ^ ジョン・マッカーシーは「ニューフォーマリズムの人たちが、人工知能への希望をより新しい形で表現してくれるならば、人工知能研究者にとってこれほどの救いはないだろう」と述べた。
  5. ^ 「マインドチルドレン」では10の15乗という値が採用されている。
  6. ^ ゲーツェルの汎用人工知能に関する書籍の中では、現在のハードウェアを最大限利用し、脳をシミュレーションするためには「コードとデータ」「感覚モダリティ」「概念と分類」「思考」「熟考(意識)」という、理解しなければならない5段階の問題があるとしている。
  7. ^ 標準的な人工知能の教科書で定義されているように、「機械が知的に行動する可能性がある(あるいは知的であるかのように振る舞うことがある)」という主張は、哲学者によって『弱いAI仮説』と呼ばれ、「機械が本質的に思考している(シミュレートしているのではない)」という主張は『強いAI仮説』と呼ばれている。
  8. ^ 意識を定義するのが非常に困難なことに注意。トマス・ネーゲルは意識があるということを「感じる」ことであるとしている。もし生物が意識をもっていないのならば、それは何も感じないということである。ネーゲルはコウモリを例に出しており、「コウモリであることはどんな気分であるか?」と感覚的に問うことはできるが、「トースターであることはどんな気分であるか?」と問うことはまずないとしている。これらのことから、コウモリは意識を持っているように見えるが、トースターは意識を持っていないと結論づけている。

脚注[編集]

  1. ^ Hodson, Hal (2019年3月1日). “DeepMind and Google: the battle to control artificial intelligence”. 1843. オリジナルの2020年7月7日時点におけるアーカイブ。. https://web.archive.org/web/20200707223031/https://www.economist.com/1843/2019/03/01/deepmind-and-google-the-battle-to-control-artificial-intelligence 2020年7月7日閲覧. "AGI stands for Artificial General Intelligence, a hypothetical computer program..." 
  2. ^ Shevlin, Henry; Vold, Karina; Crosby, Matthew; Halina, Marta (2019-10-04). “The limits of machine intelligence: Despite progress in machine intelligence, artificial general intelligence is still a major challenge” (英語). EMBO Reports 20 (10): e49177. doi:10.15252/embr.201949177. ISSN 1469-221X. PMC 6776890. PMID 31531926. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC6776890/. 
  3. ^ OpenAI Charter” (英語). openai.com. 2023年4月25日閲覧。
  4. ^ Real-world challenges for AGI” (英語). www.deepmind.com. 2023年4月25日閲覧。
  5. ^ Core Views on AI Safety: When, Why, What, and How” (英語). Anthropic. 2023年4月25日閲覧。
  6. ^ Friederich, Simon (2023-03-16). “Symbiosis, not alignment, as the goal for liberal democracies in the transition to artificial general intelligence” (英語). AI and Ethics. doi:10.1007/s43681-023-00268-7. ISSN 2730-5961. https://doi.org/10.1007/s43681-023-00268-7. 
  7. ^ Cotra, Ajeya (英語). Two-year update on my personal AI timelines. https://www.alignmentforum.org/posts/AfH2oPHCApdKicM4m/two-year-update-on-my-personal-ai-timelines. 
  8. ^ Grace, Katja; Salvatier, John; Dafoe, Allan; Zhang, Baobao; Evans, Owain (2018-07-31). “Viewpoint: When Will AI Exceed Human Performance? Evidence from AI Experts” (英語). Journal of Artificial Intelligence Research 62: 729–754. doi:10.1613/jair.1.11222. ISSN 1076-9757. https://jair.org/index.php/jair/article/view/11222. 
  9. ^ a b Kaplan, Andreas; Haenlein, Michael (2019). “Kaplan Andreas and Haelein Michael (2019) Siri, Siri, in my hand: Who's the fairest in the land? On the interpretations, illustrations, and implications of artificial intelligence”. Business Horizons 62: 15–25. doi:10.1016/j.bushor.2018.08.004. 
  10. ^ Sparks of Artificial General Intelligence: Early experiments with GPT-4”. 2023年4月25日閲覧。
  11. ^ Artificial general intelligence: Are we close, and does it even make sense to try?” (英語). MIT Technology Review. 2023年4月25日閲覧。
  12. ^ PhD, CP Lu (2023年4月17日). “Beyond the Turing Test: Two Scenarios for the Future of AGI” (英語). Medium. 2023年4月25日閲覧。
  13. ^ Anderson, Denise; Lassmann, Timo (2022-03-09). “An expanded phenotype centric benchmark of variant prioritisation tools”. Human Mutation 43 (5): 539–546. doi:10.1002/humu.24362. ISSN 1059-7794. https://doi.org/10.1002/humu.24362. 
  14. ^ Zhang, Chaoning; Zhang, Chenshuang; Li, Chenghao; Qiao, Yu; Zheng, Sheng; Dam, Sumit Kumar; Zhang, Mengchun; Kim, Jung Uk et al. (2023-04-04). “One Small Step for Generative AI, One Giant Leap for AGI: A Complete Survey on ChatGPT in AIGC Era”. arXiv:2304.06488 [cs]. http://arxiv.org/abs/2304.06488. 
  15. ^ Baum, Seth, A Survey of Artificial General Intelligence Projects for Ethics, Risk, and Policy, Global Catastrophic Risk Institute Working Paper 20, オリジナルの14 November 2021時点におけるアーカイブ。, https://web.archive.org/web/20211114170005/https://gcrinstitute.org/papers/055_agi-2020.pdf 2022年1月13日閲覧。 
  16. ^ Kurzweil, Ray (5 August 2005a), “Long Live AI”, Forbes, オリジナルの2005-08-14時点におけるアーカイブ。, https://web.archive.org/web/20050814000557/https://www.forbes.com/home/free_forbes/2005/0815/030.html : Kurzweil describes strong AI as "machine intelligence with the full range of human intelligence."
  17. ^ Treder, Mike (10 August 2005), “Advanced Human Intelligence”, Responsible Nanotechnology, オリジナルの16 October 2019時点におけるアーカイブ。, https://web.archive.org/web/20191016214415/https://crnano.typepad.com/crnblog/2005/08/advanced_human_.html 
  18. ^ The Age of Artificial Intelligence: George John at TEDxLondonBusinessSchool 2013”. 2014年2月26日時点のオリジナルよりアーカイブ。2014年2月22日閲覧。
  19. ^ Newell, Allen (1980-04). “Physical Symbol Systems*” (英語). Cognitive Science 4 (2): 135–183. doi:10.1207/s15516709cog0402_2. http://doi.wiley.com/10.1207/s15516709cog0402_2. 
  20. ^ What is Strong AI? | IBM” (英語). www.ibm.com. 2023年3月28日閲覧。
  21. ^ The Open University on Strong and Weak AI”. 2009年9月25日時点のオリジナルよりアーカイブ。2007年10月8日閲覧。
  22. ^ Kurzweil, Ray (5 August 2005a), “Long Live AI”, Forbes, オリジナルの2005-08-14時点におけるアーカイブ。, https://web.archive.org/web/20050814000557/https://www.forbes.com/home/free_forbes/2005/0815/030.html : Kurzweil describes strong AI as "machine intelligence with the full range of human intelligence."
  23. ^ https://www.cs.princeton.edu/courses/archive/spring11/cos126/lectures/ai-2x2.pdf”. 2023年3月25日閲覧。
  24. ^ Goertzel, Ben (2010年2月6日). “The Multiverse According to Ben: Siri, the new iPhone "AI personal assistant": Some useful niche applications, not so much AI”. The Multiverse According to Ben. 2023年3月28日閲覧。
  25. ^ Marr, Bernard (2021年7月2日). “What is Weak (Narrow) AI? Here Are 8 Practical Examples” (英語). Bernard Marr. 2023年3月28日閲覧。
  26. ^ Fetter, Amanda (2023年1月24日). “The difference between weak AI and strong AI” (英語). VoiceHQ. 2023年3月28日閲覧。
  27. ^ THREE TYPES OF ARTIFICIAL INTELLIGENCE”. 2023年4月28日閲覧。
  28. ^ Understanding employees’ responses to artificial intelligence”. 2023年4月27日閲覧。
  29. ^ Rainsberger, Livia (2022), Rainsberger, Livia, ed. (英語), Explanation: What Is New and Different About AI?, Springer Fachmedien, pp. 1–16, doi:10.1007/978-3-658-38251-3_1, ISBN 978-3-658-38251-3, https://doi.org/10.1007/978-3-658-38251-3_1 2023年4月28日閲覧。 
  30. ^ Pohl, Jens (2015-08-03). “Artificial Superintelligence: Extinction or Nirvana?”. Proceedings of InterSymp-2015, IIAS, 27th International Conference on Systems Research, Informatics, and Cybernetics. https://digitalcommons.calpoly.edu/arch_fac/82. 
  31. ^ BEYOND MAD?: THE RACE FOR ARTIFICIAL GENERAL INTELLIGENCE”. 2023年4月28日閲覧。
  32. ^ Legg, Shane; Hutter, Marcus (2007-06-07). “A Collection of Definitions of Intelligence”. Proceedings of the 2007 conference on Advances in Artificial General Intelligence: Concepts, Architectures and Algorithms: Proceedings of the AGI Workshop 2006 (NLD: IOS Press): 17–24. doi:10.5555/1565455.1565458. ISBN 978-1-58603-758-1. https://dl.acm.org/doi/10.5555/1565455.1565458. 
  33. ^ This list of intelligent traits is based on the topics covered by major AI textbooks, including: Russell & Norvig 2003, Luger & Stubblefield 2004, Poole, Mackworth & Goebel 1998 and Nilsson 1998.
  34. ^ Pfeifer, R. and Bongard J. C., How the body shapes the way we think: a new view of intelligence (The MIT Press, 2007). ISBN 0-262-16239-3
  35. ^ White, R. W. (1959). “Motivation reconsidered: The concept of competence”. Psychological Review 66 (5): 297–333. doi:10.1037/h0040934. PMID 13844397. 
  36. ^ Johnson 1987
  37. ^ Fjelland, Ragnar (2020-06-17). “Why general artificial intelligence will not be realized” (英語). Humanities and Social Sciences Communications 7 (1): 1–9. doi:10.1057/s41599-020-0494-4. ISSN 2662-9992. https://www.nature.com/articles/s41599-020-0494-4. 
  38. ^ Muehlhauser (2013年8月11日). “What is AGI?”. Machine Intelligence Research Institute. 2014年4月25日時点のオリジナルよりアーカイブ。2014年5月1日閲覧。
  39. ^ What is Artificial General Intelligence (AGI)? | 4 Tests For Ensuring Artificial General Intelligence” (英語). Talky Blog (2019年7月13日). 2019年7月17日時点のオリジナルよりアーカイブ。2019年7月17日閲覧。
  40. ^ Turk, Victoria (2015年1月28日). “The Plan to Replace the Turing Test with a ‘Turing Olympics’” (英語). Vice. 2024年4月24日閲覧。
  41. ^ Bhaimiya, Sawdah. “DeepMind's co-founder suggested testing an AI chatbot's ability to turn $100,000 into $1 million to measure human-like intelligence” (英語). Business Insider. 2024年4月24日閲覧。
  42. ^ Mustafa Suleyman: My new Turing test would see if AI can make $1 million” (英語). MIT Technology Review. 2024年4月24日閲覧。
  43. ^ Strong AI vs Weak AI: What's the Difference | Built In” (英語). builtin.com. 2023年3月25日閲覧。
  44. ^ Voss, Peter (2017年1月21日). “Can the Turing Test confirm AGI?” (英語). Medium. 2023年3月25日閲覧。
  45. ^ https://cse.buffalo.edu/~shapiro/Papers/ai.pdf”. 2023年3月25日閲覧。
  46. ^ http://ftp.cs.ucla.edu/tech-report/198_-reports/870017.pdf”. 2023年3月25日閲覧。
  47. ^ Shapiro, Stuart C. (1992). “Artificial Intelligence”. In Stuart C. Shapiro. Encyclopedia of Artificial Intelligence (Second ed.). New York: John Wiley. pp. 54–57. オリジナルの1 February 2016時点におけるアーカイブ。. http://www.cse.buffalo.edu/~shapiro/Papers/ai.pdf  (Section 4 is on "AI-Complete Tasks".)
  48. ^ Artificial Intelligence”. ニューヨーク州立大学オスウィゴ校. 2023年3月27日閲覧。
  49. ^ Yampolskiy, Roman V. (2012). Xin-She Yang. ed. “Turing Test as a Defining Feature of AI-Completeness”. Artificial Intelligence, Evolutionary Computation and Metaheuristics (AIECM): 3–17. http://cecs.louisville.edu/ry/TuringTestasaDefiningFeature04270003.pdf. 
  50. ^ http://cecs.louisville.edu/ry/TuringTestasaDefiningFeature04270003.pdf”. 2023年3月24日閲覧。
  51. ^ Luis von Ahn, Manuel Blum, Nicholas Hopper, and John Langford. CAPTCHA: Using Hard AI Problems for Security Archived 4 March 2016 at the Wayback Machine.. In Proceedings of Eurocrypt, Vol. 2656 (2003), pp. 294–311.
  52. ^ Bergmair, Richard (7 January 2006). “Natural Language Steganography and an "AI-complete" Security Primitive”. CiteSeer. 
  53. ^ Hutter, Marcus (2005). Universal Artificial Intelligence: Sequential Decisions Based on Algorithmic Probability. Texts in Theoretical Computer Science an EATCS Series. Springer. doi:10.1007/b138233. ISBN 978-3-540-26877-2. オリジナルの19 July 2022時点におけるアーカイブ。. https://web.archive.org/web/20220719052038/https://link.springer.com/book/10.1007/b138233 2022年7月19日閲覧。 
  54. ^ Goertzel, Ben (2014). “Artificial General Intelligence: Concept, State of the Art, and Future Prospects”. Journal of Artificial General Intelligence 8598. doi:10.1007/978-3-319-09274-4. ISBN 978-3-319-09273-7. https://www.researchgate.net/publication/271390398. 
  55. ^ Leike, Jan; Hutter, Marcus (2015). Bad Universal Priors and Notions of Optimality. The 28th Conference on Learning Theory. 2022年12月6日時点のオリジナルよりアーカイブ。2022年12月6日閲覧
  56. ^ Bennett, Michael Timothy (2022). "Computable artificial general intelligence". arXiv:2205.10513 [cs.AI]。
  57. ^ Ward, Dave; Silverman, David; Villalobos, Mario (2017). “Introduction: The Varieties of Enactivism”. Topoi 36 (1): 365–375. doi:10.1007/s11245-017-9484-6. 
  58. ^ Ward, Dave; Silverman, David; Villalobos, Mario (2017-09-01). “Introduction: The Varieties of Enactivism” (英語). Topoi 36 (3): 365–375. doi:10.1007/s11245-017-9484-6. ISSN 1572-8749. https://doi.org/10.1007/s11245-017-9484-6. 
  59. ^ a b Bennett, Michael Timothy (2021). Symbol Emergence and The Solutions to Any Task. 14th Conference on Artificial General Intelligence. doi:10.1007/978-3-030-93758-4_4. 2022年7月19日時点のオリジナルよりアーカイブ。2022年7月19日閲覧
  60. ^ Chollet, Francois (2019). "On the Measure of Intelligence". arXiv:1911.01547 [cs.AI]。
  61. ^ Hutter, Marcus. “Human Knowledge Compression Contest: Frequently Asked Questions & Answers” (英語). prize.hutter1.net. 2023年3月27日閲覧。
  62. ^ Bennett, Michael Timothy; Maruyama, Yoshihiro (2022). “Philosophical Specification of Empathetic Ethical Artificial Intelligence”. IEEE Transactions on Cognitive and Developmental Systems 14 (2): 292–300. arXiv:2107.10715. doi:10.1109/TCDS.2021.3099945. https://link.springer.com/article/10.1007/s11245-017-9484-6 2022年12月6日閲覧。. 
  63. ^ Bennett, Michael Timothy; Maruyama, Yoshihiro (2021). The Artificial Scientist. 14th Conference on Artificial General Intelligence. doi:10.1007/978-3-030-93758-4_6. 2022年7月19日時点のオリジナルよりアーカイブ。2022年7月19日閲覧
  64. ^ Crevier 1993, pp. 48–50
  65. ^ Andreas Kaplan (2022) Artificial Intelligence, Business and Civilization - Our Fate Made in Machines”. 2022年5月6日時点のオリジナルよりアーカイブ。2022年3月12日閲覧。
  66. ^ Simon 1965, p. 96 quoted in Crevier 1993, p. 109
  67. ^ Crevier, Daniel (1993). AI : the tumultuous history of the search for artificial intelligence. Internet Archive. New York : BasicBooks. ISBN 978-0-465-00104-0. https://archive.org/details/aitumultuoushist00crev 
  68. ^ Scientist on the Set: An Interview with Marvin Minsky”. 2012年7月16日時点のオリジナルよりアーカイブ。2008年4月5日閲覧。
  69. ^ Marvin Minsky to Darrach (1970), quoted in Crevier (1993, p. 109).
  70. ^ The History of Artificial Intelligence”. ワシントン大学. 2023年3月28日閲覧。
  71. ^ Artificial Intelligence at The University of Edinburgh”. web.archive.org (2007年8月17日). 2023年2月15日閲覧。
  72. ^ School of Informatics: History of Artificial Intelligence at Edinburgh”. web.archive.org (2007年5月15日). 2023年2月15日閲覧。
  73. ^ Crevier 1993, p. 211, Russell & Norvig 2003, p. 24 and see also Feigenbaum & McCorduck 1983
  74. ^ Chapter 9: Developments in Artificial Intelligence | Funding a Revolution: Government Support for Computing Research”. web.archive.org (2008年1月12日). 2023年2月15日閲覧。
  75. ^ Crevier 1993, pp. 161–162, 197–203, 240; Russell & Norvig 2003, p. 25.
  76. ^ Crevier 1993, pp. 209–212
  77. ^ https://www.researchgate.net/publication/322234922_History_of_Artificial_Intelligence”. 2023年3月25日閲覧。
  78. ^ Review of ``Artificial Intelligence: A General Survey”. web.archive.org (2008年9月30日). 2023年2月15日閲覧。
  79. ^ Markoff, John (2005年10月14日). “Behind Artificial Intelligence, a Squadron of Bright Real People”. The New York Times. オリジナルの2023年2月2日時点におけるアーカイブ。. https://web.archive.org/web/20230202181023/https://www.nytimes.com/2005/10/14/technology/behind-artificial-intelligence-a-squadron-of-bright-real-people.html 2017年2月18日閲覧. "At its low point, some computer scientists and software engineers avoided the term artificial intelligence for fear of being viewed as wild-eyed dreamers." 
  80. ^ AI Watch Historical Evolution of Artificial Intelligence”. 2023年3月25日閲覧。
  81. ^ Russell & Norvig 2003, pp. 25–26
  82. ^ Strong and Weak AI: Deweyan Considerations”. CEUR Workshop Proceedings. 2023年3月27日閲覧。
  83. ^ Trends in the Emerging Tech Hype Cycle”. Gartner Reports. 2019年5月22日時点のオリジナルよりアーカイブ。2019年5月7日閲覧。
  84. ^ https://www.cs.princeton.edu/courses/archive/spring11/cos126/lectures/ai-2x2.pdf”. 2023年3月25日閲覧。
  85. ^ Moravec 1988, p. 20
  86. ^ Harnad, S (1990). “The Symbol Grounding Problem”. Physica D 42 (1–3): 335–346. arXiv:cs/9906002. Bibcode1990PhyD...42..335H. doi:10.1016/0167-2789(90)90087-6. 
  87. ^ Gubrud 1997
  88. ^ Wang & Goertzel 2007
  89. ^ First International Summer School in Artificial General Intelligence, Main summer school: June 22 – July 3, 2009, OpenCog Lab: July 6-9, 2009”. 2020年9月28日時点のオリジナルよりアーカイブ。2020年5月11日閲覧。
  90. ^ Избираеми дисциплини 2009/2010 - пролетен триместър” (ブルガリア語). Факултет по математика и информатика [Faculty of Mathematics and Informatics]. 2020年7月26日時点のオリジナルよりアーカイブ。2020年5月11日閲覧。
  91. ^ Избираеми дисциплини 2010/2011 - зимен триместър” (ブルガリア語). Факултет по математика и информатика [Faculty of Mathematics and Informatics]. 2020年7月26日時点のオリジナルよりアーカイブ。2020年5月11日閲覧。
  92. ^ (日本語) MIT AGI: Artificial General Intelligence, https://www.youtube.com/watch?v=-GV_A9Js2nM 2023年4月2日閲覧。 
  93. ^ Liu, Feng; Shi, Yong; Liu, Ying (2017). “Intelligence Quotient and Intelligence Grade of Artificial Intelligence”. Annals of Data Science 4 (2): 179–191. arXiv:1709.10242. Bibcode2017arXiv170910242L. doi:10.1007/s40745-017-0109-0. 
  94. ^ Brien (2017年10月5日). “Google-KI doppelt so schlau wie Siri” (ドイツ語). 2019年1月3日時点のオリジナルよりアーカイブ。2019年1月2日閲覧。
  95. ^ Planning for AGI and beyond” (英語). openai.com. 2023年4月2日閲覧。
  96. ^ “Microsoft Considers $10 Billion Investment in ChatGPT Creator” (英語). Bloomberg.com. (2023年1月10日). https://www.bloomberg.com/news/articles/2023-01-10/microsoft-weighs-10-billion-chatgpt-investment-semafor-says 2023年4月2日閲覧。 
  97. ^ Grossman (2020年9月3日). “We're entering the AI twilight zone between narrow and general AI”. VentureBeat. 2020年9月4日時点のオリジナルよりアーカイブ。2020年9月5日閲覧。 “"Certainly, too, there are those who claim we are already seeing an early example of an AGI system in the recently announced GPT-3 natural language processing (NLP) neural network. ... So is GPT-3 the first example of an AGI system? This is debatable, but the consensus is that it is not AGI. ... If nothing else, GPT-3 tells us there is a middle ground between narrow and general AI."”
  98. ^ Quach. “A developer built an AI chatbot using GPT-3 that helped a man speak again to his late fiancée. OpenAI shut it down”. The Register. 2021年10月16日時点のオリジナルよりアーカイブ。2021年10月16日閲覧。
  99. ^ Wiggers, Kyle (May 13, 2022), “DeepMind's new AI can perform over 600 tasks, from playing games to controlling robots”, TechCrunch, オリジナルの16 June 2022時点におけるアーカイブ。, https://web.archive.org/web/20220616185232/https://techcrunch.com/2022/05/13/deepminds-new-ai-can-perform-over-600-tasks-from-playing-games-to-controlling-robots/ 2022年6月12日閲覧。 
  100. ^ OpenAI (2023-03-16). “GPT-4 Technical Report”. arXiv:2303.08774 [cs]. http://arxiv.org/abs/2303.08774. 
  101. ^ Bubeck, Sébastien; Chandrasekaran, Varun; Eldan, Ronen; Gehrke, Johannes; Horvitz, Eric; Kamar, Ece; Lee, Peter; Lee, Yin Tat et al. (2023-03-22). “Sparks of Artificial General Intelligence: Early experiments with GPT-4”. arXiv:2303.12712 [cs]. http://arxiv.org/abs/2303.12712. 
  102. ^ Identifying and Measuring Developments in Artificial Intelligence: making the impossible possible”. 2023年4月2日閲覧。
  103. ^ Goertzel, Ben; Wang, Pei (2007) (英語). Advances in Artificial General Intelligence: Concepts, Architectures and Algorithms : Proceedings of the AGI Workshop 2006. IOS Press. ISBN 978-1-58603-758-1. https://books.google.co.jp/books?hl=ja&lr=lang_ja%7Clang_en&id=t2G5srpFRhEC&oi=fnd&pg=PR1&dq=info:yCnUCKP0-CMJ:scholar.google.com/&ots=hB1LoQSJS5&sig=ft96bWX7OEM5QnmtQ2Nkt40nk4s&redir_esc=y#v=onepage&q&f=false 
  104. ^ McCarthy, John (2007-12-01). “From here to human-level AI” (英語). Artificial Intelligence 171 (18): 1174–1182. doi:10.1016/j.artint.2007.10.009. ISSN 0004-3702. https://www.sciencedirect.com/science/article/pii/S0004370207001476. 
  105. ^ Wayback Machine”. web.archive.org (2013年3月20日). 2023年2月19日閲覧。
  106. ^ a b c (Kurzweil 2005, p. 260) or see Advanced Human Intelligence Archived 30 June 2011 at the Wayback Machine. where he defines strong AI as "machine intelligence with the full range of human intelligence."
  107. ^ a b Goertzel, Ben (2007-12-01). “Human-level artificial general intelligence and the possibility of a technological singularity: A reaction to Ray Kurzweil's The Singularity Is Near, and McDermott's critique of Kurzweil” (英語). Artificial Intelligence 171 (18): 1161–1173. doi:10.1016/j.artint.2007.10.011. ISSN 0004-3702. https://www.sciencedirect.com/science/article/pii/S0004370207001464. 
  108. ^ Goertzel, Ben (2013-04-29), More, Max; Vita‐More, Natasha, eds. (英語), Artificial General Intelligence and the Future of Humanity (1 ed.), Wiley, pp. 128–137, doi:10.1002/9781118555927.ch12, ISBN 978-1-118-33429-4, https://onlinelibrary.wiley.com/doi/10.1002/9781118555927.ch12 2023年4月2日閲覧。 
  109. ^ Katja Grace (2016年). “Error in Armstrong and Sotala 2012”. AI Impacts. 2020年12月4日時点のオリジナルよりアーカイブ。2020年8月24日閲覧。
  110. ^ Raffi Khatchadourian (2015年11月23日). “The Doomsday Invention: Will artificial intelligence bring us utopia or destruction?”. The New Yorker. オリジナルの2016年1月28日時点におけるアーカイブ。. https://web.archive.org/web/20160128105955/http://www.newyorker.com/magazine/2015/11/23/doomsday-invention-artificial-intelligence-nick-bostrom 2016年2月7日閲覧。 
  111. ^ Brooks (2014年11月11日). “AI is a tool, not a threat”. Robohub. 2023年2月2日時点のオリジナルよりアーカイブ。2022年5月31日閲覧。
  112. ^ The subtle art of language: why artificial general intelligence might be impossible” (英語). Big Think. 2023年3月25日閲覧。
  113. ^ Planning for AGI and beyond” (英語). openai.com. 2023年3月25日閲覧。
  114. ^ Real-world challenges for AGI” (英語). www.deepmind.com. 2023年3月25日閲覧。
  115. ^ https://intelligence.org/files/AGI-HMM.pdf”. 2023年3月25日閲覧。
  116. ^ Sandberg & Boström 2008. "The basic idea is to take a particular brain, scan its structure in detail, and construct a software model of it that is so faithful to the original that, when run on appropriate hardware, it will behave in essentially the same way as the original brain."
  117. ^ http://www.fhi.ox.ac.uk/Reports/2008-3.pdf”. 2023年3月16日閲覧。
  118. ^ ABS: Scanning Neural Networks for Back-doors by Artificial Brain Stimulation”. パデュー大学. 2023年3月27日閲覧。
  119. ^ Drachman, D. (2005). “Do we have brain to spare?” (英語). Neurology. https://www.semanticscholar.org/paper/Do-we-have-brain-to-spare-Drachman/7ab8452d744fa72700c30913d37afedb4d947705. 
  120. ^ Artificial Intelligence: A Modern Approach, 4th US ed.”. aima.cs.berkeley.edu. 2023年2月19日閲覧。
  121. ^ Erdt, Terrence (1989). “Review of Mind Children, the Future of Robot and Human Intelligence”. Computers and the Humanities 23 (4/5): 445–448. ISSN 0010-4817. https://www.jstor.org/stable/30204385. 
  122. ^ Nawar, Haytham (2020). Language of Tomorrow: Towards a Transcultural Visual Communication System in a Posthuman Condition (NED - New edition ed.). Intellect. ISBN 978-1-78938-183-2. https://www.jstor.org/stable/j.ctv36xvqb7 
  123. ^ Folding@Home exceeds 1.5 ExaFLOPS in the battle against Covid-19” (英語). TechSpot. 2023年3月27日閲覧。
  124. ^ Artificial Neural Network - an overview | ScienceDirect Topics”. www.sciencedirect.com. 2023年3月25日閲覧。
  125. ^ Deep Neural Networks Don't Lead Us Towards AGI” (英語). KDnuggets. 2023年3月25日閲覧。
  126. ^ https://cis.temple.edu/~pwang/Publication/AGI-CNN.pdf”. 2023年3月25日閲覧。
  127. ^ Swaminathan, Nikhil (Jan–Feb 2011). “Glia—the other brain cells”. Discover. http://discovermagazine.com/2011/jan-feb/62 2014年1月24日閲覧。. 
  128. ^ Izhikevich, Eugene M.; Edelman, Gerald M. (2008-03-04). “Large-scale model of mammalian thalamocortical systems” (英語). Proceedings of the National Academy of Sciences 105 (9): 3593–3598. doi:10.1073/pnas.0712231105. ISSN 0027-8424. PMC PMC2265160. PMID 18292226. https://pnas.org/doi/full/10.1073/pnas.0712231105. 
  129. ^ Izhikevich, Eugene M.; Edelman, Gerald M. (4 March 2008). “Large-scale model of mammalian thalamocortical systems”. PNAS 105 (9): 3593–3598. Bibcode2008PNAS..105.3593I. doi:10.1073/pnas.0712231105. PMC 2265160. PMID 18292226. http://vesicle.nsi.edu/users/izhikevich/publications/large-scale_model_of_human_brain.pdf 2015年6月23日閲覧。. 
  130. ^ Project Milestones”. Blue Brain. 2008年8月11日閲覧。
  131. ^ “Artificial brain '10 years away'”. BBC News. (2009年7月22日). オリジナルの2017年7月26日時点におけるアーカイブ。. https://web.archive.org/web/20170726040959/http://news.bbc.co.uk/1/hi/technology/8164060.stm 2009年7月25日閲覧。 
  132. ^ University of Calgary news Archived 18 August 2009 at the Wayback Machine., NBC News news Archived 4 July 2017 at the Wayback Machine.
  133. ^ When will computer hardware match the human brain? by Hans Moravec”. web.archive.org (2006年6月15日). 2023年3月16日閲覧。
  134. ^ OpenWorm: overview and recent advances in integrative biological simulation of Caenorhabditis elegans”. 2023年3月27日閲覧。
  135. ^ a b Yamakawa, Hiroshi (2021-12-01). “The whole brain architecture approach: Accelerating the development of artificial general intelligence by referring to the brain” (英語). Neural Networks 144: 478–495. doi:10.1016/j.neunet.2021.09.004. ISSN 0893-6080. https://www.sciencedirect.com/science/article/pii/S0893608021003543. 
  136. ^ de Vega, Glenberg & Graesser 2008. A wide range of views in current research, all of which require grounding to some degree
  137. ^ Human-level artificial general intelligence and the possibility of a technological singularity: A reaction to Ray Kurzweil's The Singularity Is Near, and McDermott's critique of Kurzweil”. 2023年3月16日閲覧。
  138. ^ [links to bee brain studies]”. Honey Bee Brain. 2008年7月25日時点のオリジナルよりアーカイブ。2010年3月30日閲覧。
  139. ^ Wayback Machine”. web.archive.org (2009年4月11日). 2023年3月16日閲覧。
  140. ^ Yekutieli, Y; Sagiv-Zohar, R; Aharonov, R; Engel, Y; Hochner, B; Flash, T (August 2005). “Dynamic model of the octopus arm. I. Biomechanics of the octopus reaching movement”. J. Neurophysiol. 94 (2): 1443–58. doi:10.1152/jn.00684.2004. PMID 15829594. 
  141. ^ 5 unsolved mysteries about the brain” (英語). Allen Institute. 2023年4月2日閲覧。
  142. ^ Williams & Herrup 1988
  143. ^ Equal Numbers of Neuronal and Nonneuronal Cells Make the Human Brain an Isometrically Scaled-Up Primate Brain | Request PDF”. web.archive.org (2021年2月18日). 2023年3月16日閲覧。
  144. ^ The Search for True Numbers of Neurons and Glial Cells in the Human Brain: A Review of 150 Years of Cell Counting”. アメリカ国立医学図書館. 2023年4月2日閲覧。
  145. ^ Artificial Intelligence: A Modern Approach, 4th US ed.”. aima.cs.berkeley.edu. 2023年3月16日閲覧。
  146. ^ Chinese Room Argument | Internet Encyclopedia of Philosophy” (英語). 2023年3月25日閲覧。
  147. ^ Cam, Philip (1990-03-01). “Searle on Strong AI”. Australasian Journal of Philosophy 68 (1): 103–108. doi:10.1080/00048409012340203. ISSN 0004-8402. https://doi.org/10.1080/00048409012340203. 
  148. ^ Baron, Corey (2017-04-19). “In Defense of Strong AI: Semantics as Second-Order Rules” (英語). Stance: an international undergraduate philosophy journal 10 (1): 38–49. doi:10.33043/S.10.1.38-49. ISSN 1943-1899. https://openjournals.bsu.edu/stance/article/view/1917. 
  149. ^ a b c d e http://lib.ysu.am/disciplines_bk/b7707dde83ee24b2b23999b4df5fd988.pdf”. 2023年3月25日閲覧。
  150. ^ Paradigms of Artificial Intelligence Programming” (英語). dl.acm.org. doi:10.5555/530559. 2023年3月25日閲覧。
  151. ^ Wayback Machine”. web.archive.org (2011年10月16日). 2023年3月16日閲覧。
  152. ^ https://www.accessnow.org/wp-content/uploads/2018/11/AI-and-Human-Rights.pdf”. 2023年3月25日閲覧。
  153. ^ a b c Sotala, Kaj; Yampolskiy, Roman V. (2014-12-19). “Responses to catastrophic AGI risk: a survey”. Physica Scripta 90 (1): 018001. doi:10.1088/0031-8949/90/1/018001. ISSN 0031-8949. 
  154. ^ When will computer hardware match the human brain? by Hans Moravec”. web.archive.org (2006年6月15日). 2023年2月15日閲覧。
  155. ^ Bołtuć, Piotr (2020-01-01). “Consciousness for AGI” (英語). Procedia Computer Science 169: 365–372. doi:10.1016/j.procs.2020.02.231. ISSN 1877-0509. https://www.sciencedirect.com/science/article/pii/S1877050920303549. 
  156. ^ Joshi, Naveen. “Chasing The Myth: Why Achieving Artificial General Intelligence May Be A Pipe Dream” (英語). Forbes. 2023年3月25日閲覧。
  157. ^ Wayback Machine”. web.archive.org (2009年4月11日). 2023年3月16日閲覧。
  158. ^ 株式会社インプレス (2017年9月4日). “脳に学ぶ「汎用人工知能」の可能性 ~第2回 全脳アーキテクチャシンポジウム開催”. PC Watch. 2024年3月21日閲覧。
  159. ^ araya (2021年7月14日). “「意識」の機能を持った汎用AIの実現(3):グローバル・ワークスペース理論~脳のモジュール間の情報を橋渡しする | 株式会社アラヤ”. 2024年3月21日閲覧。
  160. ^ https://dictionary.cambridge.org/us/dictionary/english/superintelligence”. 2023年3月25日閲覧。
  161. ^ https://consc.net/papers/singularity.pdf”. 2023年3月25日閲覧。
  162. ^ http://mattmahoney.net/rsi.pdf”. 2023年3月25日閲覧。
  163. ^ Wang, Wenyi (2018-05-17). “A Formulation of Recursive Self-Improvement and Its Possible Efficiency”. arXiv:1805.06610 [cs]. http://arxiv.org/abs/1805.06610. 
  164. ^ https://intelligence.org/files/IE-EI.pdf”. 2023年3月25日閲覧。
  165. ^ Speculations Concerning the First Ultraintelligent Machine*”. web.archive.org (2001年5月27日). 2023年3月25日閲覧。
  166. ^ Stoddard, George D. (1941-12-15). “Patterns of Growth in Human Intelligence” (英語). Proceedings of the National Academy of Sciences 27 (12): 551–555. doi:10.1073/pnas.27.12.551. ISSN 0027-8424. PMC PMC1078380. PMID 16588502. https://pnas.org/doi/full/10.1073/pnas.27.12.551. 
  167. ^ https://dorshon.com/wp-content/uploads/2017/05/superintelligence-paths-dangers-strategies-by-nick-bostrom.pdf”. 2023年3月25日閲覧。
  168. ^ https://philpapers.org/archive/MLLFPI”. 2023年3月25日閲覧。
  169. ^ Gill, Karamjit S. (2016-05-01). “Artificial super intelligence: beyond rhetoric” (英語). AI & SOCIETY 31 (2): 137–143. doi:10.1007/s00146-016-0651-x. ISSN 1435-5655. https://doi.org/10.1007/s00146-016-0651-x. 
  170. ^ a book review by Christopher M. Doran: Our Final Invention: Artificial Intelligence and the End of the Human Era”. www.nyjournalofbooks.com. 2023年3月25日閲覧。
  171. ^ Rogers, Adam. “Council Post: What Deep Blue And AlphaGo Can Teach Us About Explainable AI” (英語). Forbes. 2023年3月28日閲覧。
  172. ^ Metz, Cade. “Google's AI Wins Pivotal Second Game in Match With Go Grandmaster” (英語). Wired. ISSN 1059-1028. https://www.wired.com/2016/03/googles-ai-wins-pivotal-game-two-match-go-grandmaster/ 2023年3月28日閲覧。 
  173. ^ “What AlphaGo’s sly move says about machine creativity” (英語). Washington Post. ISSN 0190-8286. https://www.washingtonpost.com/news/innovations/wp/2016/03/15/what-alphagos-sly-move-says-about-machine-creativity/ 2023年3月28日閲覧。 
  174. ^ Artificial superintelligence and its limits: why AlphaZero cannot become a general agent”. 2023年3月28日閲覧。
  175. ^ Yampolskiy, Roman V (2017-07-28). “What are the ultimate limits to computational techniques: verifier theory and unverifiability”. Physica Scripta 92 (9): 093001. doi:10.1088/1402-4896/aa7ca8. ISSN 0031-8949. https://iopscience.iop.org/article/10.1088/1402-4896/aa7ca8. 
  176. ^ Bassler, O. Bradley (2006-01-01). “The Surveyability of Mathematical Proof: A Historical Perspective” (英語). Synthese 148 (1): 99–133. doi:10.1007/s11229-004-6221-7. ISSN 1573-0964. https://doi.org/10.1007/s11229-004-6221-7. 
  177. ^ Coleman, Edwin (2009-03-01). “The Surveyability of Long Proofs” (英語). Foundations of Science 14 (1): 27–43. doi:10.1007/s10699-008-9145-8. ISSN 1572-8471. https://doi.org/10.1007/s10699-008-9145-8. 
  178. ^ Unexplainability and Incomprehensibility of Artificial Intelligence”. 2023年3月28日閲覧。
  179. ^ “GOODBYE, CENTRAL: CRANK PHONE DIES” (英語). The New York Times. (1983年10月12日). ISSN 0362-4331. https://www.nytimes.com/1983/10/12/us/goodbye-central-crank-phone-dies.html 2023年5月4日閲覧。 
  180. ^ Chuang, Szufang; Graham, Carroll (2018). “Embracing the sobering reality of technological influences on jobs, employment and human resource development” (英語). European Journal of Training and Development. https://www.semanticscholar.org/paper/Embracing-the-sobering-reality-of-technological-on-Chuang-Graham/d2bcd02c6e895772f9ea4b0bfeb8d488d910b8c9. 
  181. ^ Leontief, Wassily (1983). “Technological Advance, Economic Growth, and the Distribution of Income”. Population and Development Review 9 (3): 403–410. doi:10.2307/1973315. ISSN 0098-7921. https://www.jstor.org/stable/1973315. 
  182. ^ McGaughey, Ewan (2018-01-10) (英語). Will Robots Automate Your Job Away? Full Employment, Basic Income, and Economic Democracy. Rochester, NY. https://papers.ssrn.com/abstract=3044448. 
  183. ^ Walsh, Toby (2018-06-13). “Expert and Non-expert Opinion About Technological Unemployment” (英語). Machine Intelligence Research 15 (5): 637–642. doi:10.1007/s11633-018-1127-x. ISSN 2731-538X. https://www.mi-research.net/en/article/doi/10.1007/s11633-018-1127-x. 
  184. ^ THE IMPACT OF ARTIFICIAL INTELLIGENCE ON THE FUTURE OF WORKFORCES IN THE EUROPEAN UNION AND THE UNITED STATES OF AMERICA”. 2023年5月4日閲覧。
  185. ^ “Automation and anxiety”. The Economist. ISSN 0013-0613. https://www.economist.com/special-report/2016/06/23/automation-and-anxiety 2023年5月4日閲覧。 
  186. ^ US experts warn AI likely to kill off jobs – and widen wealth inequality | Artificial intelligence (AI) | The Guardian”. amp.theguardian.com. 2023年5月4日閲覧。
  187. ^ stevenson, matt (2015年10月8日). “Answers to Stephen Hawking’s AMA are Here!” (英語). Wired. ISSN 1059-1028. https://www.wired.com/brandlab/2015/10/stephen-hawkings-ama/ 2024年4月24日閲覧。 
  188. ^ Simon, Charles. “Council Post: AGI Is Ready To Emerge (Along With The Risks It Will Bring)” (英語). Forbes. 2023年5月4日閲覧。
  189. ^ NOTES FROM THE AI FRONTIER MODELING THE IMPACT OF AI ON THE WORLD ECONOMY”. 2023年5月5日閲覧。
  190. ^ Science fiction no more? Channel 4’s Humans and our rogue AI obsessions | Television & radio | The Guardian”. web.archive.org (2018年2月5日). 2023年3月25日閲覧。
  191. ^ Müller, Vincent C. (2014-07-03). “Risks of general artificial intelligence”. Journal of Experimental & Theoretical Artificial Intelligence 26 (3): 297–301. doi:10.1080/0952813X.2014.895110. ISSN 0952-813X. 
  192. ^ Turchin, Alexey (2019-03-01). “Assessing the future plausibility of catastrophically dangerous AI” (英語). Futures 107: 45–58. doi:10.1016/j.futures.2018.11.007. ISSN 0016-3287. https://www.sciencedirect.com/science/article/pii/S0016328718301319. 
  193. ^ Rawlinson, Kevin. “Microsoft's Bill Gates insists AI is a threat”. BBC News. オリジナルの2015年1月29日時点におけるアーカイブ。. https://web.archive.org/web/20150129183607/http://www.bbc.co.uk/news/31047780 2015年1月30日閲覧。 
  194. ^ Stephen Hawking: 'Are we taking Artificial Intelligence seriously” (英語). The Independent (2014年5月1日). 2023年3月24日閲覧。
  195. ^ McLean, Scott; Read, Gemma J. M.; Thompson, Jason; Baber, Chris; Stanton, Neville A.; Salmon, Paul M. (2021-08-13). “The risks associated with Artificial General Intelligence: A systematic review”. Journal of Experimental & Theoretical Artificial Intelligence: 1–15. doi:10.1080/0952813X.2021.1964003. ISSN 0952-813X. 
  196. ^ Hendrycks, Dan; Carlini, Nicholas; Schulman, John; Steinhardt, Jacob (2022-06-16). “Unsolved Problems in ML Safety”. arXiv:2109.13916 [cs]. http://arxiv.org/abs/2109.13916. 
  197. ^ Human Compatible by Stuart Russell: 9780525558637 | PenguinRandomHouse.com: Books”. web.archive.org (2023年2月10日). 2023年3月25日閲覧。
  198. ^ Bostrom, Nick (2014). Superintelligence: Paths, Dangers, Strategies (First ed.). ISBN 978-0199678112 
  199. ^ Naudé, Wim; Dimitri, Nicola (2020-06-01). “The race for an artificial general intelligence: implications for public policy” (英語). AI & Society 35 (2): 367–379. doi:10.1007/s00146-019-00887-x. ISSN 1435-5655. 
  200. ^ Torres, Phil (2019-05-04). “The possibility and risks of artificial general intelligence”. Bulletin of the Atomic Scientists 75 (3): 105–108. Bibcode2019BuAtS..75c.105T. doi:10.1080/00963402.2019.1604873. ISSN 0096-3402. https://doi.org/10.1080/00963402.2019.1604873 2022年8月29日閲覧。. 
  201. ^ Turchin, Alexey; Denkenberger, David (2018-07-27), “Military AI as a Convergent Goal of Self-Improving AI”, Artificial Intelligence Safety and Security (First edition. | Boca Raton, FL : CRC Press/Taylor & Francis Group, 2018.: Chapman and Hall/CRC): 375–393, doi:10.1201/9781351251389-25, ISBN 978-1-351-25138-9, オリジナルの2 February 2023時点におけるアーカイブ。, https://web.archive.org/web/20230202181021/https://www.taylorfrancis.com/chapters/edit/10.1201/9781351251389-25/military-ai-convergent-goal-self-improving-ai-alexey-turchin-david-denkenberger 2022年8月29日閲覧。 
  202. ^ Carayannis, Elias G.; Draper, John (2022-01-11). “Optimising peace through a Universal Global Peace Treaty to constrain the risk of war from a militarised artificial superintelligence” (英語). AI & Society: 1–14. doi:10.1007/s00146-021-01382-y. ISSN 1435-5655. PMC 8748529. PMID 35035113. https://doi.org/10.1007/s00146-021-01382-y 2022年8月29日閲覧。. 
  203. ^ Intelligent Machines: Do we really need to fear AI? - BBC News”. web.archive.org (2020年11月8日). 2023年3月25日閲覧。
  204. ^ itu.int: Beyond Mad?: The Race For Artificial General Intelligence Archived 9 November 2020 at the Wayback Machine., "AGI represents a level of power that remains firmly in the realm of speculative fiction as on date." February 2, 2018, retrieved March 3, 2020
  205. ^ Gambini-Buffalo, Bert (2022年8月25日). “Book: AI is cool, but nowhere near human capacity” (英語). Futurity. 2023年4月2日閲覧。
  206. ^ http://lib.ysu.am/disciplines_bk/b7707dde83ee24b2b23999b4df5fd988.pdf”. 2023年3月25日閲覧。
  207. ^ Allen, Paul; Greaves, Mark (2011年10月12日). “The Singularity Isn't Near”. MIT Technology Review. http://www.technologyreview.com/view/425733/paul-allen-the-singularity-isnt-near/ 2014年9月17日閲覧。 
  208. ^ Winfield, Alan. “Artificial intelligence will not turn into a Frankenstein's monster”. The Guardian. オリジナルの2014年9月17日時点におけるアーカイブ。. https://web.archive.org/web/20140917135230/http://www.theguardian.com/technology/2014/aug/10/artificial-intelligence-will-not-become-a-frankensteins-monster-ian-winfield 2014年9月17日閲覧。 
  209. ^ “Tech Luminaries Address Singularity” (英語). IEEE Spectrum: Technology, Engineering, and Science News (SPECIAL REPORT: THE SINGULARITY). (2008年6月1日). オリジナルの2019年4月30日時点におけるアーカイブ。. https://web.archive.org/web/20190430150019/https://spectrum.ieee.org/computing/hardware/tech-luminaries-address-singularity 2020年4月8日閲覧。 
  210. ^ Clocksin, William F. (2003-08-15). MacFarlane, A. G. J.. ed. “Artificial intelligence and the future” (英語). Philosophical Transactions of the Royal Society of London. Series A: Mathematical, Physical and Engineering Sciences 361 (1809): 1721–1748. doi:10.1098/rsta.2003.1232. ISSN 1364-503X. https://royalsocietypublishing.org/doi/10.1098/rsta.2003.1232. 
  211. ^ James, Alex P. (2022-06). “The Why, What, and How of Artificial General Intelligence Chip Development”. IEEE Transactions on Cognitive and Developmental Systems 14 (2): 333–347. doi:10.1109/TCDS.2021.3069871. ISSN 2379-8939. https://ieeexplore.ieee.org/document/9390376. 
  212. ^ Pei, Jing; Deng, Lei; Song, Sen; Zhao, Mingguo; Zhang, Youhui; Wu, Shuang; Wang, Guanrui; Zou, Zhe et al. (2019-08). “Towards artificial general intelligence with hybrid Tianjic chip architecture” (英語). Nature 572 (7767): 106–111. doi:10.1038/s41586-019-1424-8. ISSN 1476-4687. https://www.nature.com/articles/s41586-019-1424-8. 
  213. ^ MORAVEC’S PARADOX: CONSIDERATION IN THE CONTEXT OF TWO BRAIN HEMISPHERE FUNCTIONS”. 2023年3月25日閲覧。
  214. ^ Narayan, Ranjani C. (2018年1月28日). “The AI Paradox” (英語). Digital Flâneur. 2023年3月16日閲覧。
  215. ^ Deane, George (2022). “Machines That Feel and Think: The Role of Affective Feelings and Mental Action in (Artificial) General Intelligence”. Artificial Life 28 (3): 289–309. doi:10.1162/artl_a_00368. ISSN 1064-5462. PMID 35881678. https://doi.org/10.1162/artl_a_00368. 
  216. ^ Clocksin, William F. (2003-08-15). MacFarlane, A. G. J.. ed. “Artificial intelligence and the future” (英語). Philosophical Transactions of the Royal Society of London. Series A: Mathematical, Physical and Engineering Sciences 361 (1809): 1721–1748. doi:10.1098/rsta.2003.1232. ISSN 1364-503X. https://royalsocietypublishing.org/doi/10.1098/rsta.2003.1232. 
  217. ^ Priyadarshini, Ishaani; Cotton, Chase (2022). “AI Cannot Understand Memes: Experiments with OCR and Facial Emotions” (英語). Computers, Materials & Continua 70 (1): 781–800. doi:10.32604/cmc.2022.019284. ISSN 1546-2226. https://www.techscience.com/cmc/v70n1/44391 2022年8月28日閲覧。. 

出典[編集]

外部リンク[編集]