コンテンツにスキップ

英文维基 | 中文维基 | 日文维基 | 草榴社区

人工知能の倫理

出典: フリー百科事典『ウィキペディア(Wikipedia)』
AI倫理から転送)

人工知能の倫理(じんこうちのうのりんり、: ethics of artificial intelligence)は、人工知能システム(AI)に特化した技術倫理学英語版の一分野である[1]。人工知能システムを設計、製造、使用、扱う人間の道徳的行動への関心と、機械倫理学英語版における機械の行動への関心に分けられることもある。また、超知的なAIによる特異点(シンギュラリティ)の可能性の問題も含まれる。

倫理研究の分野

[編集]

ロボット倫理

[編集]

ロボット倫理(: robot ethics, or roboethics)という言葉は、人間がロボットをどのように設計し、構築し、使用し、扱うかという道徳を意味する[2]。ロボット倫理はAIの倫理とも重なっている。ロボットは物理的な機械であるのに対し、AIはソフトウェアにすぎない[3]。すべてのロボットがAIシステムによって機能するわけではなく、またすべてのAIシステムがロボットであるとも限らない。ロボット倫理は、機械が人間に危害を加えたり利益をもたらすか、個人の自律性に与える影響、社会正義への影響などについて考える。

機械倫理

[編集]

機械倫理(: machine ethics)または機械道徳(: machine morality)とは、道徳的あるいは道徳的であるかのようにふるまうロボット、人工知能を持つコンピュータ、人工道徳エージェント英語版(Artificial Moral Agents、AMA)の設計に関わる研究分野である[4][5][6][7]。これらのエージェントの性質を説明するために、AMAの概念に関連するエージェンシー英語版の標準的な特徴、合理的エージェンシー英語版道徳的エージェンシー英語版、人工的エージェンシーのような特定の哲学的概念を考慮することが提案されている[8]

1950年代、アイザック・アシモフは、著書「I, Robot(われはロボット)」でこのテーマを考察した。編集者のジョン・W・キャンベル・ジュニアの勧めで、彼は人工知能システムが従うべき「ロボット工学の三原則」を提案した。その後、彼の研究の多くは、3つの原則がどこで破綻し、どこで逆説的な行動や予期しない行動を起こすか、その境界を検証することに費やされた。彼の研究は、固定された法則の集まりでは、起こりうるすべての状況を十分に予測することができないことを示唆している[9]。最近では、学者や多くの政府が、AI自体に説明責任があるという考えに対して疑問を呈している[10]。2010年に英国で開催された研究会では、アシモフの原則を改訂し、AIはその製造者または所有者/操作者のいずれかの責任であることを明確にした[11]

2009年、スイス連邦工科大学ローザンヌ校の知能システム研究所で行われた実験では、相互に協力するようにプログラムされたロボット(有利な資源を捜し出し、不利な資源を回避する)が、有利な資源を貯め込もうと嘘をつくことを学習したことが明らかになった[12]

専門家や学者の中には、軍事戦闘でロボットを使用すること、特にそのようなロボットにある程度の自律性を持たせることに疑問を呈する人もいる[13]。米海軍は、軍事用ロボットがより複雑になるにつれ、その自律的な意思決定能力がもたらす影響により注意を払うべきとする報告書に資金を提供した[14][15]アメリカ人工知能学会の会長は、この問題を調査するための調査を委託した[16]。彼らは、人間との対話を模擬できる「言語習得装置(Language Acquisition Device)」のようなプログラムを指摘している。

ヴァーナー・ヴィンジは、あるコンピューターが人間よりも賢くなる瞬間が来るかもしれないと示唆している。彼はこれを「シンギュラリティ(特異点)」と呼び[17]、それが人間にとって多少なりとも、あるいは非常に危険なものとなる可能性があると示唆している[18]。これはシンギュラリタリアニズムと呼ばれる哲学によって議論されている。機械知能研究所英語版(MIRI)は、「友好的な人工知能Friendly AI)」を構築する必要性を提唱している。これは、AIがすでに進化していることに加え、AIを本質的に友好的かつ人道的にする努力をするべきという意味である[19]

AIが倫理的な判断英語版を下せるかどうかを確認するためのテストを作成することも議論されている。アラン・ウィンフィールドは、チューリング・テストには欠陥があり、AIがテストに合格するための要件が低すぎると結論付けている[20]。代替として提案されているテストは、AIの判断が倫理的か非倫理的かを複数の判定者が判断することで現在のテストを改善する「倫理的チューリングテスト」と呼ばれるものである[20]

2009年、アメリカ人工知能学会が主催する会議に学者や技術者が集まり、ロボットやコンピュータが自給自足して自立的に判断できるようになるという可能性を仮定した場合の潜在的な影響について議論した。彼らは、コンピュータやロボットが何らかの自律性を獲得する可能性やその度合い、また、そうした能力を使用して脅威や危険をもたらす可能性の程度について議論を重ねた。彼らは、いくつかの機械がさまざまな形の半自律性を獲得していることを指摘し、その中には自力で電源を探したり、武器で攻撃する標的を選択する能力も含まれている。また、コンピューターウイルスの中には駆除を回避して「ゴキブリの知能」を獲得しているものがあることにも言及された。彼らは、サイエンス・フィクション(SF)で描かれているような自己認識はおそらくあり得ないが、その他にも潜在的な危険や落とし穴があることに着目した[17]

しかし、道徳的な能力を持つロボットを実現する可能性のある、一つの技術が存在する。ネイエフ・アル=ローダン英語版は、ロボットによる道徳的価値の獲得に関する論文で、ニューロモルフィック・チップの事例について言及している。ニューロモルフィック・チップは、数百万もの人工ニューロンを相互に接続して、人間のように非線形な情報処理をすることを目的としている[21]。ニューロモルフィック技術を組み込んだロボットは、独自に人間らしい方法で学習し、知識を身につけることができる。必然的に、このようなロボットがどのような環境で世の中について学び、誰の道徳感を受け継ぐのかや、あるいは利己心、生存志向の態度、迷いなど、人間の「弱点」も習得してしまうかどうかという問題を提起する。

ウェンデル・ワラック英語版とコリン・アレンは、著書「Moral Machines: Teaching Robots Right from Wrong(ロボットに倫理を教える:モラルマシーン)」において[22]、ロボットに善と悪を教える試みは、人が現代の規範理論のギャップに取り組む動機付けとなり、実験的調査の基盤を提供することによって、人の倫理感の理解を深めることになるだろうと結論付けている。その一例として、機械にどのような学習アルゴリズム英語版を使用するかという論争的な課題を、規範倫理学者に提示した。ニック・ボストロムエリーザー・ユドコウスキー英語版は、透明性と予測可能性という現代の社会規範(先例拘束力の原則など)に従うという理由で、ニューラルネットワーク遺伝的アルゴリズムよりも(ID3のような)決定木が好ましいと主張した[23]。一方、クリス・サントス=ラングは、どのような時代でも規範が変化することを許さなければならず、特定の規範を完全に準拠しないことで人間が犯罪的「ハッカー」に対して脆弱になることを助けるだろうとして、反対の方向を主張した[24]

オックスフォード大学のAIガバナンスセンター[注釈 1]による2019年の報告書によると、アメリカ人の82%が、ロボットやAIは慎重に管理されるべきと考えている。懸念事項として挙げられているのは、AIが監視にどのように利用されるかや、オンライン上での偽コンテンツの拡散[注釈 2]から、サイバー攻撃データプライバシーの侵害、雇用偏重英語版自動運転車、人間による制御を必要としない無人航空機まで多岐に及んだ[25]

人工知能の倫理原則

[編集]

AIに関する84の倫理指針のレビューでは[26]、透明性、正義と公正、無危害、責任、プライバシー、善行、自由と自律、信頼、持続可能性、尊厳、連帯という11の原則群が見いだされた[26]

ルチアーノ・フロリディとジョシュ・カウルズは、生命倫理の4原則(与益(善行)無加害自主尊重正義)と、追加のAI実現原則(説明可能性)によって設定されたAI原則の倫理的枠組みを作成した[27]

透明性、説明責任、オープンソース

[編集]

ビル・ヒバード英語版は、AIは人類に多大な影響を与えるため、AI開発者は未来の人類の代表であり、その取り組みに透明性を持たせる倫理的義務があると主張している[28]ベン・ゲーツェル英語版とデイヴィッド・ハートは、AI開発のためのオープンソースフレームワークとしてOpenCog英語版を作成した[29]OpenAIは、人類に有益なオープンソースAIを開発することを目的として、イーロン・マスクサム・アルトマンらが設立した非営利のAI研究所である[30]。他にも数多くのオープンソースのAI開発プロジェクトがある。

しかしながら、コードをオープンソース化することで理解できるようになるわけではなく、このことは多くの定義において、AIコードは透明ではないことを意味している。IEEEは、AIの透明性に関する標準化の取り組みを進めている[31]。IEEEの取り組みでは、さまざまなユーザーに対して複数の透明性レベルを特定している。さらに、今日のAIの全能力を一部の組織に解放することは、公共の悪、つまり善よりも悪をもたらす可能性があるという懸念がある。たとえば、マイクロソフトは、同社の顔認識ソフトウェアへの普遍的なアクセスを(対価を支払える人であっても)認めることに懸念を表明している。マイクロソフトは、この話題について特別なブログ記事を投稿して、何が正しいかを判断するための規制を政府に求めている[32]

企業だけでなく他の多くの研究者や市民団体も、AIの透明性を確保するとともに、それを通じて人間の説明責任を果たす手段として、政府の規制を推奨している。この戦略がイノベーションの進展を遅らせることを危惧する人もおり、論争の的となっている。また、規制はシステムの安定化をもたらし、長期的にイノベーションを支援することができるという議論もある[33]。2019年現在、OECD国連EU、そして多くの国々が、AIを規制するための戦略を立て、適切な法的枠組みの構築に取り組んでいる[34][35][36]

2019年6月26日、欧州委員会(EC)の人工知能に関するハイレベル専門家グループ(AI HLEG)[注釈 3]は、「信頼できる人工知能のための政策と投資に関する提言」を発表した[37]。これは、2019年4月に発表された「信頼できるAIのための倫理ガイドライン」[注釈 4]に続く、AI HLEGの2番目の成果物である。同年6月のAI HLEG勧告は、人間と社会全体、研究と学術、民間企業、公共の4つの主要分野に及んでいる。欧州委員会は、「HLEGの勧告は、AI技術が経済成長、繁栄、イノベーションを促進する機会と、それに伴う潜在的なリスクの両方に対する評価を反映した」と主張し、AIを管理する政策形成においてEUが国際的な主導的役割を果たすと述べている[38]。危害を防ぐためには、規制に加えて、AIを展開する組織は「信頼できるAIの原則」に沿った信頼できるAIの開発と展開で中心的な役割を果たし、リスクを軽減するための説明責任を負う必要がある[39]。2021年4月21日、欧州委員会は人工知能法を提案した[40]

倫理的課題

[編集]

AIシステムにおけるバイアス

[編集]
人工知能の人種的偏見について語る米上院議員カマラ・ハリス(2020年、当時)

顔認識システム音声認識システムなどにAIが組み込まれることが進んでいる。これらのシステムの中には、実際の業務用途に使用され、人々に直接影響を与えるものもある。これらのシステムは、製造者である人間によってもたらされたバイアス(偏り、偏見)やエラー(誤り)に対して脆弱である。また、これらのAIシステムを訓練するために使用されるデータ自体にもバイアスが含まれている可能性がある[41][42][43][44]。たとえば、マイクロソフト、IBM、Face++の顔認識アルゴリズムは、いずれも人の性別を識別する際に偏りがあり[45]、白人の男性の性別を肌の色が濃い男性よりも正確に検出することができた。さらに、2020年の研究によると、アマゾンアップルグーグル、IBM、マイクロソフトの音声認識システムの調査では、白人の声よりも黒人の声を書き起こすときのエラー率が高いことがわかった[46]。さらに、アマゾンは、アルゴリズムが女性よりも男性の候補者を優遇したため、採用や募集にAIを利用英語版することをやめた。これは、アマゾンのシステムが、10年以上にわたって収集された主に男性の候補者からのデータで訓練されていたためである[47]

バイアスは、さまざまな方法でアルゴリズムに忍び込む可能性がある。AIシステムにバイアスが入り込む仕組みとして最も有力なのは、システムを訓練するために使用する過去のデータ中にバイアスが埋め込まれていることである。たとえば、アマゾンのAIを用いた採用ツールは、何年にもわたって蓄積された自社の採用データで訓練したもので、その間、無事に採用された候補者のほとんどは白人男性であった。その結果、アルゴリズムは過去のデータから(偏った)パターンを学習し、このような種類の候補者が採用される可能性が高いという現在や未来の予測をたてた。そのため、AIシステムによる採用判断が、女性やマイノリティの候補者に対して偏っていることが判明した。フリードマンとニッセンバウムは、コンピュータシステムにおけるバイアスを、既存バイアス(existing bias)、技術的バイアス(technical bias)、創発的バイアス(emergent bias)の3つに分類している[48]自然言語処理では、アルゴリズムが異なる単語間の関係を学習するために使用するテキストコーパスに問題が起こることがある[49]

IBMやグーグルなどの大企業は、このようなバイアスを研究し対処する努力を重ねてきた[50][51][52]。バイアスに対処するための一つの解決策は、AIシステムの訓練に使用するデータのドキュメントを作成することである[53][54]プロセスマイニングは、エラーの特定、プロセスの監視、不適切な実行の潜在的な根本原因の特定、その他の機能により、組織がAI規制の提案の遵守を達成するための重要なツールとなりうる[55]

機械学習におけるバイアスの問題は、この技術が医療や法律などの重要な分野に普及し、深い技術的な理解を持たない多くの人が導入を任されるにつれて、より重要な意味を持つ可能性がある。一部の専門家は、アルゴリズムによるバイアスはすでに多くの業界に蔓延しており、それを特定し修正しようとする取り組みはほとんどなされていないと警告している[56]。偏ったAIに対する意識を高めることを目的とした、市民団体によるオープンソースのツールも登場している[57]

ロボットの権利

[編集]

ロボットの権利(: robot rights)とは、人の人権動物の権利と同様に、人が機械に対して道徳的な義務を負うべきだという概念である[58]。ロボットの権利(例:ロボットが生存し、自らの使命を遂行する権利)は、人権と社会に対する義務を結びつけるのと同様に、人類に奉仕するロボットの義務に結びつけることができると提案されている[59]。たとえば、生存と自由の権利、思想と表現の自由、法の下の平等[注釈 5]が含まれる可能性がある[60]。この問題は、米国未来研究所英語版[61]英国貿易産業省英語版[62]でも検討された。

このテーマに関する具体的で詳細な法律が必要になる時期については、専門家の間でも意見が分かれている[62]グレン・マギー英語版は、2020年までに十分な人型ロボットが登場する可能性があると報告しているが[63]レイ・カーツワイルは、その時期を2029年としている[64]。2007年に開かれた別の科学者グループは、十分に進化したシステムが存在するまでに少なくとも50年は必要であるとの見解を示していた[65]

2003年のローブナー賞の競技ルールでは、ロボットが自らの権利を持つ可能性を想定していた。

61. 任意の年に、サリー大学またはケンブリッジセンターによって登録された一般公開のオープンソースプログラムが銀メダルまたは金メダルを受賞した場合、メダルと賞金はそのプログラムの制作担当者に授与される。そのような受賞者が特定できない場合、または複数の受賞主張者の間で意見の相違がある場合、応募作がアメリカ合衆国またはコンテストの開催地で賞金と金メダルを合法的に所有できるようになるまでメダルと賞金は信託される[66]

2017年10月、アンドロイドのソフィアサウジアラビアで市民権を取得したが、これは意味のある法的承認というよりも宣伝行為であると考える人もいた[67]。また、この行為は人権法の支配をあからさまに中傷するものとの見方もあった[68]

感覚中心主義英語版: sentiocentrism, or sentientism)の哲学は、主に人間や人間以外の動物など、すべての感覚を持った存在に対し、ある程度の道徳的配慮を認めるものである。人工知能や異星人が感性を持つという証拠を示した場合、この哲学は、そうした存在に思いやりを示すとともに、権利を認めるべきとするものである。

ジョアンナ・ブライソン英語版は、権利を必要とするAIを作成することは回避可能であり、AIエージェントにも人間社会にも負担となるため、それ自体が非倫理的であると主張している[69]

2023年8月、メタ分析によれば、AIは人間と同等の説得力を持つが、人間は相対的にAIの意見に対する行動意図を形成しない[70]

人間の尊厳への脅威

[編集]

1976年、ジョセフ・ワイゼンバウム[71]、敬意と配慮を必要とする次のような立場の人の代わりにAI技術を使うべきではないと主張した。

ワイゼンバウムは、このような立場の人々には、本物の共感の感情が必要だと説明している。「もし機械が彼らに取って代わったなら、人工知能システムは共感をシミュレートできないので、私たちは疎外され、価値を下げられ、不満を感じることになるだろう。人工知能がこのように使われれば、人間の尊厳が脅やかされることになる」。ワイゼンバウムは、こうした職種を機械化する可能性への考えは、人々が「自らをコンピューターと考えることからくる人の魂の萎縮」を経験していることを示唆すると主張した[72]

パメラ・マコーダック英語版は、女性やマイノリティを代表して「公平なコンピューターに望みを託したい」と反論し、個人的な意図をまったく持たない自動化された裁判官や警察がいることを望む状況があることを指摘している[72]。しかし、アンドレアス・カプランとミヒャエル・ヘンラインは、AIシステムはその訓練に使用するデータと同じくらいの賢さでしかなく、本質的には気まぐれなカーブフィッティングマシンにすぎないことを強調している。過去の判例で特定のグループに対する偏見が見られた場合、AIを使用して裁判所の判断を支持することは非常に問題となる。そうした偏見はAIシステムに形式化され、定着してしまうため、それを見抜いて争うことがより困難になるからである[73]

ワイゼンバウムはまた、一部のAI研究者(および哲学者)が、人間の心を単なるコンピュータプログラムに過ぎないと見なそうとする姿勢(現在、計算主義として知られている)を懸念していた。ワイゼンバウムにとって、これらの点は、AI研究が人間の生命を尊重しないことを示唆するものである[71]

AI創設者であるジョン・マッカーシーは、ワイゼンバウムの批判が道徳的であることに異議を唱えている。彼は「激しく曖昧な説教は、権威主義的な乱用を招く」と書いている。ビル・ヒバード英語版[74]、「人間の尊厳には、存在の本質に対する無知を取り除く努力が必要であり、その努力のためにAIが必要である」と書いている。

自動運転車の責任

[編集]

自動運転車の普及が目前に迫る中、完全な自動運転車がもたらす新たな課題に対処する必要がある[75][76]。最近(2019年)では、これらの車が事故を起こした際の責任者の法的責任について議論されている[77][78]。自動運転車が歩行者に衝突したある報告では、運転手は車に乗っていたものの、その運転は完全にコンピュータの手に委ねられていた。そのため、事故の責任は誰にあるのかという板ばさみに陥った[79]

2018年3月18日の別の事件では、アリゾナ州で、エレイン・ハーツバーグ英語版が、Uberの自動運転車にはねられて死亡した。この事故の場合、自動運転車は自律的に車道を走行するために車や特定の障害物を検知することができたが、道路の真ん中にいる歩行者を予測することができなかった。このため、彼女の死について、運転手、歩行者、自動車会社、または政府のいずれが責任を負うべきかという問題が起こった[80]

現在のところ、自動運転車は半自律運転と見なされており、運転者は注意を払い、必要に応じて制御できるように準備しておく必要がある[81][出典無効]。したがって、自律走行機能に過度に依存する運転手を規制するとともに、これらは便利ではあるが完全な代替手段ではなく、単なる技術に過ぎないことを教育することも政府の責任である。自動走行車が広く普及する前に、政府は新たな政策をもって、これらの問題に対処する必要がある[82][83][84]

人工知能の兵器化

[編集]

一部の専門家や研究者は、ロボットを軍事戦闘に使用すること、特にそうしたロボットにある程度の自律性が与えられている場合に疑問を呈している[13][85]。2019年10月31日、米国国防総省の国防イノベーション委員会は、人工知能の倫理的使用の原則を推奨する報告書の草案を公表し、人間の操作者が常に「ブラックボックス」を調べ、キルチェーン・プロセスを理解できるようにするとした。しかし、大きな懸念事項は、この報告書がどのように実施されるかということである[86]。米海軍は、軍事用ロボットがより複雑になるにつれ、自律的な決定を下す能力の影響にもっと注意を払うべきとする報告書に資金を提供した[87][15]。研究者の中には、自律型ロボット英語版は、より効果的な意思決定ができるため、より人道的になりうると言う人もいる[88]

この10年の間に、与えられた道徳的責任を用い、学習する能力を備えた自律型兵器に関する研究が集中的に行われた。研究は「この結果は、将来の軍事用ロボットの設計に利用され、ロボットに責任を負わせようとする望ましくない傾向を抑制することができる」と述べている[89]帰結主義的な観点から言えば、ロボットが誰を殺すかを自ら論理的に判断する能力を身につける可能性があるからこそ、AIが覆すことのできない一定の道徳的枠組みを設ける必要がある[90]

最近では、ロボットが人類を征服する英語版という発想を含め、人工知能型の兵器技術に関して抗議の声がある。AI兵器は、人間が制御する兵器とは異なる種類の危険性をもたらす。多くの政府が、AI兵器を開発する計画に資金を提供し始めている。米国海軍は最近、自律型ドローン兵器の開発計画を発表し、これはロシアや朝鮮が同様の発表をしたのと対抗するものである。AI兵器が人間が操作する兵器よりも危険なものとなる可能性があるため、スティーブン・ホーキングマックス・テグマークは、AI兵器を禁止する「Future of Life(生命の未来)」請願書に署名した[91]。ホーキングとテグマークが投稿したメッセージには、AI兵器が差し迫った危険をもたらし、近い将来の破滅的な災害を回避するための行動が必要であることが述べられている[92]

嘆願書では「主要な軍事大国がAI兵器の開発を推し進めれば、世界的な軍拡競争は事実上避けられず、この技術的軌跡の終着点は明白である。自律型兵器は明日のカラシニコフになるだろう。」と述べられ、AI兵器に反対する支持者として、Skype共同創設者のジャーン・タリン英語版やMIT言語学教授のノーム・チョムスキーの名も含まれている[93]

物理学者で天文学者の英国王室のマーティン・リースは、「馬鹿げたロボットが暴走したり、ネットワークが独自の知性を身につける」といった破滅的な例を警告している。ケンブリッジ大学でリースの同僚でもあるヒュー・プライスも、知性が「生物学の制約から逃れる」とき、人間は生き残れないかもしれないと同様の警告を発した。二人の教授は、人間の存亡を脅かすこのような事態を回避することを願い、ケンブリッジ大学に人類存亡の危機研究センター英語版を設立した[92]

人間より賢いシステムが軍事用に利用される可能性について、Open Philanthropy Project英語版は、これらのシナリオは「制御不能に伴うリスクと同様に潜在的に重要であると考えられる」と書いているが、AIが長期的に社会に与える影響に関する研究では、こうした懸念に比較的時間を割いていない。「これらのシナリオの部類は、機械知能研究所英語版(MIRI)や人類未来研究所英語版(FHI)など、この分野で最も活発に活動している組織ではあまり重視されておらず、それに関する分析や議論もあまり行われていないようである」[94]

不透明なアルゴリズム

[編集]

ニューラルネットワークによる機械学習のような手法では、コンピュータが、コンピュータ自身だけでなくそのコンピュータをプログラムした人間でも説明できないような意思決定をすることがある。このような意思決定が公正で信頼できるものであるかどうかを人が判断することは困難で、AIシステムのバイアスが発見されなかったり、人々がそのようなシステムの使用を拒否する可能性がある。このため、説明可能な人工知能(XAI)が提唱され、法域によっては法的要件が設けられるようになった[95]

特異点

[編集]

多くの研究者が、自己改善型AIは「知性の爆発」によって非常に強力になり、その目標達成を人間が止められなくなる可能性があると主張している[96]。哲学者のニック・ボストロムは、論文「Ethical Issues in Advanced Artificial Intelligence(高度な人工知能における倫理的問題)」とその後の著書「Superintelligence: Paths, Dangers, Strategies」において、人工知能は人類を絶滅させる能力を備えていると論じている。彼は、「一般的な超知能は自主的で独創性を持ち、自ら計画を立てることができるため、自律的なエージェントと考えるのが妥当である」と主張する。さらに、「人工知能は、人間との間で動機付けの傾向を共有する必要はないため、その本来の動機を定めるのは、超知能の設計者次第である。超知的なAIは、ほぼすべての可能な結果をもたらすことができ、その目標の遂行を妨げようとする試みを阻止することもできるため、多くの制御不能で意図せざる結果が起こりうる。他のエージェントを全滅させたり、行動を変えるよう説得することも、干渉しようとする試みを阻止することも可能である。」と論じている[97]

しかし、ボストロムは、「超知能が人類を圧倒して滅亡に導くのではなく、病気や貧困、環境破壊など多くの難問を解決し、人類を『強化』するのに役立つ可能性もある」とも主張している[98]

人間の価値体系は非常に複雑であるため、AIの動機を人間らしいものにすることは非常に困難である[96][97]。道徳哲学が完璧な倫理理論を提供してくれない限り、AIの効用関数は、与えられた倫理的枠組みに適合しても、「常識」から外れた多くの潜在的に有害なシナリオを許容する可能性がある。エリーザー・ユドコウスキー英語版によると、人工的に設計された知性がそのような適合を持つと信じる理由はほとんどない[99]スチュワート・J・ラッセル[100]ビル・ヒバード英語版[74]ローマン・ヤンポルスキー英語版[101]シャノン・ヴァラー英語版[102]、Steven Umbrello[103]ルチアーノ・フロリディ[104]といったAI研究者は、有益な機械を開発するための設計戦略を提案している。

AI倫理の関係者

[編集]

AIの倫理や政策に関わる組織は、公的機関や政府機関、企業や社会的な組織も含め、数多く存在している。

2016年、アマゾン、グーグル、フェイスブック、IBM、マイクロソフトは共同で、人工知能技術のベストプラクティスを策定し、一般の人々の理解を促進し、人工知能に関するプラットフォームとして機能するために、非営利団体The Partnership on AI to Benefit People and Societyを設立した。アップルは2017年1月に参加した。法人会員がグループに対して資金面や研究面で貢献する一方、科学者コミュニティと協力して学識研究者が運営に参加している[105]

IEEEは「人工知能および自律型システムの倫理的配慮に関するグローバル・イニシアティブ」[注釈 6]を立ち上げ、一般からの意見の助けも借りてガイドラインを策定、改訂しており、組織内外から多くの専門家がメンバーとして加わっている。

従来、社会が倫理を遵守するように、政府が法律や取り締まりなどを通じて、その役割を担ってきた。現在では、AIが倫理的に適用されるように、各国政府だけでなく、国境を越えたガバナンス英語版非政府組織による多くの取り組みが行われている。

政府間の取り組み

[編集]
  • 欧州委員会(EC)は、「人工知能に関するハイレベル専門家グループ」を設置している。2019年4月8日、このグループは「信頼できる人工知能のための倫理的ガイドライン」を発表した[106]。また欧州委員会には「ロボット工学と人工知能のイノベーションとエクセレンス部門」[注釈 7]があり、2020年2月19日に「人工知能イノベーションにおける卓越性と信頼に関する白書」を発行した[107]。欧州委員会は人工知能法も提案した[40]
  • OECDは「AI政策に関するオブザーバトリー」を設立した[108]

政府による取り組み

[編集]

学術的な取り組み

[編集]

非政府組織の取り組み

[編集]

国際的な非営利団体である生命の未来研究所英語版は、2017年、アシロマで「有益なAI」に関する5日間の会議を開催し、AI研究の未来に向けた23の指針となる原則を発表した。この会議は、さまざまな分野の専門家やソートリーダーがビジョンを共有し、研究の問題、倫理や価値観、長期的な問題に対処するためのAIガバナンス原則の重要な基礎を築いた[124]

民間団体

[編集]

フィクションの役割と影響

[編集]

AI倫理に関するフィクション(創作)の役割は複雑なものであった。フィクションが人工知能やロボット工学の発展に与えた影響は、3つのレベルに分けることができる。歴史的に見ると、フィクションは、AIの目標や展望だけでなく、それに関する倫理的な問題や一般的な恐怖にも影響を与えるような、共通の転義(例え、お約束)を予見してきた。20世紀後半から21世紀初頭は、大衆文化、特に映画、テレビシリーズ、ビデオゲームは、AIやロボットに関する倫理的な問題に対する関心事や悲観主義的な予測をしばしば反映させてきた。最近では、サイエンスフィクション(SF)の枠を超えて、文学作品でもこうしたテーマが扱われることが多くなっている。また、カタルーニャ工科大学のロボット工学および産業コンピューティング研究所の研究教授カルマ・トラス英語版が指摘するように[128]、高等教育の技術系科目においても、SFを題材として技術関連の倫理問題を教えることが増えている。

歴史

[編集]

歴史的に見ると、「考える機械」(: thinking machines)の道徳的、倫理的な意味合いの探究は、少なくとも啓蒙主義時代にまで遡る。ライプニッツは、あたかも知的存在のように振る舞うメカニズムに知性を帰することができるかを問い[129]デカルトチューリング・テストの初期バージョンと呼べるものを記述している[130]

ロマン主義の時代には、創造者の制御から逃れ、悲惨な結末を迎える人工生物がしばしば描かれた。最も有名なのはメアリー・シェリーの「フランケンシュタイン」である。しかし、19世紀から20世紀初頭にかけて、工業化と機械化に対する広範な先入観は、倫理的に問題のある技術開発をフィクションの最前線に押し上げることになった。カレル・チャペックの戯曲「ロッサム万能ロボット(R.U.R - Rossum's Universal Robots)」は、感情を持った知的ロボットが奴隷労働に使われるという設定で、「ロボット」という言葉(強制労働を表すチェコ語の robota に由来)の発明につながっただけでなく、1921年の初演後に国際的な成功を収めた。1921年に発表されたジョージ・バーナード・ショーの戯曲「メトセラへ還れ英語版Back to Methuselah)」は、人間のように振る舞う思考機械の妥当性を問う場面がある。1927年のフリッツ・ラングの映画「メトロポリス」では、技術主義政治の圧政に対して、搾取された大衆の蜂起を導くアンドロイドが描かれている。

技術開発への影響

[編集]

不屈の可能性を秘めたテクノロジーによって支配される未来への期待は、長い間、作家や映画製作者の想像力をかき立ててきたが、フィクションが技術開発の着想にどのような役割を果たしたかについてはあまり分析されてこなかった。たとえば、若き日のアラン・チューリングが1933年にバーナード・ショーの戯曲「メトセラへ還れ」を観て評価していたことは記録されているし[131][注釈 8]、国際的に成功し多くの言語に翻訳された「R.U.R.」のような演劇も少なくとも認識していたはずだと考えられる。

また、AI開発の原理や倫理的な意味合いを確立する上で、SFが果たした役割についてを考えることもできる。アイザック・アシモフは、1942年の短編集「I, Robot」の一部である短編小説「堂々めぐり (en:英語版」で「ロボット工学の三原則」を概念化した。また、スタンリー・キューブリックの映画「2001年宇宙の旅」の原作となったアーサー・C・クラークの短編「前哨英語版」は、1948年に執筆され、1952年に出版された。とりわけ、1968年に出版されたフィリップ・K・ディックスの多数の短編小説と小説、特に「アンドロイドは電気羊の夢を見るか?」は、人間と見分けがつかないアンドロイドの感情反応を測定するために独自のチューリングテストであるフォークト・カンプフ・テストを取り入れた作品である。この小説は、後にリドリー・スコットによる反響を呼んだ1982年の映画「ブレードランナー」の原作となった。

サイエンスフィクションは、何十年も前から、AI開発の倫理的影響に取り組んでおり、一般的な人工知能に似たようなものを実現したときに起こりうる倫理的問題の青写真を提供してきた。スパイク・ジョーンズの2013年の映画「Her/世界でひとつの彼女」は、ユーザーがスマートフォンのオペレーティングシステムの魅惑的な声に恋した場合に何が起こるかを描いている。一方、「エクス・マキナ」は、明らかに認識できる機械に直面した場合に、顔や共感できる官能的な声によってのみ人間らしさを示したとしても、人はまだ感情的なつながりを築き、誘惑されるだろうか?という、より難しい問いを投げかけている(この映画は、2世紀前の1817年にE.T.A.ホフマンが書いた短編小説「砂男」にすでに存在していたテーマを反映している)。

人工的な感覚を持つ生物との共存は、最近の2つの小説の主題でもある。2019年に出版されたイアン・マキューアンの「恋するアダム(Machines Like Me)」では、人間のカップルに人工的なアンドロイドを巻き込んだ三角関係が描かれている。2021年に出版されたノーベル賞受賞者カズオ・イシグロの「クララとお日さま(Klara and the Sun)」は、人工知能を搭載した「AF」(artificial friend、人工の友人)であるクララが、一緒に住んでいるリフト(すなわち遺伝子強化)された後に奇病に苦しむ少女を助けようとする、一人称の記録である。

TVシリーズ

[編集]

AIに関連する倫理的な問題は、何十年も前からSF文学や長編映画で取り上げられてきたが、より長く複雑な筋書きやキャラクター設定を可能にする様式としてテレビシリーズが登場したことで、テクノロジーの倫理的な意味合いを扱ったいくつかの重要な作品が生まれてきた。スウェーデンの「Real Humans英語版」シリーズ(2012-2013)は、人工的な感覚を持つ生物を社会に取り込むことがもたらす複雑な倫理的、社会的帰結に取り組んだものである。イギリスのディストピアSFアンソロジーシリーズ「ブラック・ミラー(Black Mirror)」(2013-2019)は、最近のさまざまな技術開発と結びついた暗黒世界的なフィクションの発展を試みたことで特に注目された。フランスのシリーズ「Osmosis英語版」(2020)とイギリスのシリーズ「The One英語版」(2021)は、いずれもテクノロジーが人の理想的なパートナーを見つけようとしたときに何が起こるかを扱っている。Netflixのシリーズ「ラブ、デス&ロボット(Love, Death+Robots)」のいくつかのエピソードでは、ロボットと人間が一緒に暮らす場面が想像されている。その中で最も代表的な第2シーズン第1話では、人間がロボットに依存しすぎた場合、ロボットが制御不能になったときに、どれだけ悪い結果を招くかを描いている[132]

フィクションやゲームの未来像

[編集]

映画「13F(The Thirteenth Floor)」は、知覚を持つ住民が住む模擬世界が、娯楽を目的としたコンピュータゲーム機によって作られる未来を示唆している。映画「マトリックスThe Matrix)」は、地球上の支配的な種族が知覚を持つ機械であり、人類は最大限の種差別で扱われる未来を示唆している。短編小説「プランク・ダイヴ英語版(The Planck Dive)」は、人類が自らを複製し最適化が可能なソフトウェアになり、ソフトウェアの種類を感覚的か非感覚的かで区別するような未来を示唆している。同じ発想は「宇宙船ヴォイジャー」に搭載された緊急医療ホログラムにも見いだすことができる。これは、作成者であるジマーマン博士の意識の一部を縮小した知覚的コピーであり、彼は緊急時に医療支援を行うためにこのシステムを作成した。映画「アンドリューNDR114(原作バイセンテニアル・マン)」と「A.I.」は、感情を持つことのできる知的ロボットの可能性を扱っている。「I, Robot」はアシモフ三原則の一端を探った。こうしたシナリオはすべて、感覚を持つコンピュータの誕生でもたらしうる非倫理的な結果を予期している[133]

人工知能の倫理は、BioWareのゲーム「Mass Effect」シリーズの中心的テーマの一つである[134]。このゲームは、世界規模のニューラルネットワークによる計算能力の急激な向上により、ある文明が誤ってAIを作り出してしまうというシナリオに基づいている。この出来事は、新たに感覚を持った機械生命体に生物的な権利を与えることが適切と考える人々と、彼らを使い捨ての機械と見なし破壊するために戦った人々との間に倫理的な分裂を引き起こした。最初の対立にとどまらず、機械とその創造者との間の複雑な関係も、物語を通じて進行するテーマである。

デトロイト ビカム ヒューマン(Detroit: Become Human)」は、最近、人工知能の倫理について論じた最も有名なビデオゲームの1つである。クアンティック・ドリームは、より没入型のゲーム体験をプレーヤーに提供するため、対話的な筋書きを使用してゲームの各章を設計した。プレーヤーは、感情を持つ3人のアンドロイドを操作し、さまざまな出来事に直面しながら、アンドロイドグループに対する人間の見方を変えるという目的を達成するためにさまざまな選択をし、それによって異なる結末をもたらす。プレーヤーがアンドロイドの視点に立つことで、真の人工知能が誕生した後のロボットの権利や利益をより深く考えることができる数少ないゲームのひとつである[135]

ヒューゴ・デ・ガリスケビン・ワーウィック英語版が始めた「コスミズム(宇宙主義)」と「テラン(地球人類)」の議論で強調されたように、時代とともに議論は可能性(possibility)よりも望ましさ(desirability)を重視する傾向にある[136]。ヒューゴ・デ・ガリスによれば、コスミストとは、実際にはより知的な人類の後継者を作ろうとする思想をいう。

ケンブリッジ大学の専門家は、フィクションやノンフィクションにおいて、AIは圧倒的に無害として描かれ、その危険性や長所に対する認識を歪めていると論じている[137]

関連項目

[編集]
組織


注釈と出典

[編集]

注釈

[編集]
  1. ^ Center for the Governance of AI
  2. ^ AIの助けを借りて生成され、改ざんされたビデオ画像や音声を含む場合、ディープフェイクと呼ばれる。
  3. ^ High-Level Expert Group on Artificial Intelligence
  4. ^ Ethics Guidelines for Trustworthy AI
  5. ^ 英語版記事の Personhood を参照
  6. ^ Global Initiative on Ethics of Autonomous and Intelligent Systems
  7. ^ Robotics and Artificial Intelligence Innovation and Excellence
  8. ^ デジタルコンピュータの基礎を築いた最初の重要な論文を発表するわずか3年前

出典

[編集]
  1. ^ Müller, Vincent C. (30 April 2020). “Ethics of Artificial Intelligence and Robotics”. Stanford Encyclopedia of Philosophy. 10 October 2020時点のオリジナルよりアーカイブ26 September 2020閲覧。
  2. ^ Veruggio, Gianmarco (2011). “The Roboethics Roadmap”. EURON Roboethics Atelier (Scuola di Robotica): 2. 
  3. ^ Müller, Vincent C. (2020), Zalta, Edward N., ed., Ethics of Artificial Intelligence and Robotics (Winter 2020 ed.), Metaphysics Research Lab, Stanford University, オリジナルの2021-04-12時点におけるアーカイブ。, https://web.archive.org/web/20210412140022/https://plato.stanford.edu/archives/win2020/entries/ethics-ai/ 2021年3月18日閲覧。 
  4. ^ Anderson. “Machine Ethics”. 28 September 2011時点のオリジナルよりアーカイブ27 June 2011閲覧。
  5. ^ Anderson, Michael; Anderson, Susan Leigh, eds (July 2011). Machine Ethics. Cambridge University Press. ISBN 978-0-521-11235-2 
  6. ^ Anderson, M.; Anderson, S.L. (July 2006). “Guest Editors' Introduction: Machine Ethics”. IEEE Intelligent Systems 21 (4): 10–11. doi:10.1109/mis.2006.70. 
  7. ^ Anderson, Michael; Anderson, Susan Leigh (15 December 2007). “Machine Ethics: Creating an Ethical Intelligent Agent”. AI Magazine 28 (4): 15. doi:10.1609/aimag.v28i4.2065. 
  8. ^ Boyles, Robert James M. (2017). “Philosophical Signposts for Artificial Moral Agent Frameworks”. Suri 6 (2): 92–109. https://philarchive.org/rec/BOYPSF. 
  9. ^ Asimov, Isaac (2008). I, Robot. New York: Bantam. ISBN 978-0-553-38256-3 
  10. ^ Bryson, Joanna; Diamantis, Mihailis; Grant, Thomas (September 2017). “Of, for, and by the people: the legal lacuna of synthetic persons”. Artificial Intelligence and Law 25 (3): 273–291. doi:10.1007/s10506-017-9214-9. 
  11. ^ Principles of robotics”. UK's EPSRC (September 2010). 1 April 2018時点のオリジナルよりアーカイブ10 January 2019閲覧。
  12. ^ Evolving Robots Learn To Lie To Each Other Archived 2009-08-28 at the Wayback Machine., Popular Science, August 18, 2009
  13. ^ a b Call for debate on killer robots Archived 2009-08-07 at the Wayback Machine., By Jason Palmer, Science and technology reporter, BBC News, 8/3/09.
  14. ^ Science New Navy-funded Report Warns of War Robots Going "Terminator" Archived 2009-07-28 at the Wayback Machine., by Jason Mick (Blog), dailytech.com, February 17, 2009.
  15. ^ a b Navy report warns of robot uprising, suggests a strong moral compass Archived 2011-06-04 at the Wayback Machine., by Joseph L. Flatley engadget.com, Feb 18th 2009.
  16. ^ AAAI Presidential Panel on Long-Term AI Futures 2008–2009 Study Archived 2009-08-28 at the Wayback Machine., Association for the Advancement of Artificial Intelligence, Accessed 7/26/09.
  17. ^ a b Markoff, John (25 July 2009). “Scientists Worry Machines May Outsmart Man”. The New York Times. オリジナルの25 February 2017時点におけるアーカイブ。. https://web.archive.org/web/20170225202201/http://www.nytimes.com/2009/07/26/science/26robot.html 24 February 2017閲覧。 
  18. ^ The Coming Technological Singularity: How to Survive in the Post-Human Era Archived 2007-01-01 at the Wayback Machine., by Vernor Vinge, Department of Mathematical Sciences, San Diego State University, (c) 1993 by Vernor Vinge.
  19. ^ Article at Asimovlaws.com Archived May 24, 2012, at the Wayback Machine., July 2004, accessed 7/27/09.
  20. ^ a b Winfield, A. F.; Michael, K.; Pitt, J.; Evers, V. (March 2019). “Machine Ethics: The Design and Governance of Ethical AI and Autonomous Systems [Scanning the Issue”]. Proceedings of the IEEE 107 (3): 509–517. doi:10.1109/JPROC.2019.2900622. ISSN 1558-2256. オリジナルの2020-11-02時点におけるアーカイブ。. https://web.archive.org/web/20201102031635/https://ieeexplore.ieee.org/document/8662743 2020年11月21日閲覧。. 
  21. ^ Al-Rodhan, Nayef (7 December 2015). “The Moral Code”. オリジナルの2017年3月5日時点におけるアーカイブ。. https://web.archive.org/web/20170305044025/https://www.foreignaffairs.com/articles/2015-08-12/moral-code 2017年3月4日閲覧。 
  22. ^ Wallach, Wendell; Allen, Colin (November 2008). Moral Machines: Teaching Robots Right from Wrong. USA: Oxford University Press. ISBN 978-0-19-537404-9 
  23. ^ The Ethics of Artificial Intelligence”. Cambridge Handbook of Artificial Intelligence. Cambridge Press (2011年). 2016年3月4日時点のオリジナルよりアーカイブ2011年6月22日閲覧。
  24. ^ Santos-Lang, Chris (2002年). “Ethics for Artificial Intelligences”. 2014年12月25日時点のオリジナルよりアーカイブ2015年1月4日閲覧。
  25. ^ Howard, Ayanna. “The Regulation of AI – Should Organizations Be Worried? | Ayanna Howard”. MIT Sloan Management Review. 2019年8月14日時点のオリジナルよりアーカイブ2019年8月14日閲覧。
  26. ^ a b Jobin, Anna; Ienca, Marcello; Vayena, Effy (2 September 2020). “The global landscape of AI ethics guidelines”. Nature 1 (9): 389–399. arXiv:1906.11668. doi:10.1038/s42256-019-0088-2. 
  27. ^ Floridi, Luciano; Cowls, Josh (2 July 2019). “A Unified Framework of Five Principles for AI in Society”. Harvard Data Science Review 1. doi:10.1162/99608f92.8cd550d1. 
  28. ^ Open Source AI. Archived 2016-03-04 at the Wayback Machine. Bill Hibbard. 2008 proceedings of the First Conference on Artificial General Intelligence, eds. Pei Wang, Ben Goertzel, and Stan Franklin.
  29. ^ OpenCog: A Software Framework for Integrative Artificial General Intelligence. Archived 2016-03-04 at the Wayback Machine. David Hart and Ben Goertzel. 2008 proceedings of the First Conference on Artificial General Intelligence, eds. Pei Wang, Ben Goertzel, and Stan Franklin.
  30. ^ Inside OpenAI, Elon Musk’s Wild Plan to Set Artificial Intelligence Free Archived 2016-04-27 at the Wayback Machine. Cade Metz, Wired 27 April 2016.
  31. ^ P7001 – Transparency of Autonomous Systems”. P7001 – Transparency of Autonomous Systems. IEEE. 10 January 2019時点のオリジナルよりアーカイブ10 January 2019閲覧。.
  32. ^ Thurm, Scott (July 13, 2018). “MICROSOFT CALLS FOR FEDERAL REGULATION OF FACIAL RECOGNITION”. Wired. オリジナルのMay 9, 2019時点におけるアーカイブ。. https://web.archive.org/web/20190509231338/https://www.wired.com/story/microsoft-calls-for-federal-regulation-of-facial-recognition/ January 10, 2019閲覧。. 
  33. ^ The General Data Protection Regulation Cross-industry innovation”. Inside magazine. Deloitte (June 2017). 2019年1月10日時点のオリジナルよりアーカイブ2019年1月10日閲覧。
  34. ^ UN artificial intelligence summit aims to tackle poverty, humanity's 'grand challenges'”. UN News (2017年6月7日). 2019年7月26日時点のオリジナルよりアーカイブ2019年7月26日閲覧。
  35. ^ Artificial intelligence – Organisation for Economic Co-operation and Development”. www.oecd.org. 2019年7月22日時点のオリジナルよりアーカイブ2019年7月26日閲覧。
  36. ^ Anonymous (2018年6月14日). “The European AI Alliance”. Digital Single Market – European Commission. 2019年8月1日時点のオリジナルよりアーカイブ2019年7月26日閲覧。
  37. ^ European Commission High-Level Expert Group on AI (2019年6月26日). “Policy and investment recommendations for trustworthy Artificial Intelligence” (英語). Shaping Europe’s digital future – European Commission. 2020年2月26日時点のオリジナルよりアーカイブ2020年3月16日閲覧。
  38. ^ EU Tech Policy Brief: July 2019 Recap”. Center for Democracy & Technology. 2019年8月9日時点のオリジナルよりアーカイブ2019年8月9日閲覧。
  39. ^ Curtis, Caitlin; Gillespie, Nicole; Lockey, Steven (2022-05-24). “AI-deploying organizations are key to addressing 'perfect storm' of AI risks” (英語). AI and Ethics 3 (1): 145–153. doi:10.1007/s43681-022-00163-7. ISSN 2730-5961. PMC 9127285. PMID 35634256. オリジナルの2023-03-15時点におけるアーカイブ。. https://web.archive.org/web/20230315194711/https://link.springer.com/article/10.1007/s43681-022-00163-7 2022年5月29日閲覧。. 
  40. ^ a b “Why the world needs a Bill of Rights on AI”. Financial Times. (2021年10月18日). https://www.ft.com/content/17ca620c-4d76-4a2f-829a-27d8552ce719 2023年3月19日閲覧。 
  41. ^ Gabriel, Iason (2018年3月14日). “The case for fairer algorithms – Iason Gabriel”. Medium. 2019年7月22日時点のオリジナルよりアーカイブ2019年7月22日閲覧。
  42. ^ 5 unexpected sources of bias in artificial intelligence”. TechCrunch (10 December 2016). 2021年3月18日時点のオリジナルよりアーカイブ2019年7月22日閲覧。
  43. ^ Knight, Will. “Google's AI chief says forget Elon Musk's killer robots, and worry about bias in AI systems instead”. MIT Technology Review. 2019年7月4日時点のオリジナルよりアーカイブ2019年7月22日閲覧。
  44. ^ Villasenor, John (2019年1月3日). “Artificial intelligence and bias: Four key challenges”. Brookings. 2019年7月22日時点のオリジナルよりアーカイブ2019年7月22日閲覧。
  45. ^ Lohr, Steve (9 February 2018). “Facial Recognition Is Accurate, if You're a White Guy”. The New York Times. オリジナルの9 January 2019時点におけるアーカイブ。. https://web.archive.org/web/20190109131036/https://www.nytimes.com/2018/02/09/technology/facial-recognition-race-artificial-intelligence.html 29 May 2019閲覧。 
  46. ^ Koenecke, Allison; Nam, Andrew; Lake, Emily; Nudell, Joe; Quartey, Minnie; Mengesha, Zion; Toups, Connor; Rickford, John R. et al. (7 April 2020). “Racial disparities in automated speech recognition”. Proceedings of the National Academy of Sciences 117 (14): 7684–7689. Bibcode2020PNAS..117.7684K. doi:10.1073/pnas.1915768117. PMC 7149386. PMID 32205437. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC7149386/. 
  47. ^ “Amazon scraps secret AI recruiting tool that showed bias against women”. Reuters. (2018年10月10日). オリジナルの2019年5月27日時点におけるアーカイブ。. https://web.archive.org/web/20190527181625/https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G 2019年5月29日閲覧。 
  48. ^ Friedman, Batya; Nissenbaum, Helen (July 1996). “Bias in computer systems”. ACM Transactions on Information Systems 14 (3): 330–347. doi:10.1145/230538.230561. 
  49. ^ Eliminating bias in AI”. techxplore.com. 2019年7月25日時点のオリジナルよりアーカイブ2019年7月26日閲覧。
  50. ^ Olson, Parmy. “Google's DeepMind Has An Idea For Stopping Biased AI”. Forbes. 2019年7月26日時点のオリジナルよりアーカイブ2019年7月26日閲覧。
  51. ^ Machine Learning Fairness | ML Fairness”. Google Developers. 2019年8月10日時点のオリジナルよりアーカイブ2019年7月26日閲覧。
  52. ^ AI and bias – IBM Research – US”. www.research.ibm.com. 2019年7月17日時点のオリジナルよりアーカイブ2019年7月26日閲覧。
  53. ^ Bender, Emily M.; Friedman, Batya (December 2018). “Data Statements for Natural Language Processing: Toward Mitigating System Bias and Enabling Better Science”. Transactions of the Association for Computational Linguistics 6: 587–604. doi:10.1162/tacl_a_00041. 
  54. ^ Gebru, Timnit; Morgenstern, Jamie; Vecchione, Briana; Vaughan, Jennifer Wortman; Wallach, Hanna; Daumé III, Hal; Crawford, Kate (2018). "Datasheets for Datasets". arXiv:1803.09010 [cs.DB]。
  55. ^ Pery, Andrew (2021年10月6日). “Trustworthy Artificial Intelligence and Process Mining: Challenges and Opportunities”. DeepAI. 2022年2月18日時点のオリジナルよりアーカイブ2022年2月18日閲覧。
  56. ^ Knight, Will. “Google's AI chief says forget Elon Musk's killer robots, and worry about bias in AI systems instead”. MIT Technology Review. 2019年7月4日時点のオリジナルよりアーカイブ2019年7月26日閲覧。
  57. ^ Where in the World is AI? Responsible & Unethical AI Examples”. 2020年10月31日時点のオリジナルよりアーカイブ2020年10月28日閲覧。
  58. ^ Evans, Woody (2015). “Posthuman Rights: Dimensions of Transhuman Worlds”. Teknokultura 12 (2). doi:10.5209/rev_TK.2015.v12.n2.49072. 
  59. ^ Sheliazhenko, Yurii (2017). “Artificial Personal Autonomy and Concept of Robot Rights”. European Journal of Law and Political Sciences: 17–21. doi:10.20534/EJLPS-17-1-17-21. オリジナルの14 July 2018時点におけるアーカイブ。. https://web.archive.org/web/20180714111141/https://cyberleninka.ru/article/n/artificial-personal-autonomy-and-concept-of-robot-rights 10 May 2017閲覧。. 
  60. ^ The American Heritage Dictionary of the English Language, Fourth Edition
  61. ^ “Robots could demand legal rights”. BBC News. (December 21, 2006). オリジナルのOctober 15, 2019時点におけるアーカイブ。. https://web.archive.org/web/20191015042628/http://news.bbc.co.uk/2/hi/technology/6200005.stm January 3, 2010閲覧。 
  62. ^ a b Henderson, Mark (April 24, 2007). “Human rights for robots? We're getting carried away”. The Times Online (The Times of London). オリジナルのMay 17, 2008時点におけるアーカイブ。. https://web.archive.org/web/20080517022444/http://www.timesonline.co.uk/tol/news/uk/science/article1695546.ece May 2, 2010閲覧。 
  63. ^ McGee, Glenn. “A Robot Code of Ethics”. The Scientist. 2020年9月6日時点のオリジナルよりアーカイブ2019年3月25日閲覧。
  64. ^ Kurzweil, Ray (2005). The Singularity is Near. Penguin Books. ISBN 978-0-670-03384-3 
  65. ^ The Big Question: Should the human race be worried by the rise of robots?, Independent Newspaper,
  66. ^ Loebner Prize Contest Official Rules — Version 2.0 Archived 2016-03-03 at the Wayback Machine. The competition was directed by David Hamill and the rules were developed by members of the Robitron Yahoo group.
  67. ^ Saudi Arabia bestows citizenship on a robot named Sophia” (26 October 2017). 2017年10月27日時点のオリジナルよりアーカイブ2017年10月27日閲覧。
  68. ^ Pretending to give a robot citizenship helps no one”. The Verge (30 October 2017). 3 August 2019時点のオリジナルよりアーカイブ10 January 2019閲覧。
  69. ^ Wilks, Yorick, ed (2010). Close engagements with artificial companions: key social, psychological, ethical and design issues. Amsterdam: John Benjamins Pub. Co. ISBN 978-9027249944. OCLC 642206106 
  70. ^ Guanxiong Huang, Sai Wang (2023). “Is artificial intelligence more persuasive than humans? A meta-analysis”. Journal of Communication 73: 552–562. 
  71. ^ a b * Weizenbaum, Joseph『Computer Power and Human Reason』W.H. Freeman & Company、San Francisco、1976年。ISBN 978-0-7167-0464-5 
  72. ^ a b Joseph Weizenbaum, quoted in McCorduck 2004, pp. 356, 374–376
  73. ^ Kaplan, Andreas; Haenlein, Michael (January 2019). “Siri, Siri, in my hand: Who's the fairest in the land? On the interpretations, illustrations, and implications of artificial intelligence”. Business Horizons 62 (1): 15–25. doi:10.1016/j.bushor.2018.08.004. 
  74. ^ a b Hibbard, Bill (17 November 2015). "Ethical Artificial Intelligence". arXiv:1411.1373 [cs.AI]。
  75. ^ Davies, Alex (29 February 2016). “Google's Self-Driving Car Caused Its First Crash”. Wired. オリジナルの7 July 2019時点におけるアーカイブ。. https://web.archive.org/web/20190707212719/https://www.wired.com/2016/02/googles-self-driving-car-may-caused-first-crash/ 26 July 2019閲覧。 
  76. ^ Levin, Sam; Wong, Julia Carrie (19 March 2018). “Self-driving Uber kills Arizona woman in first fatal crash involving pedestrian”. The Guardian. オリジナルの26 July 2019時点におけるアーカイブ。. https://web.archive.org/web/20190726084818/https://www.theguardian.com/technology/2018/mar/19/uber-self-driving-car-kills-woman-arizona-tempe 26 July 2019閲覧。 
  77. ^ Who is responsible when a self-driving car has an accident?”. Futurism. 2019年7月26日時点のオリジナルよりアーカイブ2019年7月26日閲覧。
  78. ^ Autonomous Car Crashes: Who – or What – Is to Blame?”. Knowledge@Wharton. 2019年7月26日時点のオリジナルよりアーカイブ2019年7月26日閲覧。
  79. ^ Delbridge, Emily. “Driverless Cars Gone Wild”. The Balance. 2019年5月29日時点のオリジナルよりアーカイブ2019年5月29日閲覧。
  80. ^ Stilgoe, Jack (2020), “Who Killed Elaine Herzberg?” (英語), Who’s Driving Innovation? (Cham: Springer International Publishing): pp. 1–6, doi:10.1007/978-3-030-32320-2_1, ISBN 978-3-030-32319-6, オリジナルの2021-03-18時点におけるアーカイブ。, https://web.archive.org/web/20210318060722/https://link.springer.com/chapter/10.1007%2F978-3-030-32320-2_1 2020年11月11日閲覧。 
  81. ^ Maxmen, Amy (October 2018). “Self-driving car dilemmas reveal that moral choices are not universal”. Nature 562 (7728): 469–470. Bibcode2018Natur.562..469M. doi:10.1038/d41586-018-07135-0. PMID 30356197. 
  82. ^ Regulations for driverless cars”. GOV.UK. 2019年7月26日時点のオリジナルよりアーカイブ2019年7月26日閲覧。
  83. ^ Automated Driving: Legislative and Regulatory Action – CyberWiki”. cyberlaw.stanford.edu. 2019年7月26日時点のオリジナルよりアーカイブ。2019年7月26日閲覧。
  84. ^ Autonomous Vehicles | Self-Driving Vehicles Enacted Legislation”. www.ncsl.org. 2019年7月26日時点のオリジナルよりアーカイブ2019年7月26日閲覧。
  85. ^ Robot Three-Way Portends Autonomous Future Archived 2012-11-07 at the Wayback Machine., By David Axe wired.com, August 13, 2009.
  86. ^ United States. Defense Innovation Board. AI principles: recommendations on the ethical use of artificial intelligence by the Department of Defense. OCLC 1126650738 
  87. ^ New Navy-funded Report Warns of War Robots Going "Terminator" Archived 2009-07-28 at the Wayback Machine., by Jason Mick (Blog), dailytech.com, February 17, 2009.
  88. ^ Umbrello, Steven; Torres, Phil; De Bellis, Angelo F. (March 2020). “The future of war: could lethal autonomous weapons make conflict more ethical?” (英語). AI & Society 35 (1): 273–282. doi:10.1007/s00146-019-00879-x. hdl:2318/1699364. ISSN 0951-5666. オリジナルの2021-01-05時点におけるアーカイブ。. https://archive.today/20210105020836/https://link.springer.com/article/10.1007/s00146-019-00879-x 2020年11月11日閲覧。. 
  89. ^ Hellström, Thomas (June 2013). “On the moral responsibility of military robots”. Ethics and Information Technology 15 (2): 99–107. doi:10.1007/s10676-012-9301-2. ProQuest 1372020233. 
  90. ^ Mitra, Ambarish (5 April 2018). “We can train AI to identify good and evil, and then use it to teach us morality”. Quartz. 2019年7月26日時点のオリジナルよりアーカイブ2019年7月26日閲覧。
  91. ^ AI Principles”. Future of Life Institute (11 August 2017). 2017年12月11日時点のオリジナルよりアーカイブ2019年7月26日閲覧。
  92. ^ a b Zach Musgrave and Bryan W. Roberts (2015年8月14日). “Why Artificial Intelligence Can Too Easily Be Weaponized – The Atlantic”. The Atlantic. 2017年4月11日時点のオリジナルよりアーカイブ2017年3月6日閲覧。
  93. ^ Cat Zakrzewski (2015年7月27日). “Musk, Hawking Warn of Artificial Intelligence Weapons”. WSJ. 2015年7月28日時点のオリジナルよりアーカイブ2017年8月4日閲覧。
  94. ^ GiveWell [in 英語] (2015). Potential risks from advanced artificial intelligence (Report). 2015年10月12日時点のオリジナルよりアーカイブ。2015年10月11日閲覧
  95. ^ Inside The Mind Of A.I. Archived 2021-08-10 at the Wayback Machine. - Cliff Kuang interview
  96. ^ a b Muehlhauser, Luke, and Louie Helm. 2012. "Intelligence Explosion and Machine Ethics" Archived 2015-05-07 at the Wayback Machine.. In Singularity Hypotheses: A Scientific and Philosophical Assessment, edited by Amnon Eden, Johnny Søraker, James H. Moor, and Eric Steinhart. Berlin: Springer.
  97. ^ a b Bostrom, Nick. 2003. "Ethical Issues in Advanced Artificial Intelligence" Archived 2018-10-08 at the Wayback Machine.. In Cognitive, Emotive and Ethical Aspects of Decision Making in Humans and in Artificial Intelligence, edited by Iva Smit and George E. Lasker, 12–17. Vol. 2. Windsor, ON: International Institute for Advanced Studies in Systems Research / Cybernetics.
  98. ^ Umbrello, Steven; Baum, Seth D. (2018-06-01). “Evaluating future nanotechnology: The net societal impacts of atomically precise manufacturing” (英語). Futures 100: 63–73. doi:10.1016/j.futures.2018.04.007. hdl:2318/1685533. ISSN 0016-3287. オリジナルの2019-05-09時点におけるアーカイブ。. https://web.archive.org/web/20190509222110/https://www.sciencedirect.com/science/article/pii/S0016328717301908 2020年11月29日閲覧。. 
  99. ^ Yudkowsky, Eliezer. 2011. "Complex Value Systems in Friendly AI" Archived 2015-09-29 at the Wayback Machine.. In Schmidhuber, Thórisson, and Looks 2011, 388–393.
  100. ^ Russell, Stuart『Human Compatible: Artificial Intelligence and the Problem of Control』Viking、United States、October 8, 2019。ISBN 978-0-525-55861-3OCLC 1083694322 
  101. ^ Yampolskiy, Roman V. (2020-03-01). “Unpredictability of AI: On the Impossibility of Accurately Predicting All Actions of a Smarter Agent”. Journal of Artificial Intelligence and Consciousness 07 (1): 109–118. doi:10.1142/S2705078520500034. ISSN 2705-0785. オリジナルの2021-03-18時点におけるアーカイブ。. https://web.archive.org/web/20210318060657/https://www.worldscientific.com/doi/abs/10.1142/S2705078520500034 2020年11月29日閲覧。. 
  102. ^ Wallach, Wendell; Vallor, Shannon (2020-09-17), “Moral Machines: From Value Alignment to Embodied Virtue” (英語), Ethics of Artificial Intelligence (Oxford University Press): pp. 383–412, doi:10.1093/oso/9780190905033.003.0014, ISBN 978-0-19-090503-3, オリジナルの2020-12-08時点におけるアーカイブ。, https://web.archive.org/web/20201208114354/https://oxford.universitypressscholarship.com/view/10.1093/oso/9780190905033.001.0001/oso-9780190905033-chapter-14 2020年11月29日閲覧。 
  103. ^ Umbrello, Steven (2019). “Beneficial Artificial Intelligence Coordination by Means of a Value Sensitive Design Approach” (英語). Big Data and Cognitive Computing 3 (1): 5. doi:10.3390/bdcc3010005. 
  104. ^ Floridi, Luciano; Cowls, Josh; King, Thomas C.; Taddeo, Mariarosaria (2020). “How to Design AI for Social Good: Seven Essential Factors” (英語). Science and Engineering Ethics 26 (3): 1771–1796. doi:10.1007/s11948-020-00213-5. ISSN 1353-3452. PMC 7286860. PMID 32246245. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC7286860/. 
  105. ^ Fiegerman, Seth (28 September 2016). “Facebook, Google, Amazon create group to ease AI concerns”. CNNMoney. オリジナルの17 September 2020時点におけるアーカイブ。. https://web.archive.org/web/20200917141730/https://money.cnn.com/2016/09/28/technology/partnership-on-ai/ 18 August 2020閲覧。 
  106. ^ Ethics guidelines for trustworthy AI” (英語). Shaping Europe’s digital future – European Commission. European Commission (2019年4月8日). 2020年2月20日時点のオリジナルよりアーカイブ2020年2月20日閲覧。
  107. ^ White Paper on Artificial Intelligence – a European approach to excellence and trust | Shaping Europe's digital future”. 2021年3月6日時点のオリジナルよりアーカイブ2021年3月18日閲覧。
  108. ^ OECD AI Policy Observatory”. 2021年3月8日時点のオリジナルよりアーカイブ2021年3月18日閲覧。
  109. ^ “The Obama Administration's Roadmap for AI Policy”. Harvard Business Review. (2016年12月21日). ISSN 0017-8012. オリジナルの2021年1月22日時点におけるアーカイブ。. https://web.archive.org/web/20210122003445/https://hbr.org/2016/12/the-obama-administrations-roadmap-for-ai-policy 2021年3月16日閲覧。 
  110. ^ Accelerating America's Leadership in Artificial Intelligence – The White House”. trumpwhitehouse.archives.gov. 2021年2月25日時点のオリジナルよりアーカイブ2021年3月16日閲覧。
  111. ^ Request for Comments on a Draft Memorandum to the Heads of Executive Departments and Agencies, "Guidance for Regulation of Artificial Intelligence Applications"”. Federal Register (2020年1月13日). 2020年11月25日時点のオリジナルよりアーカイブ2020年11月28日閲覧。
  112. ^ CCC Offers Draft 20-Year AI Roadmap; Seeks Comments”. HPCwire (2019年5月14日). 2021年3月18日時点のオリジナルよりアーカイブ2019年7月22日閲覧。
  113. ^ Request Comments on Draft: A 20-Year Community Roadmap for AI Research in the US » CCC Blog” (13 May 2019). 2019年5月14日時点のオリジナルよりアーカイブ2019年7月22日閲覧。
  114. ^ (ロシア語) Интеллектуальные правила Archived 2021-12-30 at the Wayback Machine. — Kommersant, 25.11.2021
  115. ^ Grace, Katja; Salvatier, John; Dafoe, Allan; Zhang, Baobao; Evans, Owain (3 May 2018). "When Will AI Exceed Human Performance? Evidence from AI Experts". arXiv:1705.08807 [cs.AI]。
  116. ^ China wants to shape the global future of artificial intelligence” (英語). MIT Technology Review. 2020年11月20日時点のオリジナルよりアーカイブ2020年11月29日閲覧。
  117. ^ Floridi, Luciano; Cowls, Josh; Beltrametti, Monica; Chatila, Raja; Chazerand, Patrice; Dignum, Virginia; Luetge, Christoph; Madelin, Robert et al. (2018-12-01). “AI4People—An Ethical Framework for a Good AI Society: Opportunities, Risks, Principles, and Recommendations” (英語). Minds and Machines 28 (4): 689–707. doi:10.1007/s11023-018-9482-5. ISSN 1572-8641. PMC 6404626. PMID 30930541. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC6404626/. 
  118. ^ “Joanna J. Bryson”. WIRED. オリジナルの15 March 2023時点におけるアーカイブ。. https://web.archive.org/web/20230315194630/https://www.wired.com/author/joanna-j-bryson/ 13 January 2023閲覧。. 
  119. ^ New Artificial Intelligence Research Institute Launches” (英語) (2017年11月20日). 2020年9月18日時点のオリジナルよりアーカイブ2021年2月21日閲覧。
  120. ^ Hughes, James J.; LaGrandeur, Kevin, eds (15 March 2017). Surviving the machine age: intelligent technology and the transformation of human work. Cham, Switzerland. ISBN 978-3-319-51165-8. OCLC 976407024. オリジナルの18 March 2021時点におけるアーカイブ。. https://web.archive.org/web/20210318060659/https://www.worldcat.org/title/surviving-the-machine-age-intelligent-technology-and-the-transformation-of-human-work/oclc/976407024 29 November 2020閲覧。 
  121. ^ Danaher, John (2019). Automation and utopia: human flourishing in a world without work. Cambridge, Massachusetts. ISBN 978-0-674-24220-3. OCLC 1114334813. https://www.worldcat.org/oclc/1114334813 
  122. ^ TUM Institute for Ethics in Artificial Intelligence officially opened” (英語). www.tum.de. 2020年12月10日時点のオリジナルよりアーカイブ2020年11月29日閲覧。
  123. ^ Communications, Paul Karoff SEAS (2019年1月25日). “Harvard works to embed ethics in computer science curriculum” (英語). Harvard Gazette. 2023年4月6日閲覧。
  124. ^ AI Principles” (英語). Future of Life Institute. 2023年4月6日閲覧。
  125. ^ Lee, Jennifer 8 (2020年2月8日). “When Bias Is Coded Into Our Technology” (英語). NPR. オリジナルの2022年3月26日時点におけるアーカイブ。. https://web.archive.org/web/20220326025113/https://www.npr.org/sections/codeswitch/2020/02/08/770174171/when-bias-is-coded-into-our-technology 2021年12月22日閲覧。 
  126. ^ a b “How one conference embraced diversity” (英語). Nature 564 (7735): 161–162. (2018-12-12). doi:10.1038/d41586-018-07718-x. PMID 31123357. オリジナルの2021-12-22時点におけるアーカイブ。. https://web.archive.org/web/20211222040227/https://www.nature.com/articles/d41586-018-07718-x 2021年12月22日閲覧。. 
  127. ^ Roose, Kevin (2020年12月30日). “The 2020 Good Tech Awards” (英語). The New York Times. ISSN 0362-4331. オリジナルの2021年12月21日時点におけるアーカイブ。. https://web.archive.org/web/20211221205543/https://www.nytimes.com/2020/12/30/technology/2020-good-tech-awards.html 2021年12月21日閲覧。 
  128. ^ Torras, Carme, (2020), “Science-Fiction: A Mirror for the Future of Humankind” in IDEES, Centre d'estudis de temes contemporanis (CETC), Barcelona. https://revistaidees.cat/en/science-fiction-favors-engaging-debate-on-artificial-intelligence-and-ethics/ Archived 2021-04-22 at the Wayback Machine. Retrieved on 2021-06-10
  129. ^ Gottfried Wilhelm Leibniz, (1714): Monadology, § 17 (“Mill Argument”). See also: Lodge, P. (2014): «Leibniz’s Mill Argument: Against Mechanical Materialism Revisited”, in ERGO, Volume 1, No. 03) https://quod.lib.umich.edu/e/ergo/12405314.0001.003/--leibniz-s-mill-argument-against-mechanical-materialism?rgn=main;view=fulltext Archived 2021-04-30 at the Wayback Machine. Retrieved on 2021-06-10
  130. ^ Cited in Bringsjord, Selmer and Naveen Sundar Govindarajulu, "Artificial Intelligence", The Stanford Encyclopedia of Philosophy (Summer 2020 Edition), Edward N. Zalta (ed.), URL = <https://plato.stanford.edu/archives/sum2020/entries/artificial-intelligence/ Archived 2022-03-08 at the Wayback Machine.>. Retrieved on 2021-06-10
  131. ^ Hodges, A. (2014), Alan Turing: The Enigma,Vintage, London,.p.334
  132. ^ Love, Death & Robots season 2, episode 1 recap - "Automated Customer Service"” (英語). Ready Steady Cut (2021年5月14日). 2021年12月21日時点のオリジナルよりアーカイブ2021年12月21日閲覧。
  133. ^ Cave, Stephen; Dihal, Kanta; Dillon, Sarah, eds (14 February 2020). AI narratives: a history of imaginative thinking about intelligent machines (First ed.). Oxford. ISBN 978-0-19-258604-9. OCLC 1143647559. オリジナルの18 March 2021時点におけるアーカイブ。. https://web.archive.org/web/20210318060703/https://www.worldcat.org/title/ai-narratives-a-history-of-imaginative-thinking-about-intelligent-machines/oclc/1143647559 11 November 2020閲覧。 
  134. ^ Jerreat-Poole, Adam (1 February 2020). “Sick, Slow, Cyborg: Crip Futurity in Mass Effect”. Game Studies 20. ISSN 1604-7982. オリジナルの9 December 2020時点におけるアーカイブ。. https://web.archive.org/web/20201209080256/http://gamestudies.org/2001/articles/jerreatpoole 11 November 2020閲覧。. 
  135. ^ "Detroit: Become Human" Will Challenge your Morals and your Humanity” (英語). Coffee or Die Magazine (2018年8月6日). 2021年12月9日時点のオリジナルよりアーカイブ2021年12月7日閲覧。
  136. ^ Cerqui, Daniela; Warwick, Kevin (2008), “Re-Designing Humankind: The Rise of Cyborgs, a Desirable Goal?” (英語), Philosophy and Design (Dordrecht: Springer Netherlands): pp. 185–195, doi:10.1007/978-1-4020-6591-0_14, ISBN 978-1-4020-6590-3, オリジナルの2021-03-18時点におけるアーカイブ。, https://web.archive.org/web/20210318060701/https://link.springer.com/chapter/10.1007%2F978-1-4020-6591-0_14 2020年11月11日閲覧。 
  137. ^ Cave, Stephen; Dihal, Kanta (6 August 2020). “The Whiteness of AI”. Philosophy & Technology 33 (4): 685–703. doi:10.1007/s13347-020-00415-6. 

外部リンク

[編集]