コンテンツにスキップ

英文维基 | 中文维基 | 日文维基 | 草榴社区

生成的人工知能

出典: フリー百科事典『ウィキペディア(Wikipedia)』
生成型人工知能から転送)
A detailed oil painting of figures in a futuristic opera scene
スペース・オペラ・シアター(Théâtre d'Opéra Spatial)、Midjourneyによって作成された画像

生成的人工知能(せいせいてきじんこうちのう、: generative artificial intelligence)または生成AI(せいせいエーアイ、: GenAI)は、文字などの入力(プロンプト)に対してテキスト画像、または他のメディアを応答として生成する人工知能システムの一種である[5][6]ジェネレーティブAIジェネラティブAIともよばれる。

生成的人工知能モデルは、訓練データの規則性や構造を訓練において学習することで、訓練データに含まれない新しいデータを生成することができる[7][8]

著名な生成AIシステムとして、OpenAIGPT-3GPT-4大規模言語モデル[9]を使用して構築したチャットボットChatGPT(および別形のBing Chat)や、GoogleLaMDA基盤モデルに構築したチャットボットBardがある[10]。その他の生成AIモデルとして、Stable DiffusionDALL-Eなどの人工知能アートシステムがあげられる[11]

生成AIは、アート、執筆、ソフトウェア開発、ヘルスケア、金融、ゲーム、マーケティング、ファッションなど、幅広い業界で応用できる可能性があるとされている[12][13]。生成AIへの投資は2020年代初頭に急増し、Microsoft、Google、Baiduなどの大企業だけでなく、多数の中小企業も生成AIモデルを開発している[5][14][15]。しかし、生成AIを訓練する目的での著作物の野放図な利用や人をだましたり操作したりするフェイクニュースディープフェイクの作成など、生成AIの悪用の可能性も懸念されており[16][17][18]欧州連合における人工知能法など法規制の議論も進んでいる[19][20]。また、効果的加速主義などの技術思想との関係も指摘されている[21]

歴史

[編集]

機械学習の分野では、その誕生以来、データをモデル化し予測することを目的として、統計的モデルを使用してきた。2000年代後半、ディープラーニング(深層学習)の登場により、画像や動画処理、テキスト分析、音声認識などのタスクで進化と研究が進んできた。しかし、ほとんどのディープニューラルネットワークは識別的モデルとして、画像認識 (en:英語版のような分類タスクを実行していた。

2014年、変分オートエンコーダ敵対的生成ネットワークなどの進歩により、画像のような複雑なデータの生成的モデルを学習し、生成することができる実用的なディープニューラルネットワークが登場した。

2017年、Transformerネットワークはより大規模な生成的モデルの実現を可能にし、2018年に最初の生成的事前学習トランスフォーマー(GPT)が開発された[22]。2019年、GPT-2がこれに続き、基盤モデルとして教師なし学習を多くの異なるタスクに汎化する能力を実証した[23]

2024年、映像生成AIの実用化の成功は、イラスト生成AIの成功が人間の仕事の質を超えるのと同じようになると専門家は予想している[24]

これ以降の応用面における進化については次節のモダリティを参照のこと。

モダリティ

[編集]

生成AIシステムは、教師なしまたは自己教師あり機械学習を、データセットに適用することにより構築される。生成AIシステムの能力は、訓練に使用するデータセットのモダリティ種類英語版によって異なる。

生成AIは、ユニモーダルシステムとマルチモーダルシステム英語版に大分でき、ユニモーダルは1種類の入力(例:テキスト)しか受け入れないのに対し、マルチモーダルは複数種類の入力(例:テキストと画像)を受け入れることができる[25]。たとえば、OpenAIのGPT-4はテキストと画像の両方の入力を受け入れる[25]

課題

[編集]

より簡便にメディアの生成を行うことのできる生成的人工知能に対して政府や企業、個人[誰?]が懸念を表明している。その中で、抗議活動や訴訟、人工知能開発の一時停止の要求が行われている。また、各国政府は規制を検討するなどしている。

2023年5月に開催されたG7広島サミットでは広島AIプロセスが採択され、その中では安全、安心、信頼できるAIの実現に向けてAIライフサイクル全体の関係者それぞれが異なる責任を持つ目的でリスクの低減などの方針を定める「全てのAI関係者向けの広島プロセス国際指針」を整理した。[34]

アントニオ・グテーレス国連事務総長は2023年7月の国連安全保障理事会の会見において、AIは「世界の発展を加速」し、莫大な富を齎す可能性があると述べた。一方で、使い方によっては「想像を絶する規模での死と破壊、広範囲に及ぶトラウマ、深刻な心理的ダメージを引き起こす可能性がある」と述べた[35]

2024年6月に開催された主要国首脳会議(G7)で、ローマ教皇フランシスコは人工知能が人類の未来に与える影響を考察するスピーチを行った。知識へのアクセス、科学研究の進歩、重労働からの開放などのメリットに言及する一方で、先進国と発展途上国の間、または社会階層間に重大な不正義をもたらす可能性を語った。生成AIについては「厳密には『生成的』ではない」「ビッグデータの中から情報を探し、要求に応じて、魅力的なスタイルで仕立てるものであり、新しい概念や分析を発展させるものではない」「時にはフェイクニュースを正当化しかねないという意味で、それは『生成的』というより、むしろ『強制的』である」として「もしわれわれが、人々から自分自身と自分の人生について決定する力を取り上げ、機械の選択に依存させるならば、人類に希望のない未来を負わせることになる」と述べた[36]

失業

[編集]
2023年のSAG-AFTRAストライキ英語版において「生成AIの利用の制限」は要求の1つだった。[37]

AI開発の初期の頃より、どのような仕事がコンピュータによって実行可能であり、実行させるべきかであるかの議論がELIZAの開発者であるジョセフ・ワイゼンバウムらによって進められてきた[38]

生成的人工知能によるイラストレータや俳優、声優、アナウンサーなどの失業が懸念されている[39][40][41]。2023年4月の時点で画像生成AIにより中国のイラストレーターの仕事の70%が失われていると報告されている[42][43]。2023年7月には生成AIの開発が2023年のハリウッド労働争議英語版の一因となった。映画俳優組合の会長フラン・ドレッシャーは、2023年のSAG-AFTRAストライキ英語版中に「人工知能はクリエイティブな職業に存続の脅威をもたらす」と宣言した[44]。 音声生成AIは、声優業界への潜在的な脅威とみなされている[45][46]

フェイク情報の作成

[編集]
エリオット・ヒギンズ英語版がMidjourneyを用いて生成したドナルド・トランプが逮捕される様子を描いたディープフェイク画像(2023)

これまでも古典的な画像処理技術などでフェイク情報は作成されてきたが、生成的人工知能によって画像や映像、音声、文章などの生成がより高精度に且つ容易になるため、詐欺世論操作プロパガンダ名誉毀損等に悪用される可能性があるとされている。国内外において、政治家の顔を入れ替えたり、発言の捏造などの世論操作や、災害に関するデマゴーグ、ニュース番組になりすました広告やフェイクポルノ等の事例が起こっている。

悪用事例以外にも、ニュース記事の生成や日本赤十字社による関東大震災の体験記の生成[47]などの生成的人工知能の活用を目指した取り組みに関してもその情報の信頼性と信憑性、歴史的記録の捏造など様々な課題が指摘されている[48]

音声でも有名人や公人の物議を醸す発言をしている音声を生成する例などがある[49][50][51][52][53][54]

これに対して、ユーザーの身元確認を通じて潜在的な悪用の軽減に取り組むシステム整備を行うほかに[55]、技術的にディープフェイクへの対策のための研究が進められている[56]

報道分野

[編集]

韓国、中国、台湾、インド、クウェート、ギリシャのニュース放送局は、生成的人工知能をナレーションに活用しニュースを伝えており、ニュースの信頼性に関する懸念が呈されている[39][40][41]。AIによるナレーションはISILによっても利用されている[57]

2023年4月、ドイツのタブロイド紙Die Aktuelleは、スキー事故で脳挫傷を負って、2013年以来公の場に姿を見せていなかった元レーシングドライバーのミハエル・シューマッハとの偽のインタビューを生成的人工知能で作成して掲載した。この記事は表紙に「欺瞞的に本物」という一文を明記し、インタビューの最後に生成的人工知能によるものであることが明記されたものだったが、論争を巻き起こした後、編集長は解雇された[58]

2023年、Googleは報道機関に対し、「時事問題の詳細」などの入力データに基づいて「ニュース記事を作成する」とされるツールを売り込んだと報じられた。この売り込みを受け報道機関側は、このツールを「正確で手の込んだニュースを作成するための努力を軽視している」と評した[59]

サイバー犯罪

[編集]

生成的人工知能の出現以前からディープフェイクは既にフィッシング詐欺を含むさまざまな種類のサイバー犯罪に悪用されている[60]。生成的人工知能によるテキスト生成AIはECサイト上で高評価の偽レビューを量産するために大規模に行うことなど可能にした[61]。ほかにもWormGPTやFraudGPTなどサイバー犯罪を目的とした大規模言語モデルが作成された例もある[62]

グーグルでクリック詐欺の対策に従事していたシュマン・ゴーセマジュムダー英語版は、当初メディアを騒がせたディープフェイク動画はすぐに一般的となり、その結果より危険なものになるだろうと予測している[63]。2023年の研究では脱獄や逆心理学などを使った攻撃でChatGPTに掛けられた保護を回避して有害情報を抽出する脆弱性を確認した。同研究ではChatGPTのソーシャルエンジニアリングフィッシング詐欺への悪用の潜在的リスクを指摘しており、一方で、生成的人工知能を活用することでサイバーセキュリティを改善できる可能性を指摘している[64]

ハルシネーション (幻覚)、作話

[編集]

生成的人工知能によって生成されたコンテンツにはもっともらしく聞こえる嘘や偽情報がランダムに出現する。この現象はハルシネーション(hallucination、幻覚)と呼ばれ[65][66]、研究者はChatGPTに用いる大規模言語モデル(LLM)などでは最大27%の確率でハルシネーション (幻覚)を起こし[67]、46%に事実関係の誤りが存在すると推定している[68]

大規模言語モデルはもっともらしい文章を生成できるものの、処理対象の言語の意味を理解してはいないという意味では確率的オウムという言葉が用いられる[69][70]。この用語は2021年にティムニット・ゲブルマーガレット・ミッチェル (科学者)英語版らによって発表された論文「On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? 🦜 」(日本語: 確率的オウムの危険性について: 言語モデルは大きすぎるか?)において、広く知られるようになった[71][72]

2023年にはアメリカ合衆国ニューヨーク州の弁護士が審理中の民事訴訟の資料作成にChatGPTを利用した結果、存在しない判例の「引用」を6件行い、罰金を課せられるという事例も発生している[73][74]

ハルシネーションを軽減するための研究が行われているが[75]、ハルシネーションは避けられないものであり、大規模言語モデルの本質的な限界である可能性が指摘されている[76]。また、大規模言語モデルは問題を軽減するように設計されたものであっても、かえってハルシネーションを増幅させることがあることが指摘されている[77]

人種的、ジェンダーバイアスの強化

[編集]

生成的人工知能が訓練データに含まれる文化的偏見を反映し、増幅する可能性が懸念されている。例えば、医師、エンジニア、教師などが男性であり、秘書や料理人、看護師などが女性とする[78]、「CEOの写真」から白人男性の画像を不釣り合いに多く生成される場合などが挙げられている[79]。入力プロンプトの変更[80]や訓練データの再重み付けなど、バイアスを軽減する手法が研究されている[81]

ビッグテックへの依存

[編集]

最先端のAIモデルの訓練には膨大な計算能力が必要であり、十分な資金力を持っている大手テクノロジー企業に依存することが多い。GoogleMicrosoftのようなビッグテックが所有する計算資源への依存や寡占が懸念される[82]

エネルギーと環境問題

[編集]

生成的人工知能の地球環境面への悪影響が指摘されている。特に、データセンターの運営に際する冷却水への淡水の使用[83][84]、電力消費[85][86][87]、それに際する温室効果ガスの排出[88][85][89]などが懸念されている。例えば、ChatGPTによる検索には、Google検索の10倍の電力が必要と指摘されており[90]、生成的人工知能に依存するアプリケーションの普及、あるいはモデルの訓練の増加による地球環境への負担が懸念されている[86][84]

提案されている対策として、モデル開発やデータ収集の前に潜在的な環境コストを考慮すること[88]、データセンターのエネルギー効率を高めること[85][89][83][84][86][87]、より効率的な機械学習モデルを構築すること[85][83][84]、モデルの再訓練回数を最小限に抑えること[89]、これらのモデルの環境影響を監査するための政府主導の枠組みを開発すること[83][89]、これらのモデルの透明性を担保する法規制を講じること[89]、エネルギーと水の浪費を規制すること[83]、研究者にAIモデルの温室効果ガス排出量に関するデータを公開するよう奨励すること[89][86]、機械学習と環境科学の両方に通じる専門家の数を増やすことなどが提案されている[89]

低品質なコンテンツの増加

[編集]
撤回済みの論文に掲載されていた科学的には出鱈目であるイラスト。画像生成AIのMidjourneyで作成されていたことが判明している[91]

スロップ(英:slop)と呼ばれる用語は人工知能によって粗製濫造されるスパムに似たコンテンツに対して使用される。ニューヨークタイムズによれば、スロップとは「ソーシャルメディア、アート、書籍、検索結果に表示される粗悪な、または望ましくないAIコンテンツ」である[92]

生成AIによって新たに生じる問題として指摘されているのは、ソーシャルメディア上の低品質な生成AIコンテンツに対するモデレーション[93]、金銭を得る目的で低品質なコンテンツを投稿する悪質なユーザーの増加[93][94]、政治的な偽情報[94]、スパム的に投稿される科学論文[95]、インターネット上で高品質あるいは求めるコンテンツを見つけるための時間と労力の増加[96]、検索エンジン上の生成コンテンツの増加[97]などがあり、ジャーナリズムの存続自体への懸念も表明されている[98]

Amazon Web Services AI Labsの研究者らが発表した論文によると、ウェブページのスナップショットであるCommon Crawlの60億以上の文章のサンプルのうち、57%以上の文章が機械翻訳されていた。これらの自動翻訳の多くは、特に3つ以上の言語に翻訳された文章については、品質が低いとみなされた。リソースの少ない言語(例:ウォロフ語コサ語)の多くは、リソースの多い言語(例:英語フランス語)よりも多くの言語に翻訳されていた[99][100]

AI技術の発展により、複数の領域でAIに生成されたコンテンツ増加した。ユニヴァーシティ・カレッジ・ロンドンの調査では、2023年には6万件以上の学術論文(全出版物の1%以上)がLLMの支援を受けて執筆される可能性が高いと推定されている[101]スタンフォード大学の人間中心AI研究所によると、現在、新たに出版された情報科学分野の論文の約17.5%と査読文の16.9%に、LLMによって生成されたコンテンツが組み込まれているとしている[102]

視覚的なコンテンツも同様の傾向を示している。 ストック写真検索サービスEverypixelの統計によれば、2022年にDALL-Eが一般公開されて以来、毎日平均3400万枚の画像が作成されたと推定されている。2023年8月時点で、150億枚以上の画像がテキストプロンプトを使用して生成されており、そのうち80%はStable Diffusionに基づくモデルによって作成されていると推定されている[103]

生成AIモデルの訓練データにAI生成コンテンツが含まれる場合、そのモデルに欠陥が生じる可能性がある[104]。生成AIモデルを別の生成AIモデルの出力のみでトレーニングすると、品質の低いモデルが生成されるため、訓練を繰り返す毎に徐々に品質が低下し、最終的には「モデル崩壊」につながる[105]。これに関しては手書き文字のパターン認識と人間の顔写真を使ったテストが実施されている[106]

一方、生成AIによって合成されたデータは、現実のデータの代替としてよく使用される。このようなデータは、ユーザーのプライバシーを保護しながら、数学モデルの検証や機械学習モデルの訓練に利用できる[107]。構造化データの場合も同様である[108]。このアプローチはテキスト生成に限定されず、画像生成やコンピュータービジョンモデルの訓練に使用されている[109]

法規制

[編集]

アメリカではOpenAIAlphabetMetaを含む企業が2023年7月にホワイトハウスとの間でAI生成物に電子透かしを入れる自主協定を締結した[110]。 2023年10月、大統領令14110により国防生産法が適用され、すべての米国企業に対し、大規模AIモデルを訓練する際に連邦政府に報告することが義務付けられた[111]

欧州連合人工知能法には生成AIシステムの訓練に使用される著作権保護の対象となるデータを開示すること、およびAI生成物にラベル付けを義務付ける要件が含まれた[112][113]

中国では、政府のサイバースペース管理局が導入した生成AIサービス管理のための暫定措置により、生成AIが規制対象となっている。これには、生成された画像やビデオに透かしを入れるための要件、訓練データとラベルの品質に関する規制、個人データの収集に関する制限、生成AIが「社会主義の中核的価値観を遵守」しなければならないというガイドラインが含まれている[114][115]

著作権

[編集]

訓練データの著作権

[編集]
拡散モデルでは訓練データ類似度の高い出力をする場合がある。(左)Stable Diffusionの訓練データセットに含まれるアン・グラハム・ロッツの肖像(右)Stable Diffusionに「Ann Graham Lotz」のプロンプトを入力して得られた生成画像[116]。 拡散モデルでは訓練データ類似度の高い出力をする場合がある。(左)Stable Diffusionの訓練データセットに含まれるアン・グラハム・ロッツの肖像(右)Stable Diffusionに「Ann Graham Lotz」のプロンプトを入力して得られた生成画像[116]。
拡散モデルでは訓練データ類似度の高い出力をする場合がある。(左)Stable Diffusionの訓練データセットに含まれるアン・グラハム・ロッツの肖像(右)Stable Diffusionに「Ann Graham Lotz」のプロンプトを入力して得られた生成画像[116]

生成的人工知能を含む機械学習一般に関して、訓練する際に使用するデータセットに含まれる著作物に関して、著作権法の解釈が議論されている[117]

保護技術に処理された画像を追加学習することにより機械学習モデルの精度が低下する(シカゴ大学の開発したNightshade)[118][119]

著作物を機械学習の訓練目的で利用することについては国や地域によって著作物の利用についての法規制は異なっており、各国の法理において機械学習での著作物の利用が認められる範囲に関して広範な論争が為されている。欧州ではDSM指令によって学術目的以外ではオプトアウトにより著作物の利用が制限される[120][121]。アメリカでは著作物の利用がフェアユースによって広範に規定されている[121]。日本においては学習段階で行われる著作物の複製に関して著作権法30条の4で複製権の権利制限をしている[122]。また、ベルヌ条約におけるスリーステップテスト等の国際条約との関係も議論されている[123]

生成的人工知能に関する著作権議論

[編集]

ChatGPTMidjourneyなどの生成AIモデルは、著作権で保護された著作物を含む大規模な公開データセットをベースに訓練されている。AI開発者側は、フェアユース法理を根拠に訓練の合法性を主張しているが、著作権者側は権利侵害を主張している[117]。AI開発者側は、変容的な利用であり、著作物の複製を一般に公開するものではないと主張している[117]。しかし、著作権者側からはMidjourneyなどの画像生成AIは、著作権で保護された画像の一部とほぼ同じ出力が得られるとしており[124]、生成AIモデルは、元の訓練データと競合すると指摘している[125]

生成AIの訓練に使用される著名なデータセットの1つとして、LAION-5Bが挙げられる。これはインターネットからスクレイピングして収集した画像と説明文のペアからなる巨大なデータセットを公開したものであり、Stable DiffusionMidjourneyNovelAIなど有名なtext-to-imageモデル英語版の基盤データとして用いられている。このデータセットはAI開発者に重宝される一方で、著作権保護の対象となっている画像が含まれており、基本的に権利者の同意なく収集されていることや児童ポルノなどの違法なコンテンツが含まれていることなどから、広く問題視されている[126][127][128][129][130]

訓練に用いるデータセットに著作物が使われる事例に対して、出版社やクリエイターを中心として懸念が広がっており、米国ではニューヨークタイムズマイクロソフトOpenAIへの訴訟、ユニバーサル・ミュージックAnthropicへの訴訟など著作者や著作権管理団体によるAIの開発、提供事業者への訴訟が提起されている[131][132]

ワシントンポストは、ニュース記事を要約するLlama3を基盤とするチャットボットであるMetaAIが、直接の出典なしに記事から文章をコピーし、オンラインニュースメディアのトラフィックを減少させる可能性があると指摘した[133]

フランスの競争委員会(日本における公正取引委員会)は報道記事の使用料に関してメディアとの交渉を十分に行わなかったため21年に制裁金をGoogleに課したが、その際にGoogleが約束した報酬算出の情報開示などが不十分であったとして2億5000万ユーロ(約410億円)の制裁金を課した。またこの際に、同社のチャットボットAI「Gemini」の開発に際して「メディアや競争委員会に知らせず報道機関や出版社のコンテンツを利用していた」と批判した[134]

日本

[編集]

日本の著作権法30条4では、『思想又は感情の享受を目的としない場合』かつ『著作権者の利益を不当に害することとならない場合』には原則として著作権者の許諾なく著作物の利用を行うことが可能である[135]

日本政府の見解として文化庁は、生成AIの開発学習段階における情報解析は「享受」を目的としない行為としている。一方で、ファインチューニング等によって学習データ(データ群)に対して意図的に「作風などを越えた創作的表現の共通したもの」を生成することを目的とする場合は「享受」の目的が併存すると考えられるとしている。著作権者の利益を不当に害するかどうかは「著作権者の著作物の利用市場と衝突するか」・「将来における著作物の潜在的販路を阻害するか」という観点から「技術の進展」・「著作物の利用態様の変化」等の諸般の事情を総合的に考慮して検討することが必要であるとしている。有償提供されているデータベース著作物(著作権法12条の2創作性の認められる選択方法や体系化がなされているデータベース)を有償で利用することなく情報解析で利用する行為は明確に抵触しえるとしている[135]

また文化庁は、生成AIを用いたAI生成物の生成・利用の段階に関しては通常の著作物と同様に、既存著作物との依拠性、類似性によって著作権の侵害の有無を判断するとしている[135]

生成物の著作権

[編集]
アメリカ合衆国著作権局がAIによって生成された絵の部分に限定して著作権登録を拒絶した漫画『Zarya of the Dawn』[136]

AIによって生成された生成物を著作物として認めるかどうかについて、人間の介在の有無や人間の関与の度合いによってどのように線引きをするのか、そもそも著作物として認めるべきなのか議論がなされている。

アメリカ

[編集]

アメリカ合衆国著作権局は、人間の介入なしに人工知能によって作成された作品は、人間の著作者がいないため著作権を保護できないとの評定を下した[137]。米国著作権局は、この方針を改訂する必要があるかどうかを判断するために、意見の収集を進めている[138]

日本

[編集]

AI生成物が著作物か該当するかどうかは著作権法第2条「思想又は感情を創作的に表現したもの」かつ「自然人若しくは法人の作製したもの」に当たるかどうかで判断される。文化庁はこれに関して、AIが自律的に生成したものでなく、人が思想又は感情を創作的に表現するための「道具」としてAIを使用した場合には著作物に該当し、AI利用者が著作者となると考えられるとしており、これらの判断は個々のAI生成物について、個別具体的な事情に応じて判断されるとしている[88]

脚注

[編集]

関連項目

[編集]
  1. ^ 生成系AI(ChatGPT, BingAI, Bard, Midjourney, Stable Diffusion等)について”. utelecon. 2023年7月1日閲覧。
  2. ^ 生成AI(Generative AI)のビジネスへの影響|Deloitte AI Institute|Deloitte”. デロイト・メンバーファーム. 2023年7月1日閲覧。
  3. ^ Nature読者のChatGPT利用法 | Nature ダイジェスト | Nature Portfolio”. www.natureasia.com. 2023年7月1日閲覧。
  4. ^ 生成AIモデル:ビジネスにおけるリスクおよび潜在的なリターン - KPMGジャパン”. KPMG (2023年5月30日). 2023年7月1日閲覧。
  5. ^ a b Anthropic Said to Be Closing In on $300 Million in New A.I. Funding”. en:The New York Times (2023年1月27日). 2023年3月14日閲覧。
  6. ^ Lanxon, Nate; Bass, Dina; Davalos, Jackie (March 10, 2023). “A Cheat Sheet to AI Buzzwords and Their Meanings”. Bloomberg News. https://news.bloomberglaw.com/tech-and-telecom-law/a-cheat-sheet-to-ai-buzzwords-and-their-meanings-quicktake March 14, 2023閲覧。 
  7. ^ Pasick, Adam (2023年3月27日). “Artificial Intelligence Glossary: Neural Networks and Other Terms Explained” (英語). The New York Times. ISSN 0362-4331. https://www.nytimes.com/article/ai-artificial-intelligence-glossary.html 2023年4月22日閲覧。 
  8. ^ Generative models”. OpenAI (2016年6月16日). 2023年5月20日閲覧。
  9. ^ Metz, Cade. "OpenAI Unveils GPT-4, Months After ChatGPT Stunned Silicon Valley." The New York Times, March 14, 2023, https://www.nytimes.com/2023/03/14/technology/openai-gpt4-chatgpt.html
  10. ^ Thoppilan, Romal; De Freitas, Daniel; Hall, Jamie; Shazeer, Noam; Kulshreshtha, Apoorv; Cheng, Heng-Tze; Jin, Alicia; Bos, Taylor; Baker, Leslie; Du, Yu; Li, YaGuang; Lee, Hongrae; Zheng, Huaixiu Steven; Ghafouri, Amin; Menegali, Marcelo; Huang, Yanping; Krikun, Maxim; Lepikhin, Dmitry; Qin, James; Chen, Dehao; Xu, Yuanzhong; Chen, Zhifeng; Roberts, Adam; Bosma, Maarten; Zhao, Vincent; Zhou, Yanqi; Chang, Chung-Ching; Krivokon, Igor; Rusch, Will; Pickett, Marc; Srinivasan, Pranesh; Man, Laichee; Meier-Hellstern, Kathleen; Ringel Morris, Meredith; Doshi, Tulsee; Delos Santos, Renelito; Duke, Toju; Soraker, Johnny; Zevenbergen, Ben; Prabhakaran, Vinodkumar; Diaz, Mark; Hutchinson, Ben; Olson, Kristen; Molina, Alejandra; Hoffman-John, Erin; Lee, Josh; Aroyo, Lora; Rajakumar, Ravi; Butryna, Alena; Lamm, Matthew; Kuzmina, Viktoriya; Fenton, Joe; Cohen; Aaron; Bernstein, Rachel; Kurzweil, Ray; Aguera-Arcas, Blaise; Cui, Claire; Croak, Marian; Chi, Ed; Le, Quoc (20 January 2022). "LaMDA: Language Models for Dialog Applications". arXiv:2201.08239 [cs.CL]。
  11. ^ Roose, Kevin (2022年10月21日). “A Coming-Out Party for Generative A.I., Silicon Valley's New Craze”. The New York Times. 2023年3月14日閲覧。
  12. ^ Don't fear an AI-induced jobs apocalypse just yet”. The Economist (2023年3月6日). 2023年3月14日閲覧。
  13. ^ Generative AI: Unlocking the future of fashion”. 2023年3月14日閲覧。
  14. ^ The race of the AI labs heats up”. The Economist (2023年1月30日). 2023年3月14日閲覧。
  15. ^ Google Cloud brings generative AI to developers, businesses, and governments” (2023年3月14日). 2023年3月15日閲覧。
  16. ^ Justin Hendrix (May 16, 2023). “Transcript: Senate Judiciary Subcommittee Hearing on Oversight of AI”. techpolicy.press. May 19, 2023閲覧。
  17. ^ 「チャットGPT」にEUが要求:情報源を開示せよ”. The Wall Street Journal. 2023年4月28日閲覧。
  18. ^ "Artists are alarmed by AI — and they're fighting back". The Washington Post (英語). 2023年2月18日閲覧
  19. ^ ChatGPT and the EU AI Act”. mhc.ie. Mason Hayes & Curran. 29 November 2023閲覧。
  20. ^ Chee, Foo Yun; Mukherjee, Supantha (June 14, 2023). “EU lawmakers vote for tougher AI rules as draft moves to final stage” (英語). https://www.reuters.com/technology/eu-lawmakers-agree-changes-draft-artificial-intelligence-rules-2023-06-14/ July 26, 2023閲覧。 
  21. ^ Jones, Rachyl (2023年10月16日). “Marc Andreessen just dropped a 'Techno-Optimist Manifesto' that sees a world of 50 billion people settling other planets”. Fortune. 28 November 2023時点のオリジナルよりアーカイブ2023年11月26日閲覧。
  22. ^ finetune-transformer-lm”. GitHub. 2023年5月19日閲覧。
  23. ^ Radford, Alec; Wu, Jeffrey; Child, Rewon; Luan, David; Amodei, Dario; Sutskever, Ilya; others (2019). “Language models are unsupervised multitask learners”. OpenAI blog 1 (8): 9. 
  24. ^ Hopes for 2024 from Anastasis Germanidis, Sara Hooker, Percy Liang, Sasha Luccioni, Pelonomi Moiloa, Kevin Scott” (英語). Hopes for 2024 from Anastasis Germanidis, Sara Hooker, Percy Liang, Sasha Luccioni, Pelonomi Moiloa, Kevin Scott (2023年12月27日). 2023年12月28日閲覧。
  25. ^ a b https://www.marktechpost.com/2023/03/21/a-history-of-generative-ai-from-gan-to-gpt-4/
  26. ^ Bommasani, R; Hudson, DA; Adeli, E; Altman, R; Arora, S; von Arx, S; Bernstein, MS; Bohg, J; Bosselut, A; Brunskill, E; Brynjolfsson, E (16 August 2021). "On the opportunities and risks of foundation models". arXiv:2108.07258 [cs.LG]。
  27. ^ Chen, Ming; Tworek, Jakub; Jun, Hongyu; Yuan, Qinyuan; Pinto, Hanyu Philippe De Oliveira; Kaplan, Jerry; Edwards, Haley; Burda, Yannick; Joseph, Nicholas; Brockman, Greg; Ray, Alvin (6 July 2021). "Evaluating Large Language Models Trained on Code". arXiv:2107.03374 [cs.LG]。
  28. ^ Ramesh, Aditya; Pavlov, Mikhail; Goh, Gabriel; Gray, Scott; Voss, Chelsea; Radford, Alec; Chen, Mark; Sutskever, Ilya (2021). "Zero-shot text-to-image generation". International Conference on Machine Learning. PMLR. pp. 8821–8831.
  29. ^ Heaven, Will Douglas (2023年2月15日). “AI is dreaming up drugs that no one has ever seen. Now we've got to see if they work”. MIT Technology Review. Massachusetts Institute of Technology. 2023年3月15日閲覧。
  30. ^ Agostinelli, Andrea; Denk, Timo I.; Borsos, Zalán; Engel, Jesse; Verzetti, Mauro; Caillon, Antoine; Huang, Qingqing; Jansen, Aren; Roberts, Adam; Tagliasacchi, Marco; Sharifi, Matt; Zeghidour, Neil; Frank, Christian (26 January 2023). "MusicLM: Generating Music From Text". arXiv:2301.11325 [cs.SD]。
  31. ^ Metz, Cade (April 4, 2023). “Instant Videos Could Represent the Next Leap in A.I. Technology” (英語). The New York Times. 2023年4月30日閲覧。
  32. ^ Queenie Wong (Sep 29, 2022). “Facebook Parent Meta's AI Tool Can Create Artsy Videos From Text”. cnet.com. Apr 4, 2023閲覧。
  33. ^ Sherry Yang, Yilun Du (2023年4月12日). “UniPi: Learning universal policies via text-guided video generation”. Google Research, Brain Team. Google AI Blog. 2023年5月24日閲覧。
  34. ^ 広島AIプロセスについて”. 総務省. 2024年3月7日閲覧。
  35. ^ Secretary-General's remarks to the Security Council on Artificial Intelligence”. un.org (18 July 2023). 27 July 2023閲覧。
  36. ^ G7 : 教皇「AIが善を築くための道具ならば、常にすべての人の善のために」”. バチカンニュース (2024年6月14日). 2024年6月19日閲覧。
  37. ^ “The Writers Strike Is Taking a Stand on AI” (英語). Time. (4 May 2023). https://time.com/6277158/writers-strike-ai-wga-screenwriting/ 11 June 2023閲覧。. 
  38. ^ Tarnoff, Ben (4 August 2023). “Lessons from Eliza”. The Guardian Weekly: pp. 34–39 
  39. ^ a b TV channels are using AI-generated presenters to read the news. The question is, will we trust them?” (英語). BBC News (2024年1月26日). 2024年1月26日時点のオリジナルよりアーカイブ。2024年5月24日閲覧。
  40. ^ a b Tait, Amelia (2023年10月20日). “‘Here is the news. You can’t stop us’: AI anchor Zae-In grants us an interview” (英語). The Guardian. ISSN 0261-3077. オリジナルの2024年1月28日時点におけるアーカイブ。. https://web.archive.org/web/20240128155805/https://www.theguardian.com/tv-and-radio/2023/oct/20/here-is-the-news-you-cant-stop-us-ai-anchor-zae-in-grants-us-an-interview 2024年5月24日閲覧。 
  41. ^ a b Kuo, Lily (2018年11月9日). “World's first AI news anchor unveiled in China” (英語). The Guardian. ISSN 0261-3077. オリジナルの2024年2月20日時点におけるアーカイブ。. https://web.archive.org/web/20240220133227/https://www.theguardian.com/world/2018/nov/09/worlds-first-ai-news-anchor-unveiled-in-china 2024年5月24日閲覧。 
  42. ^ Zhou, Viola (2023年4月11日). “AI is already taking video game illustrators' jobs in China” (英語). Rest of World. 2023年8月17日閲覧。
  43. ^ Carter, Justin (2023年4月11日). “China's game art industry reportedly decimated by growing AI use” (英語). Game Developer. 2023年8月17日閲覧。
  44. ^ Collier, Kevin (July 14, 2023). “Actors vs. AI: Strike brings focus to emerging use of advanced tech”. NBC News. 2024年3月6日閲覧。
  45. ^ Wiggers, Kyle (2023年8月22日). “ElevenLabs' voice-generating tools launch out of beta” (英語). TechCrunch. 2023年9月25日閲覧。
  46. ^ Shrivastava, Rashi. “'Keep Your Paws Off My Voice': Voice Actors Worry Generative AI Will Steal Their Livelihoods” (英語). Forbes. 2023年11月28日閲覧。
  47. ^ 生成AIで関東大震災「新証言」を作成…「捏造」批判受け日赤の企画展中止 読売新聞 2023年9月3日
  48. ^ 生成AIに高校スポーツ記事を書かせた大手新聞社、誤りや品質の苦情続き一時取り下げ。所属記者も「掲載すべきでなかった」と発言”. 2023年9月27日時点のオリジナルよりアーカイブ。2024年1月8日閲覧。
  49. ^ People Are Still Terrible: AI Voice-Cloning Tool Misused for Deepfake Celeb Clips” (英語). PCMag Middle East (2023年1月31日). 2023年7月25日閲覧。
  50. ^ The generative A.I. software race has begun” (英語). Fortune. 2023年2月3日閲覧。
  51. ^ Milmo, Dan; Hern, Alex (2023年5月20日). “Elections in UK and US at risk from AI-driven disinformation, say experts” (英語). The Guardian. ISSN 0261-3077. https://www.theguardian.com/technology/2023/may/20/elections-in-uk-and-us-at-risk-from-ai-driven-disinformation-say-experts 2023年7月25日閲覧。 
  52. ^ Seeing is believing? Global scramble to tackle deepfakes” (英語). news.yahoo.com. 2023年2月3日閲覧。
  53. ^ Vincent, James (January 31, 2023). “4chan users embrace AI voice clone tool to generate celebrity hatespeech” (英語). The Verge. 2023年2月3日閲覧。
  54. ^ Thompson, Stuart A. (2023年3月12日). “Making Deepfakes Gets Cheaper and Easier Thanks to A.I.” (英語). The New York Times. ISSN 0362-4331. https://www.nytimes.com/2023/03/12/technology/deepfakes-cheapfakes-videos-ai.html 2023年7月25日閲覧。 
  55. ^ A new AI voice tool is already being abused to make deepfake celebrity audio clips” (英語). Engadget (January 31, 2023). 2023年2月3日閲覧。
  56. ^ 越前巧、馬場口登、笹原和俊「インフォデミック時代におけるフェイクメディア克服の最前線」『人工知能』人工知能学界 2023年3月号 pp.189 - 196
  57. ^ These ISIS news anchors are AI fakes. Their propaganda is real.”. Washington Post (2024年5月17日). 2024年5月19日時点のオリジナルよりアーカイブ。2024年5月24日閲覧。
  58. ^ “A magazine touted Michael Schumacher's first interview in years. It was actually AI”. NPR. (28 April 2023). オリジナルのJune 17, 2023時点におけるアーカイブ。. https://web.archive.org/web/20230617222319/https://www.npr.org/2023/04/28/1172473999/michael-schumacher-ai-interview-german-magazine 17 June 2023閲覧。 
  59. ^ Mullin, Benjamin; Grant, Nico (2023年7月20日). “Google Tests A.I. Tool That Is Able to Write News Articles” (英語). The New York Times. ISSN 0362-4331. オリジナルの2024年5月16日時点におけるアーカイブ。. https://web.archive.org/web/20240516135925/https://www.nytimes.com/2023/07/19/business/google-artificial-intelligence-news-articles.html 2024年5月24日閲覧。 
  60. ^ Sjouwerman, Stu (2022年12月26日). “Deepfakes: Get ready for phishing 2.0”. Fast Company. https://www.fastcompany.com/90829233/deepfakes-get-ready-for-phishing-2-0 2023年7月31日閲覧。 
  61. ^ Collinson, Patrick (2023年7月15日). “Fake reviews: can we trust what we read online as use of AI explodes?” (英語). The Guardian. ISSN 0261-3077. https://www.theguardian.com/money/2023/jul/15/fake-reviews-ai-artificial-intelligence-hotels-restaurants-products 2023年12月6日閲覧。 
  62. ^ After WormGPT, FraudGPT Emerges to Help Scammers Steal Your Data” (英語). PCMAG. 2023年7月31日閲覧。
  63. ^ Sonnemaker, Tyler. “As social media platforms brace for the incoming wave of deepfakes, Google's former 'fraud czar' predicts the biggest danger is that deepfakes will eventually become boring” (英語). Business Insider. 2023年7月31日閲覧。
  64. ^ Gupta, Maanak; Akiri, Charankumar; Aryal, Kshitiz; Parker, Eli; Praharaj, Lopamudra (2023). “From ChatGPT to ThreatGPT: Impact of Generative AI in Cybersecurity and Privacy”. IEEE Access 11: 80218–80245. arXiv:2307.00691. Bibcode2023IEEEA..1180218G. doi:10.1109/ACCESS.2023.3300381. 
  65. ^ Definition of HALLUCINATION” (英語). www.merriam-webster.com (2023年10月21日). 2023年10月29日閲覧。
  66. ^ Joshua Maynez; Shashi Narayan; Bernd Bohnet; Ryan McDonald (2020). "On Faithfulness and Factuality in Abstractive Summarization". Proceedings of The 58th Annual Meeting of the Association for Computational Linguistics (ACL) (2020). arXiv:2005.00661. 2023年9月26日閲覧
  67. ^ Metz, Cade (6 November 2023). “Chatbots May 'Hallucinate' More Often Than Many Realize”. The New York Times. https://www.nytimes.com/2023/11/06/technology/chatbots-hallucination-rates.html 
  68. ^ de Wynter, Adrian; Wang, Xun; Sokolov, Alex; Gu, Qilong; Chen, Si-Qing (2023-07-13). “An evaluation on large language model outputs: Discourse and memorization”. Natural Language Processing Journal 4. arXiv:2304.08637. doi:10.1016/j.nlp.2023.100024. ISSN 2949-7191. 
  69. ^ Uddin, Muhammad Saad (2023年4月20日). “Stochastic Parrots: A Novel Look at Large Language Models and Their Limitations” (英語). https://towardsai.net/p/machine-learning/stochastic-parrots-a-novel-look-at-large-language-models-and-their-limitations 2023年5月12日閲覧。 
  70. ^ Weil, Elizabeth (2023年3月1日). “You Are Not a Parrot”. ニューヨーク. https://nymag.com/intelligencer/article/ai-artificial-intelligence-chatbots-emily-m-bender.html 2023年5月12日閲覧。. 
  71. ^ Bender, Emily M.; Gebru, Timnit; McMillan-Major, Angelina; Shmitchell, Shmargaret (2021-03-01). “On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? 🦜”. Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency. FAccT '21. New York, NY, USA: Association for Computing Machinery. pp. 610–623. doi:10.1145/3442188.3445922. ISBN 978-1-4503-8309-7 
  72. ^ Hao, Karen (2020年12月4日). “We read the paper that forced Timnit Gebru out of Google. Here’s what it says.” (英語). MIT Technology Review. 2021年10月6日時点のオリジナルよりアーカイブ2022年1月19日閲覧。
  73. ^ ChatGPTで資料作成、実在しない判例引用 米国の弁護士”. 日本経済新聞 (2023年5月31日). 2023年8月15日閲覧。
  74. ^ “ChatGPT: US lawyer admits using AI for case research” (英語). BBC News. (2023年5月27日). https://www.bbc.com/news/world-us-canada-65735769 2023年8月15日閲覧。 
  75. ^ Nie, Feng; Yao, Jin-Ge; Wang, Jinpeng; Pan, Rong; Lin, Chin-Yew (July 2019). “A Simple Recipe towards Reducing Hallucination in Neural Surface Realisation”. Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics (Association for Computational Linguistics): 2673–2679. doi:10.18653/v1/P19-1256. https://aclanthology.org/P19-1256.pdf 15 January 2023閲覧。. 
  76. ^ Ji, Ziwei; Jain, Sanjay; Kankanhalli, Mohan (2024). "Hallucination is Inevitable: An Innate Limitation of Large Language Models". arXiv:2401.11817 [cs.CL]。
  77. ^ Dziri, Nouha; Milton, Sivan; Yu, Mo; Zaiane, Osmar; Reddy, Siva (July 2022). “On the Origin of Hallucinations in Conversational Models: Is it the Datasets or the Models?”. Proceedings of the 2022 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies. Association for Computational Linguistics. pp. 5271–5285. doi:10.18653/v1/2022.naacl-main.387. https://aclanthology.org/2022.naacl-main.387.pdf 15 January 2023閲覧。 
  78. ^ Rachel Gordon (March 3, 2023). “Large language models are biased. Can logic help save them?”. MIT CSAIL. 2024年1月26日閲覧。
  79. ^ OpenAI (2022年7月18日). “Reducing bias and improving safety in DALL·E 2”. OpenAI. 2024年1月26日閲覧。
  80. ^ Jake Traylor (July 27, 2022). “No quick fix: How OpenAI's DALL·E 2 illustrated the challenges of bias in AI”. NBC News. 2024年1月26日閲覧。
  81. ^ DALL·E 2 pre-training mitigations”. OpenAI (2022年6月28日). 2024年1月26日閲覧。
  82. ^ Metz, Cade (July 10, 2023). “In the Age of A.I., Tech's Little Guys Need Big Friends”. New York Times. https://www.nytimes.com/2023/07/05/business/artificial-intelligence-power-data-centers.html 
  83. ^ a b c d e Crawford, Kate (2024-02-20). “Generative AI's environmental costs are soaring — and mostly secret” (英語). Nature 626 (8000): 693. doi:10.1038/d41586-024-00478-x. PMID 38378831. オリジナルの2024-08-22時点におけるアーカイブ。. https://web.archive.org/web/20240822050528/https://www.nature.com/articles/d41586-024-00478-x. 
  84. ^ a b c d Rogers, Reece. “AI's Energy Demands Are Out of Control. Welcome to the Internet's Hyper-Consumption Era” (英語). Wired. ISSN 1059-1028. オリジナルの2024-08-14時点におけるアーカイブ。. https://web.archive.org/web/20240814171438/https://www.wired.com/story/ai-energy-demands-water-impact-internet-hyper-consumption-era/ 2024年8月27日閲覧。. 
  85. ^ a b c d AI is an energy hog. This is what it means for climate change.” (英語). MIT Technology Review (2024年5月23日). 2024年8月20日時点のオリジナルよりアーカイブ。2024年8月27日閲覧。
  86. ^ a b c d Saenko, Kate (2023年5月23日). “Is generative AI bad for the environment? A computer scientist explains the carbon footprint of ChatGPT and its cousins” (英語). The Conversation. 2024年7月1日時点のオリジナルよりアーカイブ。2024年8月27日閲覧。
  87. ^ a b Lohr, Steve (2024年8月26日). “Will A.I. Ruin the Planet or Save the Planet?” (英語). The New York Times. ISSN 0362-4331. オリジナルの2024年8月26日時点におけるアーカイブ。. https://web.archive.org/web/20240826113905/https://www.nytimes.com/2024/08/26/climate/ai-planet-climate-change.html 2024年8月27日閲覧。 
  88. ^ a b c Bender, Emily M.; Gebru, Timnit; McMillan-Major, Angelina; Shmitchell, Shmargaret (2021-03-01). “On the Dangers of Stochastic Parrots: Can Language Models be Too Big? 🦜”. Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency. FAccT '21. New York, NY, USA: Association for Computing Machinery. pp. 610–623. doi:10.1145/3442188.3445922. ISBN 978-1-4503-8309-7. https://dl.acm.org/doi/10.1145/3442188.3445922 
  89. ^ a b c d e f g Dhar, Payal (2020-08-01). “The carbon impact of artificial intelligence” (英語). Nature Machine Intelligence 2 (8): 423–425. doi:10.1038/s42256-020-0219-9. ISSN 2522-5839. オリジナルの2024-08-14時点におけるアーカイブ。. https://web.archive.org/web/20240814145516/https://www.nature.com/articles/s42256-020-0219-9. 
  90. ^ Halper, Evan; O'Donovan, Caroline (21 June 2024). “AI is exhausting the power grid. Tech firms are seeking a miracle solution.” (英語). Washington Post. https://www.washingtonpost.com/business/2024/06/21/artificial-intelligence-nuclear-fusion-climate/?utm_campaign=wp_post_most&utm_medium=email&utm_source=newsletter&wpisrc=nl_most&carta-url=https%3A%2F%2Fs2.washingtonpost.com%2Fcar-ln-tr%2F3e0d678%2F6675a2d2c2c05472dd9ec0f4%2F596c09009bbc0f20865036e7%2F12%2F52%2F6675a2d2c2c05472dd9ec0f4 
  91. ^ Pearson, Jordan (February 15, 2024). “Scientific Journal Publishes AI-Generated Rat with Gigantic Penis In Worrying Incident”. Vice Media. 15 February 2024時点のオリジナルよりアーカイブFebruary 15, 2024閲覧。
  92. ^ Hoffman, Benjamin (2024年6月11日). “First Came 'Spam.' Now, With A.I., We've Got 'Slop'” (英語). The New York Times. ISSN 0362-4331. オリジナルの2024年8月26日時点におけるアーカイブ。. https://web.archive.org/web/20240826111040/https://www.nytimes.com/2024/06/11/style/ai-search-slop.html 2024年8月27日閲覧。 
  93. ^ a b Investigation Finds Actual Source of All That AI Slop on Facebook”. Futurism (2024年8月10日). 2024年8月15日時点のオリジナルよりアーカイブ。2024年8月27日閲覧。
  94. ^ a b Warzel, Charlie (2024年8月21日). “The MAGA Aesthetic Is AI Slop” (英語). The Atlantic. 2024年8月25日時点のオリジナルよりアーカイブ。2024年8月27日閲覧。
  95. ^ Edwards, Benj (2024年8月14日). “Research AI model unexpectedly attempts to modify its own code to extend runtime” (英語). Ars Technica. 2024年8月24日時点のオリジナルよりアーカイブ。2024年8月27日閲覧。
  96. ^ Hern, Alex; Milmo, Dan (2024年5月19日). “Spam, junk … slop? The latest wave of AI behind the 'zombie internet'” (英語). The Guardian. ISSN 0261-3077. オリジナルの2024年8月26日時点におけるアーカイブ。. https://web.archive.org/web/20240826142358/https://www.theguardian.com/technology/article/2024/may/19/spam-junk-slop-the-latest-wave-of-ai-behind-the-zombie-internet 2024年8月27日閲覧。 
  97. ^ Cox, Joseph (2024年1月18日). “Google News Is Boosting Garbage AI-Generated Articles” (英語). 404 Media. 2024年6月13日時点のオリジナルよりアーカイブ。2024年8月27日閲覧。
  98. ^ Beloved Local Newspapers Fired Staffers, Then Started Running AI Slop”. Futurism (2024年7月31日). 2024年8月12日時点のオリジナルよりアーカイブ。2024年8月27日閲覧。
  99. ^ Thompson, Brian; Dhaliwal, Mehak; Frisch, Peter; Domhan, Tobias; Federico, Marcello (August 2024). Ku, Lun-Wei; Martins, Andre; Srikumar, Vivek. eds. “A Shocking Amount of the Web is Machine Translated: Insights from Multi-Way Parallelism”. Findings of the Association for Computational Linguistics ACL 2024 (Bangkok, Thailand and virtual meeting: Association for Computational Linguistics): 1763–1775. https://aclanthology.org/2024.findings-acl.103/. 
  100. ^ Roscoe, Jules (2024年1月17日). “A 'Shocking' Amount of the Web Is Already AI-Translated Trash, Scientists Determine” (英語). VICE. 2024年7月1日時点のオリジナルよりアーカイブ。2024年8月27日閲覧。
  101. ^ Gray, Andrew (24 March 2024). "ChatGPT "contamination": estimating the prevalence of LLMs in the scholarly literature". arXiv:2403.16887 [cs.DL]。
  102. ^ How Much Research Is Being Written by Large Language Models?” (英語). Human-Centered Artificial Intelligence. Stanford University (13 May 2024). 16 August 2024閲覧。
  103. ^ Valyaeva, Alina (15 August 2023). “AI Image Statistics for 2024: How Much Content Was Created by AI”. Everypixel Journal. 16 August 2024閲覧。
  104. ^ Shumailov, Ilia; Shumaylov, Zakhar; Zhao, Yiren; Papernot, Nicolas; Anderson, Ross; Gal, Yarin (July 2024). “AI models collapse when trained on recursively generated data” (英語). Nature 631 (8022): 755–759. doi:10.1038/s41586-024-07566-y. PMC 11269175. PMID 39048682. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC11269175/. 
  105. ^ Bhatia, Aatish (2024年8月26日). “When A.I.'s Output Is a Threat to A.I. Itself” (英語). The New York Times. ISSN 0362-4331. https://www.nytimes.com/interactive/2024/08/26/upshot/ai-synthetic-data.html?te=1&nl=the-morning&emc=edit_nn_20240826 2024年8月27日閲覧。 
  106. ^ “Self-Consuming Generative Models Go Mad”. ICLR. (2024). https://openreview.net/pdf?id=ShjMHfmPs0. 
  107. ^ Owen, Sean (2023年4月12日). “Synthetic Data for Better Machine Learning”. databricks.com. January 3, 2024時点のオリジナルよりアーカイブ2024年1月4日閲覧。
  108. ^ Sharma, Himanshu (2023年7月11日). “Synthetic Data Platforms: Unlocking the Power of Generative AI for Structured Data”. kdnuggets.com. January 3, 2024時点のオリジナルよりアーカイブ2024年1月4日閲覧。
  109. ^ Stöckl, Andreas (2 November 2022). "Evaluating a Synthetic Image Dataset Generated with Stable Diffusion". arXiv:2211.01777 [cs.CV]。
  110. ^ Bartz, Diane; Hu, Krystal (July 21, 2023). “OpenAI, Google, others pledge to watermark AI content for safety, White House says”. Reuters. https://www.reuters.com/technology/openai-google-others-pledge-watermark-ai-content-safety-white-house-2023-07-21/ 
  111. ^ FACT SHEET: President Biden Issues Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence”. The White House (2023年10月30日). 2024年1月30日閲覧。
  112. ^ ChatGPT and the EU AI Act”. mhc.ie. Mason Hayes & Curran. 29 November 2023閲覧。
  113. ^ Chee, Foo Yun; Mukherjee, Supantha (June 14, 2023). “EU lawmakers vote for tougher AI rules as draft moves to final stage” (英語). https://www.reuters.com/technology/eu-lawmakers-agree-changes-draft-artificial-intelligence-rules-2023-06-14/ July 26, 2023閲覧。 
  114. ^ Ye, Josh (2023年7月13日). “China says generative AI rules to apply only to products for the public”. Reuters. 2023年7月13日閲覧。
  115. ^ 生成式人工智能服务管理暂行办法” (2023年7月13日). Template:Cite webの呼び出しエラー:引数 accessdate は必須です。
  116. ^ Carlini, Nicholas and Hayes, Jamie and Nasr, Milad and Jagielski, Matthew and Sehwag, Vikash and Tram\`{e}r, Florian and Balle, Borja and Ippolito, Daphne and Wallace, Eric (2023). “Extracting training data from diffusion models”. SEC '23: Proceedings of the 32nd USENIX Conference on Security Symposium: 5253–5270. https://dl.acm.org/doi/10.5555/3620237.3620531. 
  117. ^ a b c Generative Artificial Intelligence and Copyright Law”. Congressional Research Service (2023年9月29日). March 22, 2024時点のオリジナルよりアーカイブ2024年1月30日閲覧。 引用エラー: 無効な <ref> タグ; name "crscopyright"が異なる内容で複数回定義されています
  118. ^ The University of Chicago, Department of Computer Science (2024). Nightshade: Data Poisoning to Fight Generative AI with Ben Zhao; Department of Computer Science (Report) (英語).
  119. ^ SAND LAB, UNIVERSITY OF CHICAGO (2024). What Is Nightshade? (Report) (英語).
  120. ^ "Directive (EU) 2019/790 of the European Parliament and of the Council of 17 April 2019 on copyright and related rights in the Digital Single Market and amending Directives 96/9/EC and 2001/29/EC (Text with EEA relevance.)". Act of 17 April 2019. The European Parliament & Council of the European Union. 条文の邦訳は公益社団法人著作権情報センターHPを参照。https://www.cric.or.jp/db/world/EU/EU_02a.html
  121. ^ a b 生成AIに関する各国の対応について”. 文化庁. 2024年1月10日閲覧。
  122. ^ 著作権法 | e-Gov法令検索”. elaws.e-gov.go.jp. 2024年1月14日閲覧。
  123. ^ https://www.bunka.go.jp/seisaku/bunkashingikai/chosakuken/hoseido/r05_07/pdf/94011401_10.pdf
  124. ^ Thompson, Stuart (January 25, 2024). “We Asked A.I. to Create the Joker. It Generated a Copyrighted Image.”. The New York Times. January 25, 2024時点のオリジナルよりアーカイブJanuary 26, 2024閲覧。
  125. ^ Hadero, Haleluya; Bauder, David (December 27, 2023). “The New York Times sues OpenAI and Microsoft for using its stories to train chatbots”. Associated Press News (AP News). オリジナルのDecember 27, 2023時点におけるアーカイブ。. https://web.archive.org/web/20231227150436/https://apnews.com/article/nyt-new-york-times-openai-microsoft-6ea53a8ad3efa06ee4643b697df0ba57 April 13, 2023閲覧。 
  126. ^ A Photographer Tried to Get His Photos Removed from an AI Dataset. He Got an Invoice Instead.” (英語). Vice (2023年4月28日). 2023年5月4日閲覧。
  127. ^ 事件・事故の犠牲者の顔写真、生成AIが無断使用…遺族「使うのやめて」・識者「尊厳にかかわる」”. 読売新聞オンライン. 読売新聞 (2024年4月7日). 2024年5月12日閲覧。
  128. ^ Largest Dataset Powering AI Images Removed After Discovery of Child Sexual Abuse Material” (英語). 404 Media (2023年12月20日). 2023年12月22日閲覧。
  129. ^ Class Action Filed Against Stability AI, Midjourney, and DeviantArt for DMCA Violations, Right of Publicity Violations, Unlawful Competition, Breach of TOS”. PR Newswire. Cision (2023年1月14日). 2024年5月12日閲覧。
  130. ^ Edwards, Benj (2022年9月15日). “Have AI image generators assimilated your art? New tool lets you check”. Ars Technica. https://arstechnica.com/information-technology/2022/09/have-ai-image-generators-assimilated-your-art-new-tool-lets-you-check/ 
  131. ^ NYT v. Microsoft, OpenAI (1:23-cv-11195, 12/27/23)
  132. ^ https://wired.jp/article/tiktok-universal-music-group-umg-remove-songs/
  133. ^ Kelly, Heather (2024年5月22日). “Meta walked away from news. Now the company’s using it for AI content.” (英語). Washington Post. ISSN 0190-8286. オリジナルの2024年5月22日時点におけるアーカイブ。. https://archive.today/20240522100421/https://www.washingtonpost.com/technology/2024/05/22/meta-ai-news-summaries/ 2024年5月24日閲覧。 
  134. ^ https://www.nikkei.com/article/DGXZQOGR204920Q4A320C2000000
  135. ^ a b c 文化審議会著作権分科会法制度小委員会「AIと著作権に関する考え方について」【概要】”. 文化庁著作権課. 2024年5月閲覧。
  136. ^ United States Copyright Office (2023). 2023.02.21 Zarya of the Dawn Letter (PDF) (Report) (英語).
  137. ^ Brittain, Blake (August 21, 2023). “AI-generated art cannot receive copyrights, US court says”. Reuters. January 20, 2024時点のオリジナルよりアーカイブJanuary 19, 2024閲覧。
  138. ^ David, Emilla (August 29, 2023). “US Copyright Office wants to hear what people think about AI and copyright”. The Verge. January 19, 2024時点のオリジナルよりアーカイブJanuary 19, 2024閲覧。