利用者:Chasa 366/AICleanup
これはあくまでも、今後必要になる可能性があるという意見です。 |
提案背景
[編集]英語版Wikipediaには、WikiProject AI Cleanupというプロジェクトが存在しています。このプロジェクトは、AIによって生じる誤情報や不正確な記事の削除・修正を通して、Wikipediaの情報品質を向上させることを目的としています。
現在、英語版Wikipediaには一部AIによって生成された記事が存在しますが、これらには質的なばらつきが見受けられます。例えば、Amberlihisarの記事は全体が虚偽で、実際には存在しない神殿について記述されていました。また、チェスター精神保健センターに関する記事では、途中から主観的な表現が用いられた上に、施設の話題から一般的な精神保健センターに関する記述に脱線する内容が含まれていました。
課題: AI特有の「ハルシネーション」とその影響
[編集]AI生成コンテンツにおいて頻出する辻褄の合った虚偽情報は「ハルシネーション」と呼ばれます。これは人間の意図的な虚偽よりも巧妙で、あたかも信頼性が高いかのように見え、誤りであることが発覚しにくい傾向があります。このため、Wikipedia上のAI生成記事が他の情報源に参照され、それらの二次情報も誤った内容を含むといった情報連鎖が発生するリスクが高まります。これは過剰な危惧かもしれませんが最悪の場合、インターネット全体に虚偽情報が汚染され、正確な情報が歪められる事態にもなりかねません。
日本語版Wikipediaへの影響とリスク
[編集]この問題は現在英語版Wikipediaで顕在化していますが、日本語版Wikipediaにおいても同様のリスクが存在すると考えられます。実際、簡易調査の事例では、英語版Wikipediaの記事を基にした日本語版AI生成の文章が確認されています。また、英語を基盤にしたAIと日本語を基盤にしたAIには、生成される文書の特徴に異なる傾向が見られる可能性が指摘されています。現時点での問題が顕在化していなくても、将来的には影響が拡大し、深刻な問題に発展するおそれもあります。
日本語版WikipediaにおけるAI Cleanupプロジェクトの立ち上げ
[編集]AIによる記事生成には一定の利点がある一方で、情報の正確性と品質の維持が課題です。虚偽情報や不正確な記事に対応するための仕組みが求められています。そのため、日本語版Wikipediaでも、信頼性の高い情報を守るための「AI Cleanup」プロジェクトの立ち上げを検討することは、意義深い一歩と言えるのではないでしょうか。