コンテンツにスキップ

英文维基 | 中文维基 | 日文维基 | 草榴社区

利用者:Mizusumashi/robots.txt に関して

robots.txt

[編集]

はじめに

[編集]

robots.txt をどうするか、という議題を整理しました。この情報を集め、整理するのに多くの方にご協力いただきました。感謝いたします。

robots.txt とは?

[編集]

robots.txt というものを使えば、Google や goo などの検索サイトに、日本語版ウィキペディアの特定のページが引っかからないようにできます。日本語版ウィキペディアを含む全ウィキメディアプロジェクトの robots.txt は、次のURLにあるファイルです:

詳しい機能については、以下のページをご覧ください:

現在までの議論

[編集]

現在まで、日本語版ウィキペディアで投稿ブロックされたアカウントが Google や goo などで表示され、それが自分の実名やハンドルなどと同じであるということで不快な思いをされる方への配慮として、利用者名前空間のページや投稿ブロック依頼のページがそのようなサイトに表示されないようにする提案がされてしました。

しかし、現在にいたるまで、実現されていません。

これまでに検索を回避すべきとして議論されてきたページは大別して、次の三つです:

  • 利用者名前空間の全ページ
  • 利用者 - ノート名前空間の全ページ
  • Wikipedia名前空間のいくつかのページとそれらの全てのサブページ
  • 「WP:」ではじまる標準名前空間のいくつかのページとそれらの全てのサブページ

代替手段1

[編集]

つぎのような変数を日本語版ウィキペディアのMediaWikiにセットすれば、メタタグを利用した検索回避ができます:

robots.txt を利用する場合との違いは:

  • 使用する規約の違い - したがって、どちらかにしか反応しない検索ロボットがありえる。しかし、大手の検索ロボットは両方に反応すると思われるので、次の二点によって使い分ける障害にはあまりならないと思う。
  • 利用者名前空間が単位か、記事単位の二択 - あるページの全てのサブページ、という指定はできない。robots.txt ならば、あるページの全てのサブページはできる。
  • 影響の及ぶ範囲が日本語版ウィキペディアだけ(たぶん) - 他の日本語プロジェクトとの調整をする必要がない
  • 文字コード(たぶん) - 開発者に日本語の文字コード入りのPHPファイルを操作してもらえるのか?
関連議論

代替手段2

[編集]

問題点・疑問点

[編集]
  • robots.txt を利用する場合、他の日本語版プロジェクトとの調整が必要になる(これをする場合は、メタ・ウィキで良いだろう)。