本ページで説明するボットとは、インターネット上を巡回してサイトのデータを収集し、
検索エンジンに反映する「クローラー(別称:スパイダー)」のことを指します。
ボットが収集したデータは、googleやBing(またはその他)の検索エンジンで検索結果をユーザーに提供するため、
SEO対策においてボットは大変重要な存在です。
しかしながら日本国外で利用される一部の検索エンジンによるボットや、
セキュリティ上悪意をもったボットの存在はPV数の増加を招くため、
状況によってはサイト全体へのクロールを制御する必要があります。
本システムでボットによるクロールを制御する方法は、以下の3通りです。
店舗様のご状況に応じて、必要な対策を講じてください。
1.すべての検索エンジンからのアクセスをブロックしたい
2.特定の検索エンジンからのアクセスをブロックしたい
3.特定のIPアドレスのみアクセスをブロックしたい
サイト全体ではなく、一部のぺージのみを検索結果に表示させたくない場合についてはこちらをご覧ください。
テキストエディタなどで、以下のように記述したrobots.txtのファイルを用意します。
■robots.txt 記述例
User-agent: *
Disallow: /
『robots.txt』とは、検索エンジンのクローラーを制御するためのテキストファイルです。
クローラーのアクセス頻度を指定したり、アクセスを拒否することができます。
(検索エンジンによっては、命令を無視してクロールされる場合もあります)
ショップ管理ツールにて『robots.txt』を『ROOT DIRECTORY』直下にアップロードしてください。
アップロードは「テンプレート管理」画面から行います。
「テンプレート管理」画面へのアクセス
アップロードした『robots.txt』の挙動が正しいかを確認したい場合は、
googleサーチコンソールの「robots.txtテスター」をご利用ください。
「アクセス除外UserAgent群」にブロックしたい不要な検索エンジン等のUserAgentを、改行区切りで登録してください。
※大文字小文字の区別はありません。
ブロックしたいアクセス元のIPアドレスを改行区切りで記入して登録してください。
当ページの記載内容は、標準機能に関するものです。
機能に関するカスタマイズをされている場合にはこの限りではありません。