インデックス登録の許可設定

robots.txtとnoindexの確認方法 SEO対策

SEOの世界で言われる「インデックス登録」とは、一言で言うと**「Googleという巨大な図書館の本棚に、あなたのサイトが並ぶこと」**を指します。

サイトを作っただけでは、世界中の誰にも見つけてもらえません。Googleのデータベースに登録されて初めて、誰かが検索したときに結果として表示される資格を得られます。

プロの視点で、その仕組みと「具体的にどういう状態か」を詳しく解説します。

確認作業に入る前に、この2つの違いを明確にしておくことが最も重要です。混同すると、問題の原因を見誤ります。

  1. robots.txt (クロール制御)
    • 役割: 「Googlebotさん、この部屋(ページ)には入ってはいけません」という指示。
    • 結果: ブロックされると、Googleは中身を見ることができません。
    • 注意点: 中身を見れないため、ページ内に noindex タグが書いてあっても、Googleはそれに気づけません。その結果、「中身は不明だが、リンクが存在する」という状態で、検索結果に不完全な形で表示され続けるリスクがあります。
  2. noindex タグ (インデックス制御)
    • 役割: 「Googlebotさん、部屋に入って中を見てもいいですが、検索結果(電話帳)には載せないでください」という指示。
    • 結果: Googleは中身を理解した上で、検索結果から意図的に除外します。
    • 条件: この指示をGoogleに読ませるためには、robots.txtでクロールを許可している必要があります。

まずは手元のブラウザで対象のページを開き、HTML内に記述があるかを確認します。

方法A:デベロッパーツール(検証モード)を使う【推奨】 ソースコードを表示(右クリック→「ページのソースを表示」)するだけでは、JavaScriptで動的に挿入されたタグを見落とす可能性があります。プロはデベロッパーツールを使います。

  1. Chromeなどで対象ページを開き、F12キーを押してデベロッパーツールを開きます。
  2. 「Elements」(要素)タブを選択します。
    Elementsタグの場所
  3. Ctrl + F (Macは Cmd + F) で検索窓を開き、noindex と入力します。
  4. <head> タグ内に以下の記述が見つかれば、インデックス拒否が設定されています。
<meta name="robots" content="noindex">

<meta name="googlebot" content="noindex">

方法B:SEO拡張機能を使う【最速】 プロは作業効率化のため、ブラウザ拡張機能(例:SEO Pro Extension, Detailed SEO Extension, Ahrefs SEO Toolbarなど)を常用します。これらを使えば、ワンクリックでそのページの「Robots Tag」情報が表示されるため、一瞬で判断できます。


ブラウザ上の表示がどうであれ、**「Googleが現在そのページをどう認識しているか」**の正解はGoogle Search Console(GSC)にしかありません。これが最も確実な方法です。

手順:URL検査ツールを使用する

  1. GSC(Google Search Console)を開き、画面上部の検索窓に対象ページのURLを入力してEnterキーを押します。
  2. 結果画面が表示されたら、右上の**「公開URLをテスト」**をクリックします。(※ここが重要!現在の最新状態を確認するためです)
  3. テスト結果の「ページの可用性」セクションを確認します。

▼ プロがチェックするポイント ▼

  • 【クロールの許可】robots.txt の確認
    • 「クロール」の項目を見ます。
    • 許可されています となっていればOK。
    • いいえ: robots.txt によってブロックされました となっている場合、Googleはページの中に入れません。この状態では noindex の有無を正確に判定できません。 まずはrobots.txtを修正する必要があります。
  • 【インデックスの許可】noindexタグ の確認
    • クロールが許可されている前提で、「インデックス登録」の項目を見ます。
    • 許可されています となっていれば、noindexタグは入っていません
    • いいえ: 'noindex' が検出されました となっていれば、noindexタグが有効に機能しています

サイトのページ数が多い場合、1ページずつGSCで検査するのは非現実的です。プロはクローリングツール(Screaming Frog SEO Spiderなど)を使ってサイト全体をスキャンします。

手順(Screaming Frogの例):

  1. ツールに対象サイトのURLを入力し、クロールを開始します。
  2. クロール完了後、「Directives(指示)」タブを開きます。
  3. フィルターで「Noindex」を選択します。
  4. Meta Robots 1 または X-Robots-Tag 1 の列に noindex と表示されているページの一覧が抽出されます。

プロの視点: これで、「意図せずnoindexになっている重要なページはないか?」「逆に、noindexにすべきページ(低品質なページ、重複ページなど)に設定が漏れていないか?」を俯瞰して分析します。


noindex は、HTMLの <head> 内だけでなく、サーバーからのレスポンスヘッダー(HTTPヘッダー)で指定することも可能です。これを X-Robots-Tag と呼びます。

HTMLソースを見ても meta name="robots" がないのに、GSCで「noindexが検出されました」と出る場合は、これが原因です。PDFファイルなどをインデックス拒否する場合によく使われます。

確認方法:

  1. Chromeのデベロッパーツールを開き(F12)、「Network」(ネットワーク)タブを選択します。
  2. ページをリロードします。
  3. 一番上のリクエスト(通常はページ自体のHTML)をクリックします。
  4. 右側に表示される「Headers」タブの中の「Response Headers」を確認します。
  5. ここに以下の記述があれば、noindexが効いています。

HTTP

X-Robots-Tag: noindex

  1. 【日常的な確認】 ブラウザ拡張機能でサッと見る。
  2. 【確実な診断】 Google Search Consoleの「公開URLテスト」で、robots.txtのブロック状況と併せて確認する。(これが最も重要)
  3. 【サイト全体の監査】 Screaming Frog等のツールで、意図しない設定漏れを一括チェックする。
  4. 【原因不明時】 HTTPヘッダーの X-Robots-Tag も疑う。