この記事を読むのにかかる時間: 約 10 分
「海外SEO情報ブログ」の鈴木 謙一氏が、
国内と海外の検索マーケティング関連情報を
さらっとまとめて毎週金曜日にお届けします。
グーグルが推奨するモバイルサイト構成には3つ種類がある。「レスポンシブWebデザイン」「同一URLで端末によって出し分け」「スマホ向けを別URLで作り、リダイレクトする」の3つだ。
このうちレスポンシブWebデザイン以外の2つの構成では、アクセスしてきた端末の「User-Agent(UA、ユーザーエージェント)」の情報に基づいてPCとスマートフォンで異なるHTML(やCSS)を返す。
これら2つの構成を採用する際には、Vary HTTPヘッダーを使用することをグーグルは強く勧めている。
Vary HTTPヘッダーとは、サーバーにアクセスがあったときに、データと一緒にサーバーから返すHTTPヘッダーの1つで「Vary」という名前のもののこと。「今回はこのHTMLを返したけど、この内容はユーザーエージェント名によって変わる場合があります」「この内容はクッキーの状態によって変わることがあります」といった意味を表すシグナルだ。
しかしVary HTTPヘッダーは本当に必要なのであろうか。
グーグルのマット・カッツ氏が説明した。
今回は日本語訳ではなくマット・カッツの説明を噛み砕いて、筆者の言葉で解説する。
結論から言えば、「Vary HTTPヘッダー使ったほうがいい」ということになる。
ネットでは「キャッシュ」が使われている
マット・カッツ氏は動画の前半では“キャッシュ”について技術的な説明をしている。まずキャッシュとは何かから解説していこう。
誰かがいったんアクセスしたWebページのコンテンツのコピーを、ネットワーク上などの別の場所に(一時的に)保持しておく。そして別のユーザーが同じページにアクセスしようとした際には、キャッシュしてあるコンテンツを返すことで、いちいち元のWebサーバーにアクセスしなくても同じデータをすぐにとれるようにする。こうした仕組みが“キャッシュ”だ。
CDN(コンテンツ・デリバリー・ネットワーク)や一部のISP(インターネット・サービス・プロバイダ)は、キャッシュを利用することで、ユーザーがWebサイトのコンテンツを表示する(ダウンロードする)速度を向上させている。
こうすることで、Webサーバーの負荷を軽減できレスポンスが速くなる(自分たちのキャッシュからデータをユーザーに返せば、インターネット回線への通信量を削減することもできる)。
キャッシュはちゃんと扱わないと問題が生じる場合も
このようなメリットがキャッシュにはあり、幅広く利用されているのだが、思わぬ影響が出ることがあり得るのだ。
PC向けページとモバイル向けページを同じURLで自動的に出し分けている場合を考えてみてほしい。まずPCからのアクセスがあり、そのデータがキャッシュされているとする。その後にスマートフォンからのアクセスがあった場合、キャッシュしていたデータを返すと、元のWebサーバーで行うデバイス判別が行われずに、ユーザーにはキャッシュされていたPC向けのページが返されてしまうのだ(その反対もあり得る)。
つまり、サーバー側でコンテンツを動的に出し分けている場合、キャッシュする側がうまく処理していないと、まずいことになり得るのだ。
グーグル検索でもキャッシュと同じ問題が起きうる
同じことが、グーグルのインデックスにも発生する。ここでも、PC向けページとモバイル向けページを同じURLで自動的に出し分けている場合を考えてみてほしい。
PC向けのGooglebotがまずWebページにアクセスしてその内容を取得し、インデックスする(つまりグーグルのサーバーにキャッシュを作成する)。そのあとにモバイル向けのGooglebotが同じページをクロールする際に、すでにグーグルのネットワークキャッシュがあるので、そのキャッシュを利用する。すると、モバイル向けGooglebotがPC向けのコンテンツを取得してしまうかもしれないのだ(その反対もあり得る)。
だからHTTPヘッダーでVaryを指定しておくのが安心
このような事態を防ぐことに役立つのが、Vary HTTPヘッダーだ。「ユーザーエージェント名によって内容が変わりますよ」という情報をウェブサーバーがVary HTTPヘッダーで返すことで、キャッシュサーバーやGooglebotがそれを理解できるからだ。Vary HTTPヘッダーを実際どのように処理するかはCDNやISP側に委ねられるが、PC向けコンテンツとモバイル向けコンテンツが別々に存在する(可能性がある)ことをグーグルは確実に認識できる。
Vary HTTPヘッダーを利用しなかったからといって、必ずしも問題が起こるとは限らない。アノテーションさえしっかり記述しておけばなくても大丈夫なような気もする。
だがそうであったとしても、利用できないあるいは利用したくないといった特殊な状況にない限りは、万全を期すためにVary HTTPヘッダーを利用してグーグルを補助するのが安心だろう。
設定に手間がかることもなく非常に簡単だ。Apacheサーバーでの.htaccessを使った設定例を示そう。
解説で示したようにユーザーエージェント名でコンテンツを出し分けているのであれば、以下の1行を.htaccessに追加するだけで済む。
Header set Vary User-Agent
ユーザーの利用している言語とクッキーの状態で変わるのであれば、次のようにする。
Header set Vary Accept-Encoding,Cookie
日本語で読めるSEO/SEM情報
グーグルSEOに最も重要な大原則
★★★★★グーグルが目指す方向に向けてサイトを最適化する(SEMリサーチ)
渡辺隆広氏が、「現在の Google がいる場所ではなく、Google が目指している先に向けてWebサイトを最適化する」と題して、SEOの取り組み方の原則を説いている。
「h1 タグは SEO に有効ですか?」
「新しいページを作成する時に、何文字で書いたらいいのですか?」
「HTML5 でマークアップすると順位はよくなるのですか?」
といった質問はよく受けるのですが、正直、どうでもいいじゃないですか、といつも言うわけです。
なぜ渡辺氏はここで「どうでもいいじゃないですか」と言うのだろうか。渡辺氏がアドバイスする「グーグルが実現したい未来に向けてWebサイトを最適化する」とはどういったことなのだろうか?
小手先の手法ではなく、長期に渡って安定したSEOを実現するためにじっくりと読んで理解したい内容だ。
「とは言っても、どうするのが良いかわからないので、やっぱり具体的な線引きやノウハウを知りたい」という人もいるだろう。そういうことが気になったときは、この原則に立ち戻って考えるようにしてほしい。
最近はほとんど耳にすることがなくなったが、グーグルに「エイジングフィルタ」というアルゴリズムが存在するという説が依然として残っている。
「エイジングフィルタ」とは、できたばかりの新しいサイトは一定の期間は何をしても絶対に上位表示できないという現象だ。「サンドボックス」とも呼ばれる。そうした仕組みが、グーグルのアルゴリズムに組み込まれているというのだ。
グーグル(のマット・カッツ氏)は、
「エイジングフィルタ」が存在すると思われるような現象が見られることは確かだ。しかし、アルゴリズムの1つとしてグーグルが意図的にそういう仕組みを作っているわけではない。
といった内容のコメントを、過去に何度か出している。
こちらの記事では、エイジングフィルタが存在しないと考えられる理由を、たとえ話で解説している。納得がいく説明だと筆者は思った。
グーグルのウェブマスター向け公式ブログが、rel="canonical"タグを使用するうえでの推奨事項と5つのよくある間違いを説明した。
よくある5つの間違いは次のとおりだ。
- 複数ページにまたがるコンテンツの 1 ページ目を rel=canonical のリンク先とする
- 絶対 URL のつもりで相対 URL を記述してしまう
- rel=canonical を意図しない形で指定している、または 2 つ以上指定する
- カテゴリ ページまたはランディング ページで特集記事への rel=canonical リンクを指定する
- <body> タグ内に rel=canonical を入れる
rel="canonical"タグは、グーグルのSEOには必須の仕組みだといっても過言ではない。しかし動作や仕様を十分に理解していないと予期せぬトラブルを招くことがある、実は扱いが難しいものなのだ。こちらの解説記事を入念に読むことを推奨する。
グーグル日本のサーチクオリティチームが第4回のウェブマスター向けハングアウト(ビデオチャット)をGoogle+で開催した。
今回のテーマは、「新ウェブマスターに贈るウェブマスター ツールの活用方法と Google 検索の最新情報について」だ。録画をYouTubeで視聴できる。
以下の4つのパートで構成されている。
- Google 検索の最新情報と、ウェブマスター ツールの活用方法について
- お役立ち情報
- 質問コーナー
- サーチクオリティチームからのお知らせ
今回は初級者向けの内容だ。ウェブマスターツールの使い方に慣れていないウェブ担当者には参考になるだろう。
「CSS Nite in SAPPORO,Vol9」というSEOセミナーのレポート記事を先週ピックアップした。今週も、同じセミナーからのレポート記事をもう1つピックアップする。
辻正弘氏のセッションで、テーマは「ひとりでもできる、理想のSEO」だ。次のようなコンテンツから成っている。
- 過去に取り組んだSEOの失敗例
- 成功したSEO手法
- 成功した要因
- 理想のSEOのために
2つ目の「成功したSEO手法」は、どんなサイトであっても役に立つだろう。必ず読みたい。
辻氏自身による補足記事が辻氏の個人ブログに上がっているので、こちらも読んでおくといい。
なお樋口氏によるその他のセッションレポートも紹介しておく。
海外SEO情報ブログの
掲載記事からピックアップ
モバイル向けECサイトのUXに関する記事とrel="publisher"属性に関する記事を今週はピックアップ。
海外のSEO/SEM情報を日本語でピックアップ- 自分が関与していない不自然リンクを事前に否認しておくべきか
- インデックスされているが検索トラフィックのないページを消すとSEOにマイナスか
- SEOに取り組む前にあなたがすべきこと
- FirefoxがサードパーティCookieをデフォルト拒否で広告配信に大影響か
SEO Japanの掲載記事からピックアップ- Google、大規模なペンギンアップデートを数週間後に発動と予告
- Googleが今後数か月で実施予定の大量アルゴリズム改善でSEOスパムが撲滅?
海外のSEO/SEM情報を日本語でピックアップ
自分が関わっていないところで不自然なリンクがたくさん張られてしまっている。それらのサイト運営者とはコンタクトを取る術がない。
グーグルから警告を受けたわけではないが、ペンギンアップデートのこともあるし、問題になる前にリンクの否認ツールを使っておこうと思う。どうだろうか?
こんな質問がWebmasterWorldに投稿され、フォーラムモデレータが次のようにアドバイスした。
良いリンクを集めることで、潜在的な悪いリンクがごく少数を占める状態にしていく。そういった取り組みをしていくほうがいい。
食中毒にかかったとときには毒を体から排出するだけでは回復しない。健康が回復するように栄養のあるものも食べなければならない。
毒にばかり気を取られて健全なリンクを集めることを忘れてしまっているウェブマスターが多すぎる。
他のフォーラムメンバーも同様で、「悪い問題が今起こっていないのならば、勝手に張られた不自然リンクに意識を向けるよりも質の高いリンクを集めることに注力したほうがいい」とコメントしている。
自分が関与しないスパム的なリンクによるマイナスの影響は、絶対にないとは言い切れない。そのため、被害を受けることを未然に防いでおきたいという気持ちは確かに理解できる。それでもやはり、問題になっていないのであれば、サイトの評価をプラスに持っていく施策に力を注ぐほうが建設的だと言えよう。
古いHTMLサイトをWordPressサイトに移行しようと計画している。
移行の際に、インデックスされているけれどグーグルからのトラフィックがまったくないページを削除しようと考えている。ただ検索に悪い影響が出ないか心配だ。大丈夫だろうか。
High Rankingsフォーラムに投稿されたこの質問に対して、フォーラムモデレータが「あっても意味がないからから消すべきだ
」とアドバイスした。フォーラム管理者も同意している。
検索トラフィックがなかったとしてもユーザーにとって必要なページなら残しておくべきだろうが、このケースではどうやら存在価値のないページのようだ。インデックスされているからといって質の低いコンテンツを残しておくほうが反対に問題になるかもしれない。
SEOに取り組む前にあなたがすべきこと
★★★★☆すばらしいサイトを作り上げる(Google Webmaster Help Forum)
英語版のウェブマスター向け公式ヘルプフォーラムで、質問を投稿したサイト管理者に、グーグル社員のジョン・ミューラー氏が次のように助言した。
1つのサイトに力を注ぐことを強く推奨する。長い目で見れば、そうするほうが、もっとずっとやりやすくなるだろう。
(中略)
技術的なことに目を向けすぎずに、自分のサイトが間違いなく最高のものになるように本当に集中したほうがいい。
技術的な問題を解決することは良い考えだ。しかし、全体としてサイトをすばらしいものにすることのほうが、実際にはもっとずっと大切だ。
HTMLのタグがどうのとか、アンカーテキストがどうのとか、そういったSEO施策に意味がないとは言わない。しかしそういった施策が全体に占める重要度はごくわずかであることも多い。まず大前提として、「世の中でいちばん優れていると自負できる体験を、自分のサイトで訪問ユーザーに提供しよう」という心構えが必要ではないだろうか。
日本語記事でピックアップした渡辺氏の主張にも通じるところがあるように思う。
「すばらしいサイト」=「みんなが好きになるサイト」=「グーグルが検索結果に上位表示したいサイト」、非常にシンプルだがこれが真理であろう。
Firefoxが、サードパーティCookieをデフォルトで拒否する設定になるようだ。バージョン22からの変更が予定されている。
Googleアナリティクスは幸いなことにファーストパーティCookieを利用しているので影響を受けない。しかし他の一部のアクセス解析ツールには影響がありそうだ。何よりも、広告配信システムが大きな影響を受けることになる。
FirefoxでSSL検索がデフォルトになった時と比べれば、サードパーティCookieのデフォルト拒否はSEOにおいてさほど気にすることのないニュースだと言える(そもそもこれは1か月前のニュースだ)。だが、サイト運営全般に関わるウェブ担当者もこのコーナーの読者には多いだろうから、お伝えしておくことにする。
SEO Japanの
掲載記事からピックアップ
間もなく来るという次のペンギンアップデート更新と、そのペンギンアップデート更新を含むその他の導入間近のアルゴリズム更新をマット・カッツが発表した動画を今週はピックアップ。
この記事に関連する他の記事を見る
※このコンテンツはWebサイト「Web担当者Forum - 企業ホームページとネットマーケティングの実践情報サイト - SEO/SEM アクセス解析 CMS ユーザビリティなど」で公開されている記事のフィードに含まれているものです。
オリジナル記事:スマホ向け表示を分けているときはVary HTTPヘッダーを使うこと など10+4記事(海外&国内SEO情報) [海外&国内SEO情報ウォッチ] | Web担当者Forum
Copyright (C) IMPRESS BUSINESS MEDIA CORPORATION, an Impress Group company. All rights reserved.