Clik here to view.

今回のピックアップは、「良いコンテンツ」「品質の高いコンテンツ」とは、どんなものかを解説した記事。また、「グーグルがパクりコンテンツを見つけて教えくれたらいいのに」も、納得の内容だ。ほかにも、「モバイル対応が不完全なサイトにグーグルが警告」「SSLサーバーを高速化させるとっておきのチューニング方法」など、お役立ち情報をお届けする。
2014年のこのコーナーの更新は今回が最終で、次回の記事は1月です。みなさん、今年もこのコーナーにお付き合いいただき、ありがとうございます。
少し早いですが、来年もWeb担読者のみなさまにとって良い年でありますように。
Image may be NSFW.
Clik here to view.
“良いコンテンツ”を検索エンジンが判断する三本柱とは ―― Bing版パンダアップデートの情報より
オーソリティ・実用性・体裁(Bing Search Quality Insights)
コンテンツの品質をどのようにランキング決定に用いているかを、Bing公式ブログが説明した。コンテンツ品質の三本柱として次の3要素を挙げている。
- オーソリティ
- 実用性
- 体裁
オーソリティ―― 「そのコンテンツ」「コンテンツが掲載されているサイト」「コンテンツを作った著者」を信頼できるかどうか。ソーシャルネットワークや他のサイトでの言及、名前の認知度、著者の身元などのさまざまな要因から判断する。
実用性―― コンテンツが本当に役立つものであるかどうか。裏付けする十分な情報を含んでいるか。解説するための動画や画像、図があることが好ましい。
コンテンツを作るための労力や専門性の高さも評価対象になる。似たような情報を持つサイトが他にあったとしても、そこでしか得られない独自の価値を提供しているほうが、上位表示される可能性が高くなる。
体裁―― 読みやすくわかりやすいデザインであるかどうか。メインコンテンツをすぐに見つけられるか。
たとえば、広告が多すぎたり、コンテンツの閲覧を邪魔する形で広告が掲載されていたりすれば、ユーザー体験を損ねるので質が低いとみなされる。
Clik here to view.

コンテンツの品質を評価するアルゴリズムといえば、グーグルのパンダアップデートが思い浮かぶ。だがグーグルと同様にBingも、コンテンツの品質を重視しているのだ。
日本でのシェアが低いBingといえど、高品質なサイトを目指すうえでこの3本柱はぜひ意識したい。Bingであってもグーグルであっても、検索ユーザーはこのようなサイトを求めているからだ。
日本語で読めるSEO/SEM情報
グーグルがパクりコンテンツを見つけて教えくれたらいいのに
リクエストしたい機能(伊藤公助 (@self0828) on ツイッター)
札幌のSEOコンサルタント、伊藤氏のツイッターでのつぶやきを3つ紹介する。
僕のSEO業務の中に、クライアントサイトのパクリサイトがないかチェックするのとネガティブSEOされてないかのチェック作業がある。いつもやってて思うけれども、これ本当に無駄。Googleが必ずオリジナル情報を評価してくれて、ネガティブリンクを完璧に見抜いてくれたら良いんだけど。。
— 伊藤公助 (@self0828) 2014, 12月 9
こんなのに時間使うなんて本当に無駄で、特にクライアントには絶対にさせたくないから、ここは対応していこうと思う。 僕に支払うSEOの費用の中に、この費用が入っていると思うだけで腹立たしいけれども、実際に結構多いので仕方がない。特にパクリサイトは多くて本当に困る。
— 伊藤公助 (@self0828) 2014, 12月 9
WMTで自サイトと同じコンテンツが発見された場合に通知される機能が付けば良いのに、と思う。
— 伊藤公助 (@self0828) 2014, 12月 9
重複コンテンツを検出したときのウェブマスターツールへの通知の仕組みはないことはない。
「クロスドメイン URL の選択」のメッセージだ。同じコンテンツのページを異なるドメインで検出した場合にメッセージを送ってくる。しかしこれはサイトのトップページだけが対象で個別ページの重複まではカバーしていない。
スパム的な無断複製を大量に発見した場合に、グーグルがウェブマスターに知らせてくれる機能があったら、たしかに助かるだろうし、世の中のためになるだろう。
モバイル対応が不完全なサイトにグーグルが警告
モバイル対応は完璧に(UMA)
モバイルユーザービリティに問題があるサイトには、ウェブマスターツールに通知が届くことがあるようだ。
通知は「http://www.example.com でモバイル ユーザビリティ上の問題が検出されました」という件名で、次のように始まる。
http://www.example.com のウェブマスター様
Google のシステムは、貴サイトの 1 ページをテストし、そのうちの 100% に重大なモバイル ユーザビリティ上の問題を検出しました。
この 1 ページの問題の影響で、モバイル ユーザーは貴サイトを十分に表示して楽しむことができません。
これらのページは Google 検索でモバイル フレンドリーとは見なされないため、スマートフォン ユーザーにはそのように表示、ランク付けされます。
問題の修正方法の説明がこの後に続く。
Clik here to view.

筆者の管理しているサイトにもモバイルにまったく対応していないサイトがあり、ウェブマスターツールにも登録しているが、こうした通知は届いていない。グーグルがこうしたメッセージをテストしているのか、それともよほどひどい状態のサイトにだけ送られるのかは、現時点ではわからない。
どちらにせよグーグルがモバイルのユーザービリティを重視していることは明らかだ。グーグルが先日公開したモバイルガイド日本語版とモバイルフレンドリーテスト ツールでモバイル対応を完璧にしておこう。
グーグルの年末拡大版ウェブマスター向けオフィスアワーが開催されました
出張オフィスアワーの案内あり(ウェブマスター オフィスアワー)
このコーナーでも告知した今年最後のウェブマスター オフィスアワーが開催された。普段の倍の1時間と、拡大版だ。
グーグルからの最新情報に続いて、先日開催されたオンラインサービス提供事業者を対象にしたWebmaster Meetupで挙がった有益な質問とその回答を説明した。次の3つだ。
- クローリング
- モバイル関連
- nofollowの使い方
さらに公式ブログの今年の人気記事を紹介し、後半では一般のウェブマスターたちとのQ&Aを行った。
次のような質問に回答している。
- リンクの否認が即座に効果を発揮しない理由
- モバイルフレンドリーテストの結果と「スマホ対応」ラベルの関係
- モバイルユーザービリティのエラーが検索順位に与える影響
- モバイルガイドの狙い
- 画像検索のベストプラクティス
参加していなければ視聴しよう。
オフィスアワーでいつも活躍しているグーグルの社員さんたちに代わって宣伝がある。
「出張ウェブマスターオフィスアワー」と題して、グーグルのサーチクオリティチームのスタッフがあなたの街にやってきてくれる。“オフライン”でのオフィスアワーで、あなたからのさまざまな質問に彼らが対面で答えてくれるのだ。サイト運営のための役立つアドバイスももらえるだろう。
出張費は請求しないので(そのはずだ)、費用のことを心配せずにリクエストしてみるといい。詳細は、48分26秒あたりからを見てほしい。
グーグルの東京検索チーム、0.1秒のモバイル検索高速化を実現
Tokyo検索チームの成果(Ryoichi Imaizumi on Google+)
モバイル検索で100~150ミリ秒(0.1~0.15秒)の高速化を達成したことを、ウェブの高速化を啓蒙している米グーグルのイリア・グリゴリック氏がGoogle+で公表した。
高速化のために実装したのは「リアクティブ・プリフェッチ」と呼ばれる技術だ。ユーザーが検索結果をクリックしたタイミングで、飛び先ページのレンダリングに必要となる重要なリソース(画像・CSS・JavaScriptなど)を、飛び先ページのHTMLを読み込むのと並行してブラウザ読み込み始めるというものだ。
プリフェッチとは「ページ内のリンク先のコンテンツを事前にブラウザに事前に読み込ませておく」というもので、実は従来からそうした考え方や仕組みは存在していた。
しかし、既存の手法では、先読みするコンテンツが実際に使われるかどうかが定かでない状態で読み込みを開始させるものだったため、場合によっては先読みが無駄になることがあり、結果として帯域を無駄遣いする可能性が常にあった。
しかし、グーグルが今回導入したリアクティブ・プリフェッチは、そうした「投機的な先読み」ではなく、検索ユーザーが飛び先を選んだ時点で、確実に必要になるリソースだけを読み込むものだ。
具体的には、検索結果のリンクをクリックした時点で、その飛び先のページに必要なリソースを<link>要素として検索結果ページのHTML内に動的に挿入するものだ。
ただし、現時点でこの機能が有効になるのは、Android版のChromeブラウザのみということだ。
実は、この技術の導入は東京の検索チームが担当したそうだ。
Imaizumi氏は、モバイル検索結果での「スマホ対応(Mobile-friendly)」のラベル導入を英語版の公式ブログでアナウンスした1人でもある。モバイルユーザーのユーザー体験向上への取り組みが日本を中心に進んでいるようで頼もしい。
グーグルはたったの0.1秒の高速化にも真剣に挑戦している。我々も負けずにウェブサイトの高速化に励みたい。
SSLサーバーを高速化させるとっておきのチューニング方法
安田編集長も唸った(元RX-7乗りの適当な日々)
HTTPSを利用していて複数サーバーでロードバランスしている場合に、サーバーへのアクセスを高速化する設定を解説した記事。
かなり技術的な内容なのでうまく説明するのは難しいのだが、簡単にいうと、「常時SSLのサイトを複数のWebサーバーで動かしているときに、本来はサーバーごとに必要な、ブラウザからWebサーバーに接続する際の処理を、“SSLセッションキャッシュ”をサーバー間で共有することにより接続を高速化」するものだ。
Web担の安田編集長も「なるほど、そういう方法があるのか」とうなっていた手法だ。
常時SSLのサイトでなければあまり意味がないし、技術的に高度な話題なので、ウェブ担当者よりもサーバー管理者やインフラ担当者向けのトピックだろう。
しかし、常時HTTPSも一般的になってきているし、何よりもサイト訪問者にとってメリットのある話題だ。技術担当に「これ、知ってる?」と聞いてみるのはどうだろうか。
Image may be NSFW.
Clik here to view.
海外SEO情報ブログの
掲載記事からピックアップ
rel="canonical"とApp Indexingについての記事を今週はピックアップ。
- rel=canonicalで正規化した重複URLが検索結果にインデックスされる理由
すぐには処理されない - モバイル検索結果の15%がディープリンク、App Indexing設定の4つのコツをGoogleが解説
モバイルユーザー体験向上に役立つ
海外のSEO/SEM情報を日本語でピックアップ
最新のペンギンアップデートは連続的なアルゴリズムへと変貌
展開に終わりなし(Search Engine Roundtable)
開始から1か月以上が経過してもペンギンアップデートの更新が続いていることをグーグルが認め、その後もペンギンとおぼしき順位変動が繰り返し発生していると前回お伝えした。
この件に関して、新たな情報が出てきた。
最新のペンギンアップデートは、連続的・継続的なアルゴリズムへと姿を変えたらしい。Search Engine Roundtableのバリー・シュワルツ氏が、グーグルからコメントを得ることに成功した。
これまでのペンギンアップデートは、通常のアルゴリズムとは異なり、検索に使われるインデックスとは切り離されたオフラインで処理されていた。準備が整ったところでインデックスに統合される、いわば手動処理だったのだ。そのため更新の間隔が長くなっていた(最新の更新までには1年以上の間隔が空いた)。
最新のペンギンアップデートが一般的なアルゴリズムのようにオンラインで絶えず稼働する自動処理になったのか、それとも完全自動処理ではないが更新間隔がずっと短く頻繁に更新できるようになったのかは、まだ不明だ。
いずれにしても、最新のペンギンアップデートからは「展開の完了」という状態はなくなった。展開は絶えず続く。順位変動がペンギンアップデートによるものかどうかの切り分けがさらに困難になったといえる。
グーグル検索結果での、ページタイトルとスニペットの作られ方
ヘルプが丁寧に解説(Google Webmaster Help Forum)
HTMLのtitleタグとmeta descriptionタグに設定した記述が、それぞれ検索結果のタイトルとスニペットに正確に反映されていないのは、なぜなのか?
こういった趣旨の質問が、立て続けに英語版の公式ヘルプフォーラムに投稿された。日本のヘルプフォーラムでもよく目にする質問だ。
検索結果ページのタイトルとスニペットの作られ方およびtitleタグとmeta descriptionタグの適切な付け方は、ウェブマスター向けヘルプで説明されている(日本語の解説なので安心してほしい)。
かなり丁寧に説明されているので、読んだことがない人は一度確認しておくべきだが、要は、
ページのコンテンツとウェブ上の参照元ページの両方を踏まえて、自動的に作成されます。
Google で表示される個々のサイトのタイトルやスニペットを手動で変更することはできません
ということだ。つまり、「こう表示するのが検索ユーザーにとって良い」とグーグルのアルゴリズムで判断されたものが表示されるため、我々が完全にコントロールすることはできないということだ。
そう聞くと「無理ならいいや」と思ってしまうかもしれないが、できるだけ希望に添ったものが表示されるようにする方法がヘルプで説明されているので、参考にしてほしい。
手の込んだrobots.txtはトラブルのもと
シンプルに保つ(Webmasters Stack Exchange)
SEO系フォーラムで、robots.txtで正規表現を使えるかどうかを質問したサイト管理者に、グーグルのジョン・ミューラー氏が次のように釘を刺した。
robots.txtファイルであまり手が込んだ記述をしないように警告しておきたいと思う。後々の診断が本当に本当に大変だ。できるかぎりシンプルに保っておくようにした方がいい。
robots.txtは大文字・小文字を区別することもあわせて覚えておくように。サイトによっては、大文字・小文字違いの記述も追加しなければならないかもしれない。
正規表現を使いたいということは、非常に多くのURLをrobots.txtでブロックするつもりで、それらを一括で処理したかったのであろう。しかしあまり複雑にしてしまうと、ブロックするつもりでなかったURLをブロックしてしまったり、反対にブロックしたいURLがブロックできていなかったりと、予期していなかった結果になりがちで、さらにトラブルシューティングが難しくなると、ミューラー氏は諭したのだ。
なおrobots.txtでは正規表現は使えない。「*」(ワイルドカード)で、すべてを含めることが可能なくらいしかできない。
検索エンジンも意識するなら、やはり画像よりもテキスト
機械の画像認識は簡単ではない(Google Webmaster Help Forum)
画像形式のテキストを使っているページがあなたのサイトにある。残念ながらそうしたテキストを私たちは簡単には認識できない。
「検索エンジンにも見てほしい」「ページの重要な部分だ」と思う部分については、画像ではなくテキストを使ったほうがいい。
グーグルのジョン・ミューラー氏が、公式ヘルプフォーラムでの質問に対してアドバイスしたコメントだ。
グーグルは画像の認識能力を向上させている。とはいえ、検索エンジンにとっては画像よりもテキストのほうが絶対的に理解しやすい。SEOを意識するのであれば、やはりテキストを優先的に使うべきだろう。
10年以上前から繰り返し言われていることだが、大切なことであり、ミューラー氏も明言していることから、改めて紹介した。
Image may be NSFW.
Clik here to view.
SEO Japanの
掲載記事からピックアップ
SEO関連記事の公開がなかったので今週はピックアップなし。
※このコンテンツはWebサイト「Web担当者Forum - 企業ホームページとネットマーケティングの実践情報サイト - SEO/SEM アクセス解析 CMS ユーザビリティなど」で公開されている記事のフィードに含まれているものです。
オリジナル記事:「良いコンテンツ」「品質の高いコンテンツ」を検索エンジンが判断する三本柱とは など10+2記事 | 海外&国内SEO情報ウォッチ | Web担当者Forum
Copyright (C) IMPRESS CORPORATION, an Impress Group company. All rights reserved.
Clik here to view.
Clik here to view.
Clik here to view.
Clik here to view.
Clik here to view.