来週(6/13)のこのコーナーは、筆者SMX取材のため、お休みです。次回6/20の更新をお楽しみに。
被リンクなしでの上位表示は可能なのか? マット・カッツ氏いわく……
つまり現実的には……無理?(Google Webmaster on YouTube)
いまの検索エンジンで上位表示するには、被リンクが大切だ。しかし、その重要度はどれぐらいなのだろうか。リンクがまったくないと、どうなるのだろうか。
バックリンクがさほどなくても、そのコンテンツは上位表示できますか?
この質問にグーグルのマット・カッツ氏が回答した。
リンクを評価するようになるよりも前の(つまり昔の)検索エンジンは、ページ内にテキストで書かれた言葉で判断していた。その言葉の使用回数が多ければ、そのページはそのトピックについて書かれていると理解していたんだ。
しかし、ページ内でその言葉を繰り返して使い過ぎると、キーワードの乱用とみなして、反対に評価を下げるようにもなっていった。
ページを判断する手段はその他にもある。たとえば、評判が高そうなドメイン名にあるコンテンツだから評価を高くしようということもあるだろう。
今の検索エンジンは、コンテンツの質を評価するために、そうしたさまざまな方法をたくさん使っているんだ(リンクもその1つだ)。
だがもし検索ユーザーが本当に珍しいキーワードで検索して、その言葉が書かれたページがウェブ上にほとんどなかったとしたら、どうだろう。その言葉が書かれているページがウェブ上に1つだけ存在するが、そのページにはまったくリンクされていないとする。
そういった場合には、たとえリンクが張られていなかったとしても、ユーザーが探していることと関連性が高いと判断して、そのページを検索結果で返すかもしれない。
でも、そういう状況は、ページに書かれているテキスト文字に頼ってコンテンツの質を判断していた昔の時代に逆戻りするようなものだともいえる。
使われることが極めて稀な言葉を検索したのであれば、その言葉が書かれたページが検索結果の上位に表示されることはありうる。カッツ氏はそう説明している。
しかし、「リンクなしでの上位表示が一般的に可能かどうか?」については、ほとんど何も語っていない。
「評判が高い・信頼できる(reputableな)ドメイン名のサイトにそのページがあるかどうか」を、質を判断する指標として使うかもしれないと言及してはいるが、そのドメイン名の評価でも、他サイトからの被リンクが重要な要因になるはずだ。
唯一語っていることは、「ほかに競合ページが一切なければ、リンクがなくても検索結果に出ることがある」ということだ。
ツイッターでも次のように言っている。
単純なことで、リンクがなければページ上のものを含めての他の要因でランキング付けするだけだ。
だが裏を返せば、検索の意図を理解する能力や、ページの内容や評価を判断する能力を、グーグルが向上させてきているとはいえ、リンクが順位決定にとって重要な要因である(少なくとも現状では)と、マット・カッツ氏は認めていると考えていいのではないだろうか。
日本語で読めるSEO/SEM情報
立場状況が変わればSEOも変わる
自分に必要なSEOを取捨選択する(辻正浩 | Masahiro Tsuji (@tsuj) on Twitter)
「SEOの神様」の愛称で尊敬される、辻正浩氏の続きもののツイートを紹介する。
最近思う事。同じSEOという単語ですけど、企業サイトのアドバイスをしてる人と、アフィリエイトの人と、インハウスの人と、やるべき事も必要な知識も違いすぎる事。
— 辻正浩 | Masahiro Tsuji (@tsuj) 2014, 5月 31
企業サイトへのアドバイスのSEOだけでも大規模サイト、小規模サイト、誰もが知ってるような巨大サイト、それぞれで違うし、人工リンク中心で戦ってる人とそうじゃない人でもノウハウも必要なスキルも全く違うし。そういう人達が同じ単語で括られる行動をしてるんだから喧嘩にもなりますよねぇ。
— 辻正浩 | Masahiro Tsuji (@tsuj) 2014, 5月 31
サイトの規模を絞らずに人工リンク以外のSEOのアドバイスをする仕事を十分にしようとすると、個人に必要な工数や学習量はあまりに現実的なものじゃないと思うんです。実際にそこを十分にやるには、大量の仕事を休みなしにやるしかないとか思います……まあ提供する想定効果量しだいなのかもですが
— 辻正浩 | Masahiro Tsuji (@tsuj) 2014, 5月 31
実際、title要素を整備するだけで、世の中の多くのサイトは数割は上げられますしね!そういう効果だけでお金もらってる会社も多いですしね!
— 辻正浩 | Masahiro Tsuji (@tsuj) 2014, 5月 31
人工リンクのSEOサービスが普及した後、価格破壊の当然の流れになった、いまの日本のSEOサービスの相場でまともなサービスを提供するのは難しいですし、本当にいろいろ難しいですね……
— 辻正浩 | Masahiro Tsuji (@tsuj) 2014, 5月 31
一般のウェブ担当者がこれらのツイートから学び取れることがあるとしたら、このようになるだろうか。
同じ「SEO」といっても、実際にやることは多種多様である。しかしネット上などでは、異なる立場の人が異なるサイトのSEOについて語っているので、自分の状況に当てはまる情報を取捨選択しなければならない。
リンク以外の施策でいうと、titleタグの修正だけランキングアップが狙えることも多い。
SEO業界は低価格化が激しいので、安かろう悪かろうのサービスをつかまされないように十分注意したい。
スマホ向け表示のコンテンツ量を減らすと、複数デバイス利用で離脱が増える
スマホにもPCにも同量のコンテンツを提供する(モバイルファーストラボ)
スマートフォン向けサイトのコンテンツをPCサイトよりも減らすべきではなく、同じ量の情報を与えるべき
このように主張した記事。
元記事では、その理由を次のように説明している。
複数デバイスをまたぐECサイト利用の傾向は強くなり、最近では約70%の方が複数デバイスでECを完結しているとしています。
このような傾向の中で意識しなければいけないのが、PCとスマホにコンテンツの格差があることで、例えばPC→スマホへ引き継ぎ利用した際の離脱者の増加です。スマホのコンテンツが簡略的であれば「充実したPC」→「簡略したスマホ」に引き継いだ際に不満を抱き、他のサイトへ行ってしまうことになります。
筆者もまったく同感だ。
スマホを使っているときとPCを使っているときではユーザーの状況が違うため、求めているものが異なることもある。そうした違いに応じて、ページのレイアウトやコンテンツの見せ方を変えることは、ユーザー体験を高めるのに効果的だろう。
たとえば、スマホ向けページでは移動中に使うことが多いだろうスマホユーザーにとって便利な機能を上部に配置してもいい。スマホでは画面領域が限られているため、PCよりもメニューのラベルを短くしたり、主要なメニュー以外は3本バーのボタンをタップして出現させるようにしたり、見出しの下の説明文を初期状態では非表示にしたりすることもできる。
しかしユーザーに提供する情報やコンテンツそのものを削るべきではない。
昔のガラケーとは異なり、スマホのブラウザはPCのブラウザと同等の機能を備えている。PCで利用できたコンテンツがスマホで利用できないのは、ユーザーにストレスと困惑を与えるだけだ。元記事のいうような「PCで見ていたものを、あとでスマホで見る」といった状況では、なおさらだろう。
スマホはPCよりもコンテンツが少なくていい
こうした考え方がどうして生じてしまうのか またなぜそれが間違っているのか、参照元の記事で確認していただきたい。
「検索順位がなぜ下がった? ペナルティ?」の判断基準を教えます
下落の理由を勘違いしないように(SEOだけじゃない Web集客コラム)
検索順位下落の原因を解明する際に役立ちそうな考え方を、わかりやすい例えで説明した記事。特に、あなたがSEOに取り組み始めたばかりの初級者だとしたら読んでほしい。
Googleからの評価が下がった時は、後ろめたいことをしなかったか胸に手をあてて考えてみましょう。
検索エンジンがなかりせばやらなかったことは何か?検索エンジンにだけ見せたいような何かはなかったのか?
「Amazonアフィリエイトのタグを貼ったのがやっぱりいけなかったのかなぁ・・・」
っていうように下落の原因を勘違いするのがよくある誤解だ。
「アフィリエイトタグは検索エンジンがなかったとしても貼ったよね?」
ってことなのである。
こうした振り返りは、順位が下がったときに限らず、あなたがやろうとしている施策がウェブスパムになるかどうかを判断するときにも役立つ。
「検索エンジンがなくてもそれをやるか?」と問われたときに、「やらない」という答えが返ってくる施策は、ガイドラインに違反する不正な行為に相当することが多いからだ。
もっとも、rel="canonical"や構造化データなど検索エンジンがなかったら利用しないであろう仕組みがあるが、これは検索エンジンを助けるものであり、結果的にユーザーにメリットをもたらすものなので、ここでいっていることには当てはまらない。
ホスティングサービスの運営者にグーグルが直々にアドバイス
同じテーマのハングアウトも開催(Google ウェブマスター向け公式ブログ)
日本のグーグル サーチクオリティチームが、ホスティングサービス(レンタルサーバーやブログサービスなど)の運営者を対象に開催したセミナーのレポートを、ブログ記事として公開した。
ホスティングサービス運営者たちに次のようなアドバイスを与えたということだ。
ウェブ スパムの削減について(関連ヘルプ記事)
- スパム ポリシーの制定・見直し
- スパムへの対処(サイトの自動生成の禁止。Captcha の導入、違反箇所の修正方法、スパム サイトへの対処方法など)
ユーザーへの啓蒙
- ウェブマスター ツールをユーザーが利用できるようにする
- Google と相性の良いサイトの構築のヒント
- ウェブマスター ツールの活用
- 構造化データの導入
- 適切な複数デバイス対応
ホスティングサービスの運営者でなくても応用できる施策も多い。
セミナーと同一の内容で、Google+のハングアウト オンエアを予定しているそうだ(6月10日開催)。ホスティングサービスの運営者はもとより、一般のウェブ担当者でも参加してみるといいだろう。
詳細はGoogle+のイベントページで確認してほしい。
ユニバーサルアナリティクス「クロスデバイスレポート」の設定方法
やる夫が説明してるが中身は高度(やる夫で学ぶGoogleAnalytics/アクセス解析)
ユニバーサルアナリティクスで利用可能になった「クロスデバイスレポート」の設定方法を解説している記事。
PCとスマホ、タブレットなど複数のデバイスを1人のユーザーが使うことが一般的になってきている。従来のアクセス解析ツールでは、同じユーザーであってもアクセスするのに使ったデバイスが異なると(またはブラウザが異なると)、別のユーザーとして処理される。そのため、複数のデバイスをどう使っているのかという分析や、本当に1人のユーザーに絞った分析をするのが困難だった。
しかしユニバーサルアナリティクスのクロスデバイスレポートを使えば、デバイスをまたいだユーザーの行動を追いかけることができるのだ。
コミカルな記事であるが内容は高度だ。会員IDやメルマガ登録IDなど、何らかの形で個人を識別する情報とあわせてページ上でトラッキング処理をしなければいけないからだ。上級レベルのアクセス解析を実践したいウェブ担当者向けだといえる。
ちなみに、このブログ名の「GoogleAnatlycis」というのは、よくある記述ミスなので言及しておく。正しくは「Google Analytics」だ(間にスペースが入っている)。
海外SEO情報ブログの
掲載記事からピックアップ
グーグル社員とグーグルCEOの発言を、それぞれ引用した記事を今週はピックアップ。
- 共有サーバーであってもアダルトサイトであってもGoogle検索に悪影響を与えることはない
どちらも目新しい情報ではないけれど再確認 - Googleは、ラリー・ペイジCEOが夢に思い描く検索エンジンからはまだ果てしなく遠い
でも夢に向かって着実に前進している
- グーグルのApp Indexingがついに日本語にも対応
- グーグルがサポートするドメイン間のrel="canonical"
- 地域や言語に応じたコンテンツを自動的に選ぶサイトに必ず守ってほしいこと
- robots.txtに不備があった際の予備プランとしてのX-Robots-Tag
- ペンギンアップデート3.0事前対策マニュアル
- お金をかけないランディングページのつくりかた
海外のSEO/SEM情報を日本語でピックアップ
グーグルのApp Indexingがついに日本語にも対応
アプリのコンテンツを検索結果に表示(Official Google Webmaster Central Blog)
グーグルはApp Indexingを英語以外の言語でも利用できるようにした。
App Indexingは、スマホのアプリのコンテンツをグーグルがクロールし、グーグルの検索結果に表示する仕組みだ。導入時は英語のコンテンツだけが対象で、利用できるのは米グーグル(google.com)だけだった。その後、世界中のグーグルでも利用可能になったが、適用されるのは英語のコンテンツだけだった。
しかしいよいよ英語以外への適用が実現した。もちろん日本語も含まれる。
App Indexingを実装しているアプリケーションはまだ少ないが、これから増えていくだろう。
日本語のドキュメントもあわせて公開された。あなたのサイトがモバイルアプリを提供しているなら、ドキュメントを参照してApp Indexingに挑戦してみてもいいだろう。
グーグルがサポートするドメイン間のrel="canonical"
301相当だが違いもある(WebmasterWorld)
異なるドメイン名のサイトのURLを指定するrel="canonical"に関する質問がWebmasterWorldフォーラムに投稿された。いわゆる"クロスドメイン"と呼ばれる、ドメイン間のrel="canonical"指定の話題だ。
フォーラムメンバーたちによるコメントをもとに、クロスドメインのrel="canonical"の特徴を次にまとめる。
- クロスドメインのrel="canonical"をグーグルはサポートしている(Bingはおそらくサポートできていないはず)
- 301リダイレクト相当として検索エンジンはrel="canonical"を扱う
- リダイレクトではないのでユーザーは転送されない(そのページを見続ける)
- 検索エンジンは「手がかり」として利用し、必ずしも従うとは限らない
- コンテンツが同一の場合に用いる。多少の違いは許容されうるが、そのページの内容にほとんど影響しないごく僅かな違いであることが求められる。
なお細かなことをいうと、1つ目以外は同じドメイン内のrel="canonical"にも当てはまる。
地域や言語に応じたコンテンツを自動的に選ぶサイトに必ず守ってほしいこと
ユーザーが自由に選べるようにもしておく(WebmasterWorld)
グローバルサイトや多言語サイトを運用している際に考慮すべきことはいくつもあるが、そのなかの1つに、「どの地域・どの言語のコンテンツを初期設定で表示するか」がある。
グーグルは、「グーグルが推奨する多地域・多言語サイトのトップページの見せ方」を解説した記事で、次の3つの構成を紹介していた。
- すべてのユーザーに同じコンテンツを表示する。
- ユーザーが選択できるようにする。
- ユーザーの地域と言語に応じたコンテンツを配信する。
特に気をつけてほしいと筆者が強く言いたいのは、3番目の構成だ。
この構成では、(IPアドレスに基づいて)ユーザーがいる場所やブラウザの言語設定を検出して、ふわさしいと判断したバージョンのコンテンツを提供する。たとえば、ドイツからのアクセスならばドイツ向けのコンテンツを自動的に表示し、ブラウザの言語設定が日本語優先になっているならば日本語のコンテンツを自動的に表示するといった具合だ。
こうした自動選択の構成を採用している場合に、気をつけてほしいことが1つある。それは、ほかの地域やほかの言語にユーザーが任意に切り替える機能を必ず備えておくということだ。
ドイツにいるユーザーが必ずしもドイツ向けのページを見たいとは限らない。同じようにブラウザの言語設定が日本語だからといって日本語コンテンツを望んでいるとは限らない。
たとえば、ヨーロッパ旅行をしているシーンを想像してほしい。いま、あなたはドイツに滞在していて、次に訪れるイギリスでのレンタカーを手配したいと思ったとする。グローバル展開しているレンタカーサービスのサイトにアクセスしたのに、目的のイギリスではなくドイツ向けのページしか見られなかったとしたらどうだろうか? イギリスに到着してからでないと、レンタカーを手配できないことになる。
ほかにも、日本にいたとしても英語のコンテンツを見たいユーザーだっている。実際に筆者はそうだ。無理やり日本語ページに連れて行かれ、英語にしようとしても否が応でも日本語ページにリダイレクトされるサイトに何度も遭遇したことがある。
どちらも、ユーザー体験をひどく損ねる悪い例だ。
グーグルの公式解説でも、「ユーザーが必ずローカル バージョンまたは言語を切り替えることができる」ようにしなければならないと説明している。
もしあなたがグローバルサイトを運用していて、ユーザーの状況に合わせて適切だと判断したコンテンツを自動的に提供しているのならば、手動で切り替える機能を絶対に忘れてはならない。
robots.txtに不備があった際の予備プランとしてのX-Robots-Tag
不測の事態に備えて(Google Webmaster Help Forum)
グーグルのジョン・ミューラー氏が、画像を検索結果に出さないようにしたいときの設定について次のようにアドバイスした。
robots.txtによるクロールのブロックとあわせて、予備プランとしてX-Robots-Tagを利用するのはいい考えだ。
メンテナンスでrobots.txtが404エラーを返してしまうなんていう予期しないトラブルがあったりするからだ。
robots.txtで画像のクロールを拒否しておけば、その画像の検索結果への表示を防ぐことができる。
しかし何かの原因でrobots.txtをGooglebotが認識できなかったとしたら、画像がクロールされてしまい結果として検索結果に出てくるかもしれない。そういった不測の事態に備えておくために、HTTPヘッダーのX-Robots-Tagでnoindexを返すようにしておけば安全だというのだ。
X-Robots-Tagは、robots metaタグによるクロールやインデックスの指示をHTTPヘッダーで返す仕組みだ。画像やPDFなどHTMLドキュメントではないリソースでクロールやインデックスを制御できる。
たとえば、画像をインデックスさせないようにするならApacheのconfファイルか.htaccessファイルに下のように記述する。
<Files ~ "\.(png|jpe?g|gif)$">
Header set X-Robots-Tag "noindex"</Files>
なお、robots.txtで画像をブロックしていて、そのrobots.txtにクローラが正常にアクセスできる状態では、クローラは画像をクロールしようとしないので、X-Robots-Tagは意味がない。画像向けのX-Robots-Tagは、robots.txtに不備があった際の予備プランなのだ。
SEO Japanの
掲載記事からピックアップ
ペンギンアップデート関連とLPOの記事を今週はピックアップ。
- ペンギンアップデート3.0事前対策マニュアル
来たるべき日に備えて今から準備 - お金をかけないランディングページのつくりかた
SEOではないがウェブ担当者の役に立つLPO
- 内容カテゴリ:SEO
- コーナー:海外&国内SEO情報ウォッチ
※このコンテンツはWebサイト「Web担当者Forum - 企業ホームページとネットマーケティングの実践情報サイト - SEO/SEM アクセス解析 CMS ユーザビリティなど」で公開されている記事のフィードに含まれているものです。
オリジナル記事:被リンクなしでの上位表示は可能なのか? マット・カッツ氏いわく……など10+4記事 [海外&国内SEO情報ウォッチ] | Web担当者Forum
Copyright (C) IMPRESS BUSINESS MEDIA CORPORATION, an Impress Group company. All rights reserved.