SEOって結局人気投票なんじゃねぇの? 上位表示したけりゃこの記事読みな!!

6be596645037dfe6a3e73a89519f5c12_s

注意:この記事はSEOなんて何も知らない年収300万 の男が独断と偏見と妄想で書いた記事です。あまり参考にしすぎないようにしましょう(・ω・)

 

SEOとは、 Search Engine Optimizationの略で、検索エンジン最適化と呼ばれる。


現在グーグルは200だか2000だかわからない検索アルゴリズムを用いて検索順位を決定しているそうですね。

天才集団グーグルが作っているアルゴリズムなんだからすげぇんんだ!!と我々が考えてしまいがちですが、実は単純なんじゃないかなぁと勝手に思ってます。

 SEOはAKBの人気投票に似ていると思う

SEO対策!!などとエラそうに言っている御仁たちがやることと言えば、外注化した記事でサテライトサイトを作って被リンクを送ることですよね?

勿論他にも色々あるんでしょうけど、それがメインだと思います。

そして、その効果は未だ絶大です。

記事数は少なく、運営期間も短いのにです(他のブログが無料ブログだったこともありますが)。

「被リンクが沢山ついているブログは価値が高い」

グーグルはかつてそう考えており、現在もその考えの根本は変わっていないと思います。

「我々は価値のあるサイトをユーザーに提供する義務がある」とはグーグルの基本的考えですが、問題の「価値あるサイト」が被リンクを沢山つけたサイトだった訳です。

価値あるサイト=人気のあるサイト=被リンクの多いサイト

そこに目をつけたのが、「ブラックハットSEO」と呼ばれる人間達だったと。

彼らは適当なサテライトブログなりサイトを用意して、被リンクを送りまくりました。

AKBの人気投票でファンがCDを買いまくるようなものですね。

ルレアミドルレンジのサンプルサイトはこの一例です。

被リンクが90本ほどついています。

人気商品×購買意欲の高いキーワード×上位表示×承認率=報酬となる訳なので、アフィリエイターは兎角に上位表示される必要がある訳ですね。

まぁ、このあたりは完全にグーグルの不備だと思います。

じゃあ、どうしてグーグルが被リンクの数を重視するのかという話ですね。

 ロボットは記事の良しあしを判断できない

20100825_23316

グーグルの検索アルゴリズムは、3種類のグーグルボットと呼ばれるロボット達によって成立していると言われます。

問題なのは、ロボット達なので、その記事の内容がいい記事なのか悪い記事なのか判別つかなかったという点です。

グーグルの技術者たちは頭を悩ませたことでしょう。

サイトの少ない黎明期ならともかく、増え続けるサイト数に対してどのように検索順位を決定づけるべきか?

一つは「キーワード」だったと思います。

一昔前のSEO関連の本には、「キワードだ!! とにかくキーワードを沢山入れてストロングタグで囲むんじゃ!!!」ということが書かれていたりします(現在ではスパムになります)。

そしてもう一つが「被リンク」だった。

価値あるブログやサイトには被リンクがつくというのは、間違った考えではないでしょう。

記事の良しあしが判断できない以上、それを基に順位を決定したのは納得のできる話です。

仮に一人で10000枚CDを買って投票したとしても、それは一つの人気ですからね。

 パンダ・ペンギン・ハミング・ピジョン

私が中学生や高校生の頃、インターネットでググるなんて習慣はありませんでした。

検索した所でロクなサイトが出なかったからです。

そもそもグーグルなんて知らん。

でも、いつの頃からか、「ググる」という単語はメジャーになっていました。

わからないことはグーグル先生に!

検索エンジンが「役立つサイト」を提供できるようになっていたんですね。

役立つサイトが見られる→グーグルを利用する

この流れですよね?

これが、

グーグルを利用する→役立つサイトが見られる

に転換される訳です。

ここで、スパム的なロクでもないサイトが上位表示したらどうでしょう?

グーグルを利用する→ロクなサイトがない

こうなると、グーグルを誰も使わなくなるんです。

そうならない為に、グーグルはいくつかのアップデートを施しました。

パンダアップデート…2011年英語圏を中心に行われ、2012年7月に日本に上陸したアップデート。主に「低品質なコンテンツに対して行ったアップデート」

その目的は品質の高いサイトの検索順位向上だと言われる。

ペンギンアップデート…2012年より開始したと言われ、過剰なSEO対策をしているサイトに対して順位を下げる為のアップデート。

その目的は、ブラックハットSEOに対する順位下落だと言われる。

ハミングバードアップデート…より自然な文章の書かれたサイトを上位に表示させるために行われたアップデート。

現在ではほとんど影響はないと言われているが、ツールを使った自動生成記事獄滅する目的があると言われている。

ピジョンアップデート…ローカル情報(地図など)が検索結果に反映されるアップデート。

これにより、上位表示はトップ10ではなくベスト3を目指さなければならないという意見もある。

どれも根本的な解決になってはおらず、アップデートも日々バージョンアップしているそうです。

 グーグル側は完璧には対応できていない

スパム的なサイトに対しては、数あるアップデートでは対抗できていないのが現状でしょう。

だからこそ、「手動」による対策が発動されるんだと思います。

グーグルの中の人(社員かどうかは知りません)が目視と手作業という原始的な方法でペナルティを課すんだと思います。

「脱毛案件」がひたすら話題になっていますが、上位表示していたアフィリエイトサイトが軒並み吹き飛んだのは見ていて爽快でした。

「キャッシング」や「アダルト系」も卒中目視が入るそうです。

ハイリスクハイリターンという感じですね。

マメボーさんが飛んだのも、低品質が原因ではなく、「ウェポンサイト」やら「マメゴットSEO」というグーグルが最も嫌うことをしたからなんでしょうね。

実際今は復活されていますし。

 新しいSEO基準

SEOでグーグル側が最重要視していそうな項目を羅列してみると、

・被リンクの数

・被リンクの質

・滞在時間

・直帰率

・更新頻度

・クリック率

と言った感じになるでしょうか?

勿論他にも山のようにはあると思いますが、この5点を最重要視しているように思えます。

「被リンク」の数は、やはり多いほど良いでしょう。

どれぐらいの数で飛ぶかは不明ですが、10~20では飛ばないんじゃないでしょうか?

実際に試したことがないのでよくわかりませんね。

「被リンクの質」

これは結構曖昧ですよね。

「質」ってなんやねん?

かつて、グーグルはPR(ページランク)をドメインごとにつけていたようですが、今はしなくなりましたね。

ページランク偽装するサイトが後を絶たなかったからでしょう。

かつてはページランク5のサイトからの被リンクをされると一気にそのサイトはページランク3になったようです。

今は「関連性」の高いサイト同士の被リンクが期待されているとはグーグルの言葉ですが、どうやって「関連性」を見出しているのでしょうか?

個人的には、「実際にクリックされているかどうか」を見ているのではないかと思います。

例えば、「えなりかずき」と「ホリ」は関連性の高いキーワードですが、それをグーグルが判断できるでしょうか?

「えなりかずき」と「こうらく」ならいいですが、「えなりかずき」と「後楽園」だったら関連性ないですよね?

↑意味不明なので無視してください。。

一般的に、例えば「ダイエイットがしたい」というキーワードでサイトを訪れて、記事中に「→サイババ養成講座に興味がある方はこちら」とリンクを貼ってもクリックしないと思います。

「ダイエット」と「サイババ養成講座」は本来何の関連性もないからです。

でも、訪れた人が全員クリックをしていたとしたら、それは「関連性」がある、とみなされるのではないでしょうか?

この点に関してはまるで分らないことだらけなので、色々とまた実験してみたい分野でもあります。

「滞在時間」と「直帰率」は大きなファクターだと思います。

最近、文字の詰まった読みにくいブログが少なくなったような気がします。

多分ユーザーがすぐに帰ってしまうからではないでしょうか?

文字数が多いとSEOに有利とか、動画があると有利だとかいう話も、「滞在時間」が長くなるからだと思っています。

先ほどの「内部リンク」を貼るという行為は、「滞在時間」の上昇と「直帰率」の低下が見込める為にSEO対策になるのではないかと思っています。

 

「更新率」

私はかなりの更新率信者です。

ペラサイト作っておいて難なんですが、更新すればするほどドメイン力が上がって上位表示しやすくなっていると感じます。

このブログが質や文字数を落としても更新頻度を上げているのは、この点の実験も兼ねています。

wikipediaやnaverまとめの異常な程のSEO力を考えるに、この更新頻度が重要視されているのではないかと思っているんですよ。

「クリック率」

個人的には、ここが一番のファクターではないかと思っています。

下の画像は、私が去年の11月から運営している100%趣味のブログのWMTのデータです。平均掲載順位順に並べました。

2015y05m24d_174900411

少し見難いかも知れませんが、右端が平均検索順位で、右から二番目がクリック率です。

バラつきはありますが、総じて高いクリック率です。

次に、クリック数順に並べた画像です。

2015y05m24d_175228564

クリック率が全然違うのがお分かりいただけるかと思います。

「クリック数」が高いよりも「クリック率」が高い方が掲載順位は高くなっているのが読み取れますね。

通常、検索順位は高い順にクリックされやすいです。

なので、1位表示になるとクリック率が上がり、内容が良ければ滞在時間も増え、内部リンクや関連記事などで直帰率を下げることができる。

より一層上位表示がしやすくなるという好循環が生まれます。

 2CHまとめはなぜ強い?

3Mの鼎談でもありましたが、「ネガティブキーワード」がとても強いのは周知の通りです。

それは、クリック率がとても高いからなんだと思います。

例えば、今からルレアプラスを実践しようと思って、情報検索していたら、「ルレアは詐欺!買うだけむだ?」というような記事を見つけたとします。

絶対クリックしますよね?

2CHまとめなんかが以上にSEOに強いのも、クリックしたくなるような表題をつけていることが多いからだと思います。

「3マタがばれて修羅場になった結果…」

「好きな深海魚ランキング」

「こんな生物が地球上にいたなんて…」

「中居正広の本名」

「こんな美少女と付き合えるならオマエラなにする?」

「悲報!ノウネンレナが!」

適当に列挙しましたが、どれも思わずクリックしてしまうような記事タイトルのつけかたですよね。

まぁ、全てタイトル詐欺なんですが…

 最高のSEO対策は、グーグルにではなく人に向けて記事を書くことだと思う

3d726a89b8c25ffd9950bedc47356813_s

アフィリエイトをやっていると、「誰に向けて」記事を書いているのか忘れがちになりますよね。

SEOがなんちゃらかんちゃら言ってきましたが、結局はそのサイトが「役に立つものなのかどうか」ということなんだと思います。

そのキーワードで検索した人が、そのサイトを見ることで満足するのか?

結局、気にするべきなのはそこだけなのでは?

と思ってしまいますけども。

本当の所はまぁ、誰にもわからないんでしょうな。。。

2件のコメント

  • たかぼん

    すばらしい記事ですね、何度も読んでしまいました。一昔前は騙しリンクなんてものもありましたが今はネガティブキーワードが主なんですね、実際によく見かけますし。
    ショートレンジのような寿命の短いサイトならそういう方法も有りなのかもしれませんが、長くサイトを運営しようと思えばやはり読者の事を考えたサイトにするのが一番安定するんでしょうね。

    • keller

      たかぼんさん

       コメントありがとうございます。
       
       ネガティブキーワードはとても多いですよね。

       そして、実際クリックしてしまいます。

       週刊誌の袋とじみたいなものですかね。

       中身は期待通りでないことを知っているのに買ってしまう(^^;)

       これは単なる予想なのですが、これから先はグーグルは滞在時間と直帰率の重要度を高めるのではないかと思っています。

       中身の質が高ければ滞在時間は増える、とグーグルが考えるようになるのではないかと。

       そうでないと、ネガティブキーワードだらけになってしまいますからね。