非SEOアクセス・コンバージョン率アップ研究

ブログやWEBサイトのアクセス数を上げる方法、広告クリックやお問い合わせ件数を増やすコンバージョン率アップの手段を考えましょう。SEO以外で!

Googleアウルアップデート 不正確情報を排除する仕組みについてまとめてみる(後編)

Googleアウルアップデートの要点をまとめてみるエントリ。前編では検索画面のオートコンプリートと強調スニペットについたフィードバック機能の拡充について解説をした。

noseo.hatenablog.com

今回後編で解説するのは、検索順位を決定するアルゴリズム自体に、Googleがどのように不正確情報の混入を防ぐ仕組みを追加したかである。前編でまとめたウェブマスター向けブログでのアナウンスの他に、インプレスのサイトWeb担当者Forumが本件についてGoogle担当者に行ったインタビューもソースとして、まとめ直してみよう。

検索順位決定プロセスにおいての改善

検索順位決定プロセスにおける改善点としてアナウンスされていたのは、2つの項目。1つめがアルゴリズム変更時にテストを行う評価者向けガイドラインの変更で、2つ目はアルゴリズム自体の調整である。

評価者向けガイドラインの変更

そもそも、評価者(Search Quality Evaluatorsないしraters)というものが何なのかというところから。評価者とは、Google検索エンジンアルゴリズムによってはじき出した検索結果に対して、人の目によるチェックを入れる存在である。評価者は全世界で1万人が雇用されており、その中に日本人も複数人存在する。評価者は専用のツールを使用し、特定クエリに対して帰ってきたGoogle検索結果の1件1件について、Page Quality(ページの品質)とNeeds Met(検索者の要求を満たす結果であるか)を9段階に評価する。

この評価者による評価が個別ページの評価に直接影響するわけではなく、あくまでアルゴリズムを改善していくにあたって、改善の必要がある部分を特定する際の参考とするだけであるようである。

今回変更されたのは、この評価者に配布される評価付けのためのガイドライン公開済、英語、PDF)に、低評価とすべきページの具体例として誤解を招く情報や予期せぬ不快な検索結果、悪意のある行為、根拠のない陰謀説などの詳細な例を追加し、評価者がそれらのページに低評価を与える判断をし易くした。これまでは評価者に暗黙的に委ねられていた部分(ページを評価する際にそのページの意図を掴むことや、ページの評判を見て判断することなどはガイドライン記載済みだった)をより明確にしたのである。

信頼性の低いページを判断し順位を下げるシグナルの調整

そしてアルゴリズム自体の調整であるが、詳細な方法は語られていないものの、これまでよりも信頼性の低いページの順位を下げるための調整が入ったようである。Googleのアナウンス自体には記載されていないが、Web担当者フォーラムのインタビューと質疑によれば、YMYL(Your Money, Your Life、お金や健康などに関わること)分野における順位決定アルゴリズムにおいて、情報の正確性をはかるシグナルの重み付けを上げるなどしたようである。

アウルアップデートに対して気になる疑問点

以上の対応によって、Googleの検索結果上位に"ホロコーストはなかった"ページや、不正確情報の医療キュレーションサイトが登場する可能性が低くなったということらしい(医療キュレーションサイトについては、依然状況が改善されていないという調査結果も出始めているけれども)。

ただこうした不正確情報をはじくアップデートが、本来はじかなくても良いページまでもをはじいてしまう結果になるのではないか、という疑問も当然ながら持ち上がる。

ジョークサイト・ページ等が検索結果に出なくなってしまうのでは?

フェイクニュースが検索結果からはじかれてしまうのであれば、たとえば虚構新聞のような明らかにジョークとわかるニュースを掲載してアクセスを稼いでいるサイトはどうなってしまうのだろうか。これについては、個人的にも大変興味のある所で、アウルアップデートの影響がそういったジョークサイトにどれほどあったのか詳細なデータを知りたくもある。

アルゴリズムにおいてそうしたジョークサイトと悪質なフェイクニュースサイトの区別をどうつけているのか(そもそもつけられているのか)は不明であるが、少なくとも評価者向けガイドラインには先述の、ページを評価する際にそのページの意図を掴む例として、ジョークサイトを悪質とみなして最低評価をつけてしまわないようにする例が挙げられている。したがって評価者側からジョークサイトに低評価が与えられてしまう可能性はそこまで高くはないと言えるだろう。

エイプリルフールなどのジョークページ企画はサイトの評価を落とす?

最近はかつてのような盛り上がりがないのだが、エイプリルフールである4月1日に合わせてわざと嘘ニュースであるとか、嘘製品の情報であるとかをサイトに掲載するというインターネット上の風習がある。なにしろGoogle自身も率先してそれをやっているのだが、もしフェイクニュースの評価がアウルアップデートによって下げられるのであれば、それがサイト全体の評価に影響を与えないよう、今後は慎んだ方が良いのではないだろうか。

これについては、そもそも現在においてはページの評価はページで完結しており、サイト全体に影響を与えないということが言われている。Web担当者フォーラムのインタビューでもそうした質問(Q.では、「サイト」という単位はコンテンツの品質評価には何も影響を与えていないのか。)に対して、そのような回答(A.あくまでも、われわれの評価基準は「この検索クエリに対して、このページは関連性があるのか」というもの。そのため、サイトという単位は影響しない。)で念が押されている。つまり、もしジョークページに低評価が与えられる結果となっても、それが大元のサイトの他のページの評価に影響を与えないので、忌避する必要はないのである。

勿論こういったものは現状がそうであるというだけで、今後のアルゴリズムの変更次第によっては状況が変わってくる可能性がある。Googleの方針として不正確情報を検索結果に出さないアルゴリズムを目指していることは明白なので、あくまでリスク意識は持っておいて良い。

Googleアウルアップデート 不正確情報を排除する仕組みについてまとめてみる(前編)

2017年4月26日、Googleのウェブマスター向けブログにおいて、Google検索における最新の品質向上についてと題された記事が公開された。

今回のGoogleアナウンスメントの内容

要点を搔い摘んでまとめてみると、このような感じに。

検索結果として関連性の高い情報が出てくるようにするためGoogleはこれまで努力してきたわけだけれども、フェイクニュースに代表される検索エンジンを出し抜こうとする新たな手法も登場している。ついてはよりインパクトのある改善をするため、これまでとは異なった構造的なアプローチをとることにした。まず検索順位の決定については、アルゴリズム変更時にテストを行う評価者のためのガイドラインを変更し、また順位決定時にコンテンツの信頼性の高さが反映されるような再調整を行った。そして検索画面の機能については、オートコンプリートで出てくる候補にたいして違反報告ができるようにし、また既にそういったフィードバック機能がある強調スニペットについては、違反内容を明確化できるよう選択肢を追加した。合わせて、公開しているコンテンツポリシーも更新しておきました。

検索画面の機能追加・改善について

あまり重要でないコンテンツポリシーの更新を除けば、全部で4種類の変更を行ったことになる。その内下の方の2つ、検索画面の機能追加について前編で触れることにしよう。

オートコンプリートの違反報告が可能に

まず、オートコンプリートの違反報告の話。オートコンプリートというのは、検索フィールドに文字を入力している最中に検索語句を予測して候補を出してくれる仕組み。さらに何か単語を入力してある状態でスペースを押すと、共起語の提案もしてくれる(「マストドン」と入れてスペースを押すと、「マストドン インスタンス」とか、「マストドン アプリ」とか)。ここにふさわしくない候補が出たら、検索画面からそのまま報告できる仕組みが付けられた。

f:id:hadanon:20170502055748j:plain

そもそもGoogleが不正確な情報として槍玉にあげているのが、ホロコーストがなかったという検索結果の例だったので、それに近いものを探してみた。こういう機能をつけてしまうと、上記の例のような民族・集団にとってデリケートな問題の違反報告がひっきりなしに舞い込んでしまうのではないかと心配するのだが、そうして集めた報告は即時自動的にアルゴリズムに反映されるわけではなく、今後のアルゴリズムの改善に活用する、と書くにとどまっている。ホロコーストの例にしろキュレーションサイト問題の例にしろ、どちらもぶわっと盛り上がって炎上した感があるので、それに対する一種のガス抜き的な側面が大きいのかもしれない。

強調スニペット違反報告の選択肢を追加

強調スニペットというのは、検索結果の一覧より上に出てきて、質問に答えてくれたり基本情報を返してくれたりするボックスのことである。ちなみによく似たものにナレッジグラフというものもある。

f:id:hadanon:20170502065628j:plain

このように質問に対するジャストな回答をしてくるのがナレッジグラフ(すごく、不正確な回答として報告したい返しですが…)。

f:id:hadanon:20170502074806j:plain

一方上図の"ハロウィンっていつ?"と書いてあるのが強調スニペットで、前面に出ているのがフィードバックのリンクを押した際に出てくるポップアップである。ポップアップ自体は以前からあり、スニペットの内容が役に立ったかどうかについての選択肢中心だったのだが、改善後は人種差別的とか下品とか暴力的とか、そういった理由による違反報告が出来るようになっている。

前編の内容からの結論

という形で、フィードバック機能を拡充している。おそらく膨大な数のフィードバックがGoogleに返ってくると思われるので、反映が行われるとしてもある一定以上の件数が貯まったものに限られるだろう。とにかく重要なことは、ここで集まったフィードバックを反映させる仕組みについては言及されていないということだ。今後フィードバックの反映がアルゴリズムの一部に組み込まれるのか、あるいは今回のようなインパクトを与える構造的なアプローチの必要性を嗅ぎ取るために使われるのか、その辺りは不詳なので、この機能追加に対してウェブマスターがどのように対応するべきなのか、現状指針は特に無いと言えよう。

後編で説明する変更点の方がより大事。後編に続く。

MastodonでSEOに有益なリンクを稼ごうとしておそらく上手くいかなかった件

Twitterに代わるマイクロブログサービスとして、Mastodonマストドンがここのところ話題となっている。アーリーアダプターとなったいち学生が運営するインスタンス、mstdn.jpや、ニコニコ動画を運営するドワンゴインスタンスfriends.nico、それからイラストコミュニケーションサービスのpixivのインスタンスpawoo.netなど国内のインスタンスも充実して、現在ではこの3インスタンスのユーザ数合計だけでも21万アカウント以上の登録があるという(参考データ:https://instances.mastodon.xyz/list)。

TwitterMastodonの仕様上の違い

TwitterMastodonの違いだが、なんといっても重要なのは前者がソースコードを公にしていないプロプライエタリなソフトウェアであるのに対し、Mastodonの場合はユーザが自由にソースコードを閲覧し、場合によってはカスタマイズして利用することの出来るライセンスで配布されているソフトウェアであるということである。Twitterの場合、大元のプログラムで何かしら変更があったとしてもユーザはそれを完全には検知できない。一方、ソースコード公開義務のあるAGPLライセンスのMastodonでは、ソフトウェアに対する変更を公開しないとライセンス違反となるため、検知できる可能性が比較的高い。

さらに、ソフトウェア部分以外の違いとして、TwitterのソフトウェアによってTwitterマイクロブログサービスを運営するのはTwitter社ただ1社であり、同サービスを利用して公開したツイート等の財産について、Twitter社のポリシーに反すると判断された場合ユーザ側の公開権利は保証され続けない。一方Mastodonの場合には、インスタンスの運営者は無数に居るため、あるインスタンスのポリシーに引っかかるようであれば別のインスタンスに移動すれば良く、また自身がインスタンスを立てることにより自身の財産と権利を保証しつつサービスを利用し続けることも出来る。

MastodonSEOに活用できないか、と思った理由

そんなわけで、噛み砕いて言うならば普段からTwitterで毒にも薬にも財産にもならない発言をしているユーザにとっては、Mastodonに積極的に移行する理由は無い。どちらかというとユーザ目線でのメリットを感じて移行が取り沙汰されたというよりは、Twitterのようなマイクロブログサービスのソースをいじってみたいとか、サービスの管理者側に立ってみたいとかいった開発者・運営者側の思惑が寄り集まって、国内での異様なブームが形成されていった感がある。

で、私としては今回のブームはスルーするべきだろうと考えていたのだが、ふとした思いつきで、このMastodonのソースを自由に改竄した上で既存の大きなネットワークに投稿が出来るという性質は、上手く利用するとSEOに役立てることができるのではないか、と気付いた。

具体的には、外部から対象となるサイトへの、評価を上げるリンクの獲得である。Twitterでもそのようなことはできるのだが、大体下図のようなイメージになる。

f:id:hadanon:20170425161143j:plain

結論:あんまりオイシくない!となっているのは、まずTwitterから発せられたリンクに自動的に付与されるrel="nofollow"属性のせいであり、このnofollow属性が付くことによって、検索エンジンに対して「このリンクはページの評価上おおむね無視しちゃって下さい」というメッセージが与えられているのである。

もう一点。たとえばさくらアカウントをA、B、Cと3つ作成して、それぞれのアカウントからリンクを発したとして、リンク元ドメインtwitter.comという同一ドメインである。リンク先の評価を上げるためには、なるべく広範なドメインから別々にリンクを貰っていた方が、検索エンジンの覚えもめでたい。理想を言うならば、twitter.comからは得られるギリギリまでリンクの恩恵を貰いつつ、拡散によって他のドメインからもリンクの恩恵が加算される、そんな効果を期待したいのである。

Mastodonのソースを少しいじってみよう

rel="nofollow"が自動的に付いてしまう問題を①、リンク元ドメインがばらけない問題を②とするならば、②についてはMastodonのアカウントをほうぼうのインスタンスに作成してそこからリンクを貼ることによって解決する。ただもし①の問題を自分で立てたインスタンスソースコードをいじることで解決し、nofollowのないリンクのついたトゥート(Twitterにおけるツイート)を上手くMastodonのネットワークに潜り込ませることが出来たのならば、各インスタンスに作成したさくらアカウントから該当トゥートをブースト(Twitterにおけるリツイート)することで、どのドメインからもnofollowのついてないリンクが獲得できるのではないか、と考えた。

f:id:hadanon:20170425163421j:plain

というわけで、早速手許の環境にMastodonのソースを落としてくる。ローカル環境でテストが出来れば良いので、Dockerの仮想環境上でビルドする。やり方については、以下のサイトを参考にさせていただいた。

ai-create.net

初回ビルドと仕様の確認

まず、ソースコードをいじらずにそのままビルド。途中失敗してエラーが何回か出たけれども、再起動や再ビルドでなんとか起動にこぎつけた。

f:id:hadanon:20170425164538j:plain

ローカルの管理画面上で、トゥートの投稿やローカルタイムライン、連合タイムラインのチェックができる。試しにリンク付きトゥートを一つ投稿して、この管理画面上でのリンクのソースを覗いてみる。

f:id:hadanon:20170425165346j:plain

管理画面上でのリンクには、rel="noopener"というTabnabbingを防ぐための属性は付いているが、rel="nofollow"が付与されていない。つまりデータベースに格納された地の文の時点で、リンクにnofollow属性がついてしまうわけではない。

一方、このアカウントにhttps://サーバ名/@アカウント名という形のアドレスでアクセスした時のプロフィールページでは、リンクがrel="nofollow noopener"となっている。

f:id:hadanon:20170425165846j:plain

f:id:hadanon:20170425165909j:plain

おそらくデータベースにある地のリンクを、プロフィールページなど外部公開する際にnofollowをつける成形処理が噛んでいるのだろう。

ソースコードをいじって再ビルド

一旦ビルドしたMastodonをここで破棄して、ソースコードをいじって再ビルドである。とは言うものの、Rubyのソースなどいじったことはないのである。処理の依存関係が分からないので、Mastodonフォルダ以下をnofollowで検索して、それっぽい処理を行っている箇所を探す。

どうやらmastodon/app/lib/formatter.rbの57行目において、rel: 'nofollow noopener'と指定しているようである。このnofollowだけを削って、rel: 'noopener'として保存。再ビルド。

f:id:hadanon:20170425171123j:plain

これでリンクを含んだトゥートをしたらどうなるだろうか。再びプロフィールページに飛んで、該当部分のソースを見る。

f:id:hadanon:20170425171353j:plain

ちゃんとrel="noopener"だけになっているのである。これでプロフィールページ上のリンクからnofollowを外すことが出来た。

ただ、この再ビルドによってソースコード中でのnofollow指定を外す前に行ったトゥートのリンクについてもnofollowが外れていたので、結局リンクに対する成形処理が起こるタイミングは、検索エンジンのクロールが期待できる外部向けページが発行される際であり、つまりいかに自分のインスタンスnofollowリンクのつもりで流そうが、ブーストする側のformatter.rbからnofollow指定が落ちていない限り、nofollowは付与されてしまう、ということが分かった。

結論:上手くいかない

Mastodonの存在と仕様を最初に耳にしたとき、真っ先に思いついたのはマイクロブログの大きなネットワークに個人運営・個人ビルドのインスタンスを参加させることで毒でも流されたらどうするの?ということであった。それがユーザ目線での生理的な忌避感に繋がっていたのだけれども、今回の記事では毒を流す側の目線に立ってみてどのようなことができるか考えて、正直結構ワクワクした。

つまり、Mastodonに現在積極的に飛びついて皆さんやりましょうやりましょうと唱和している方々って、TwitterからMastodonが主導権を奪ったときに、どのような毒が流せるだろうか、とワクワクしている人達だと思う。程度の差こそあれ。

というわけで、個人的にはユーザ目線での忌避感をこれからも大事にしていきたいと思うのでした。まあそんなことより、今回のエントリに書いたリンク獲得のイメージで、もう少し上手いやり方があったら教えて下さい。nofollowについて上手く解決できなかったけれども、リンク元ドメインが分散できるとか、リンク周辺のテキスト文字数に500文字という余裕があるとか、Mastodonなりのメリットは存在するので、そこのところも上手く解決できれば今後活用の途も開けるのでは、と思うのですよ。

 

(追記)

突き詰めると、Twitter::Autolinkを騙す不正な入力ができるかということになりそう。そしてそれは結構難しそう?

Topsyがついにサービス停止 ツイートからのリンク分析が面倒に

twitterでのつぶやきからWEBサイトのコンテンツに向けて貼られたリンクは、コンテンツがどれほど話題になっているのか調べる指標となるとともに、どういった傾向をもつ集団がサイトの広報・拡散に一役買ってくれるのか調べる指標となり得る。

だからこそt.coからのリンク分析は大切、なわけだけれど、そうしたリンクの分析に便利なサービスが、ひっそりと生涯を閉じてしまった。

Appleに買収されたTopsy、サービスを停止

その便利なサービスの名前はTopsy。2007年より8年間運営したTopsyは、コンテンツのURLを貼り付けると誰でも簡単にツイートから向けられたリンクを調べることができた。また、ドメイン名を入力することで、そのドメインの全コンテンツに対してのリンクを1時間以内、24時間以内、7日以内など条件を付けて表示することが出来た。TwitterとのFirehose契約を利用したサービスであったのだが、これのおかげでサイトがBuzzった場合の犯人探しが(もし誰かしらのツイートによるものであった場合)お手軽に出来たのだ。

このTopsy、遡ること2年前の2013年12月に、Appleによって2億ドル以上の金額で買収されている。買収後もWEBブラウザ上のサービスは継続して利用できる状態であったが、API提供は停止していた。

そして、今年の12月16日の公式ツイートを最後に、topsy.comへのアクセスはAppleのサポートに強制リダイレクトされるようになってしまった。

 買収から2年間放置状態であったことを考えると、Appleから代替サービスが提供されることは無いだろう。あくまでTopsyのもつツイートデータベースを内部的に利用するための買収であったと噂されている。

Topsyの代替サービスはほとんどが有料

無くなってしまったTopsyの代わりに同様の機能を提供するサービスもあるにはあるのだが、知る限りにおいては有料のサービスばかりだ。Googleアナリティクスのバックリンク解析も、t.coを挟んでしまっているとダイレクトにリンク元アカウントを特定できない。せいぜいTwitterのユーザアカウントを取得して、検索窓にドメインを入れてエゴサーチするくらいが方法だろうか。

便利で分析ツールとしてもスマートだったTopsy、享年8歳に追悼。

はてなブログのアクセス解析 少し集計がおかしくなっているようで…

本日発生している(ちょっと面白い)現象についての言及であって、はてなブログアクセス解析が恒常的におかしいという話ではないので悪しからず。

 

はてなブログには簡易的なアクセス解析機能がついており、自分のブログがどれほどページビューを獲得しているのかや、どういったサイトから主に訪問者が流入しているのかなどを知ることが出来るようになっている。ただ勿論、本格的な分析を行える程おおげさなツールではない。本格的な分析を行うならば、無料のGoogleアナリティクスを導入しよう。


はてなブログのアクセス解析ではなく、Googleアナリティクスを使おう - 非SEOアクセス・コンバージョン率アップ研究

で、本日2月28日に、このはてなブログのアクセス集計がバグっている。原因は不明なのであるが、エントリを公開したその瞬間で1000PVもの閲覧がカウントされてしまう。流入元とされているのは、はてなブログのトップページから飛ぶことの出来る新着エントリー(http://blog.hatena.ne.jp/-/recent)のページ。このページから一瞬にして大量のアクセスがカウントされてしまうため、はてなブログアクセス解析の仕様上、その他の割合的に少ないアクセス元情報が取得できなくなってしまう。

f:id:hadanon:20150228172632p:plain

Googleアナリティクスに聞いてみると、投稿の一瞬で1000PVもの閲覧があったというデータはない。投稿時間にhttp://blog.hatena.ne.jp/-/recentから飛んできたユーザは1名いるけれど、特段怪しい行動もとっていないようなのだ。結論としては何かしらのアタックがあったというわけでもなく、やっぱりはてなブログ側の表示バグということになるだろう。

ということで、もしブログのアクセス解析について、はてなブログデフォルトのものを利用してデータをとっているユーザがいたら、このトラブルについて解決されるまでは、投稿をしないことをオススメする。

検索エンジンGoogleシェアの減少&GoogleにTwitterリアルタイム検索の復活など最近の動き

昨年2014年は、Googleにとって大きな転換の年であったと思う。で、それは果たしてどのような大転換であったのか、昨年にあった出来事をまとめてこのブログのひとつのエントリにしようとしばらく画策していたのだけれど、予想以上に手こずってしまっている。手こずった理由というのが、Google関連の出来事の多くが、同社のそれまでの戦略への見直しと考えることが出来る動きであり、したがってきちんと説明するためには当の戦略が一体いつ頃から始まったのか調べて、そこから説明しなければならないというわけなのだ。大変面倒臭い(笑)。

でもそうこうしている内に、2015年に入ってからのGoogleの新しい動きなども登場してきた。そこで昨年の動きをまとめるのは後回しないし断念して、リアルタイムな動きについて触れる方向に切り替えていこうと思う。リアルタイムな事象に触れる過程で、2014年の戦略転換についても、きっと言及ができるはずだ。

Mozillaとの提携解消により、Googleの米国内シェアが75%を切る

昨年12月のニュースとして伝えたのが、Firefoxの米国におけるデフォルト検索エンジンがGoogleからYahoo!へと切り替えられたというもの。この切り替えの影響が、アイルランドのStatsCounterというアクセス解析サービスの検索エンジンシェアレポートに現れており、2015年1月のモバイル環境を除いたGoogleシェアは前月より4.1%ダウン、その減少分をYahoo!がまるまる獲得している。さらに2月の数字では、GoogleシェアがStatsCounterの調査開始(2008年7月)以来初めて75%を割り込んだようである。

Googleにとって、このシェア減少はFirefoxユーザのデフォルトブラウザが変更になったという原因の分かっている出来事であり、たとえばユーザのGoogleに対する否定的評価の発現といった、検索エンジン運営における根幹を揺るがすような出来事ではない。けれども、これからも続々デフォルト検索エンジン契約でライバルに囲い込みを行われ続けるようであれば、ユーザ体験の改善など地道な努力によるシェアの上昇では追いつかない、見た目上のシェアの減少が観測され続けるだろう(デフォルト検索エンジンでなくなってもGoogleを選り好むユーザばかりではないということだ)。そして、広告主に向けてのアピール力を削がれることとなる。

この一件で、ライバルよりも良い条件を提示してブラウザのデフォルト検索エンジン契約をとり続けることの重要性を、Googleはより強く認識したことだろう。そして、Googleとの間のSafariデフォルト検索エンジン契約が今年で切れるAppleは、このようなデータが現れたことに、内心ほくそ笑んでいるに違いない。

Twitterとの再提携で、リアルタイム検索の復活

もう一つのニュース。現在Google検索では、Twitterユーザのつぶやきがリアルタイムに表示されていない。以前のGoogleであれば、検索結果の上部にリアルタイム検索へのリンクが表示されていたということを覚えている人も多いと思う。

このツイートのリアルタイム表示は、Twitter社のリアルタイムツイートデータベース(Firehoseと呼ばれる)にアクセスする権利をGoogle社が得て実現していた。2009年から2011年まではGoogleTwitterが提携していたのであるが、2011年7月以降は提携が解消されてしまい、上述の機能が使えなくなってしまっていたのだ。

何故2011年に提携関係を解消してしまったのか。Googleがツイートのリアルタイム検索を提供することに(競合やそれに特化したサイトもあるため)それほど魅力を感じなくなったからなど、理由は幾つも想像できるが、中心的な理由として、同じ2011年にGoogle謹製のSNSとしてGoogle+のサービスを開始したということが挙げられるだろう。

2014年は、Google+を諦めた年?

Googleは自家製SNSGoogle+を育てるために、検索順位決定のためのアルゴリズムにおいてオーソリティという概念を大々的に導入し、meta authorタグの使用とともに普及に努めた。Google+に登録した著者の顔写真(ただし、きっちりと顔と識別できる高解像度の写真でなければならなかった)を検索結果の横に表示するようにするなど、検索とGoogle+の連携について苦心の跡がうかがえる。

このGoogle+については、TwitterFacebookなど既存のSNSに取って代わるというだけでなく、GoogleAndroid OS戦略とも相乗効果が期待されていたのではないかというのが、個人的な印象である。本名&顔写真の登録が義務づけられたGoogle+のアカウントがあれば、いちいち連絡先を登録しなくても携帯電話の発信元が分かる。連絡先データベースの信頼性はGoogleが担保するというような仕組みで、検索とSNSとガジェット3段構えで競合に勝利しようとしていたのではないか。

そうした囲い込み戦略は、Google+TwitterFacebookなどの先行者達の市場に思った程食い込めなかったということで、成功の思い描けない絵空事となった。そこでGoogle+は、囲い込み戦略のキモとなる信用を担保するSNSをやめて、普通のSNSへの脱皮を図ろうとする…

2014年7月には、Google+の本名登録の原則を取り下げる。そして9月には、検索結果の横のGoogle+登録写真を使った著者情報表示もやめてしまう。このような動きを見ると、2014年というのは、GoogleGoogle+に大きな戦略的役割をもたせることを、諦めた年ではないかと思うのだ(Google+プロジェクトの象徴的人物、ヴィック・ガンドトラ氏が2014年4月に退社したことも、一つの区切りだったのかもしれない)。

 

2015年になってTwitterとの再提携、Google検索でのリアルタイム検索復活への動きが見えたことは、Googleが自社サービスによる囲い込み戦略を打つ勝者の戦い方をやめて、挑戦者としての戦い方を思い出したということなのかもしれない。

 

Googleアナリティクスで検索キーワード(オーガニック検索)が集計されなくなった!?

WEBサイトにやってくる客層を分析するために、主にGoogleアナリティクスを利用しているという管理者は多いであろう。導入がまだならば是非導入してみるべきであるし、はてなブログに導入する場合は特に手順が簡単であるので、とりあえず入れてみて段々と何が分析できるのか把握、サイト作りに活かしていくことをオススメしたい。


はてなブログのアクセス解析ではなく、Googleアナリティクスを使おう - 非SEOアクセス・コンバージョン率アップ研究

オーガニック検索ができなくなった?

さて、このGoogleアナリティクスであるが、他のGoogleのWEBアプリケーションと同じように、勝手にアップデートが導入され機能が増減したり、GUIが変更になったりというようなことが度々起こる。今年に入ってからやはりアップデートにより、Googleアナリティクスの一番需要のありそうな機能、検索エンジンからの流入キーワードの表示(オーガニック検索)があるべき場所から消えてしまった。これにより、とうとうアナリティクスからの流入キーワード分析ができなくなり、WEBマスターツール経由の漠然とした分析に一本化されてしまったのではないか…という反応が散見されたので、解決方法(?)をまとめておこうと思う。

オーガニック検索は集客>キャンペーン以下に

それまでオーガニック検索というメニュー項目が存在していたのは、画面左メニューの集客>キーワード以下であった。今回のアップデートで集客ツリーの下の項目が増減し、キーワードという項目がなくなってしまったため、従来通りの操作に慣れ親しんだユーザが混乱しているわけである。

そこで、他にキーワード集計を行ってくれそうなメニュー項目として、集客>検索エンジン最適化以下の検索クエリという項目を見てしまう。GoogleのWEBマスターツールと連携を行っている場合、この場所にもキーワードが表示されているが、WEBマスターツール経由で集計したものなので、ヒット数が概算表示であったり、集計が上がってくるのが遅く、たとえば本日の流入データなどが参照できなかったりとこれまで通りの分析ができなくなっている、ように見える。そこで、早合点なWEBマスターは、「GoogleがとうとうGoogleアナリティクスの機能を制限し始めたのか…」と誤解をしてしまう。

実は、従来のオーガニック検索は生きている。集客>キャンペーン以下を見ると、オーガニック検索の項目が確認できるはずである。

f:id:hadanon:20150116031244p:plain

分かりにくいことこの上ないのであるが、とりあえず従来通りの分析ができるということで、一安心。早合点なWEBマスター(まあ、私なんですけどね)もこれでニッコリ。