yogo-r

リファラー

リファラー(Referrer)とは、ユーザーがあるWEBページを訪れる際に経由したページのことです。

あるWEBページを訪れる直前に閲覧していた「参照元ページ」を指します。リファラ(Referer)と呼ばれることもあります。

リファラー情報はWEBサーバーに蓄積される情報を分析することで判明します。

一般にGoogleアナリティクスなどのツールを活用することで、参照元をチェックすることができます。

ログデータのリファラーを解析することで、ユーザーがどのようなルートを辿ってサイトに訪れたのかを把握すると同時に、アクセス者数が増加・減少した原因を突き止められます。

その他にも、検索サイトだけでなく、検索キーワード、外部のWEBサイトなども調査することができます。

 

一方で、参照元がわからない場合もあります。これを「ノーリファラ」と呼びます。

ブックマークやお気に入りからのアクセスやQRコードの読み取りからのアクセスなど、サイトにアクセスする「前」のページが存在しない時にリファラは取得できません。

このようにリファラーの分析はSEO対策にも役立つと同時に、ユーザーがWEBサイトに何を期待しているのかを知ることができます。

サイト運営者はこの機会に覚えておきましょう。

 

リンクビルディング

リンクビルディング(Link building)とは、インターネット上にある他社のWEBサイトから自社のサイトに対して被リンクを獲得したり、その質を高めたりすることです。

そのため他サイトから多くのリンクを受けていればいるほど、Googleを始めとする検索エンジンからの評価も高まります。

 

しかし、人工的な形でリンクを調達するリンクビルディングは、Googleの定めるガイドラインに違反しているとして、インデックスからの削除や検索順位の低下など、ペナルティを受けるリスクが高いです。したがって、リンクビルディングを行う際には注意が必要です。

悪質な手法を駆使して、検索結果ページを不正に上位表示させる行為はブラックハットSEOと言われますが、リンクビルディングもこの考え方に近いです。

そんなブラックハットの手法は検索キーワードを大量に盛り込んだり、ユーザーのアクセスに対して他のホームページを表示させたりします。

つまりブラックハットSEOは、WEBサイトの内容がユーザーにとって有益かどうかを度外視する手法だと言えます。

 

対して、Googleのガイドラインに沿ったSEO対策を講じることをホワイトハットSEOと言います。

以上を踏まえて最終的に言えるのは、「自然な形でのリンク獲得が望ましい」ということです。なぜなら、Googleアルゴリズムの抜け穴をかいくぐった手法は正攻法のSEO対策とは言えないからです。

そして、質の高いコンテンツをユーザーへ提供し続けることが第一に求められます。

WEBサイトの検索順位を上位に表示させたいサイト運営者は、ブラックハットSEOではなくホワイトハットSEOをするようにしましょう。

 

リンクファーム

リンクファーム(Link farm)とは、検索エンジンスパムの一つで、SEO対策を目的とした相互リンクを不自然かつ大量に設置しているWEBサイトのことです。

そこにはコンテンツの関連性が全く見られないことから、評価の方法が問題視されてきました。

しかし、2012年にGoogleがペンギンアップデートを導入して以来、事態は一変しました。

それまではユーザーにとって有益なコンテンツではなかったとしても、相互リンクが大量に設置されている状態のWEBサイトは、検索順位の上位に表示されるようになっていました。

ところがペンギンアップデートを境に、評価されなくなった悪質なサイトが順位を下げると同時に、良質なサイトを高く評価され上位に表示されるようになりました。

 

このようにリンクファームは、SEO対策を目的とした人為的なブラックハットSEOの1種だと言えます。

反対に、リンク設置の仕方に意味のあるWEBサイトが、リンクファームと呼ばれることはありません。

スパム行為と知らずにリンクファームをやっており、ペナルティを受けて初めて不自然な相互リンクを自らがしていたことに気づくケースもあります。

Googleからペナルティを受けないためにも、自身の運営サイトに不自然なリンクが含まれていると感じた方は、前もって手を打っておきましょう。

 

リンクポピュラリティ

リンクポピュラリティ(Link popularity)とは、バックリンク(被リンク)の「数」と「質」を元にWEBサイトを評価する考え方のことです。

その代表的なものがGoogleの「ページランク」になります。

アクセス数が伸びていたりコンテンツの質が高かったりするWEBサイトは、ユーザーからの支持も高く有益であるため、必然的に優先して上位に表示されます。

このようにユーザーからの人気度が高いWEBサイトを、検索順位の上位に表示させる仕組みをリンクポピュラリティと呼びます。

検索エンジンがサイトをランキング化する際の指標の1つと言えます。

 

そんなリンクポピュラリティを考える上で、外部リンクの「数」と「質」は何よりも大事です。なぜなら、Googleを始めとする検索エンジンは外部リンクを「サイトの人気度や重要度を測る指標」だと考えているためです。

また、SEO対策を講じる際には注意しなければならない点があります。

それは「スパム行為が原因で検索順位が下がってしまうこと」です。こうした状態を放置したままでいると、せっかく良質なコンテンツを発信していたとしてもGoogleから高い評価を得られなくなってしまいます。

自然にリンクを獲得してSEOの効果が得られるように、スパム行為の要素が少しでもあれば排除しつつ、良質なコンテンツを数多くユーザーに提供するように心がけましょう。

 

リンクレピュテーション

リンクレピュテーション(Link reputation)とは、リンク元となるWEBサイトのアンカーテキストの情報(文字列からその内容)を元に判断して、リンク先のWEBサイトを評価するアルゴリズムの1つです。

Googleでも採用されており、SEO対策の観点から重要視されています。

リンクレピュテーションやリンクポピュラリティなどのアルゴリズムは、Googleを始めとする検索エンジンにおける検索結果の品質向上を目的としています。

そもそもレピュテーションという英単語には「評価」「評判」という意味があります。

そのため外部サイトからの客観的な評価も、表示順位を決める際の判断材料となります。

なぜなら、WEBサイトの内容の良し悪しを内側だけで評価しようとすると、ユーザーの検索意図に沿った適切なランキングではなくなってしまう恐れがあるからです。

 

リンク元のアンカーテキストに重要なキーワードやリンク先のサイトと関連性の高いキーワードを盛り込むことで、リンク先のWEBサイトが高く評価されるようになります。

外部サイトでリンクが貼られているWEBサイトほど、検索上位に表示されやすくなります。

このようにリンクレピュテーションでは、WEBサイトを内側だけではなく、外側から評価するアルゴリズムを指します。

しかし、リンクレピュテーションによるSEO対策を自社で行うのは、Googleから不正と見なされると同時にWEBサイトの評価も下がってしまいます。

SEOの効果を得たいあまりに、スパム行為をしないように注意しましょう。

 

リンク切れ

リンク切れ(Broken link)とは、自社サイトのWEBページに設置してあるリンクの遷移先がHTTPステータスコードで404 Not Found により、アクセスすることが出来なくなってしまっている状態を指します。

デッドリンク(Dead link)と呼ばれることもあります。

そんなリンク切れが生じる原因は大きく2つ考えられます。以下の通りです。

 

①WEBサイト作成者によるリンクの貼り間違い。

②リンク先のWEBページが閉鎖・移転などで削除されている。

 

そして、リンク切れによるデメリットは以下の通りです。

・ユーザビリティの低下

・SEO効果の低下

 

このようにリンク切れが起こることで、ユーザーの利便性を損なってしまいます。

その上、SEOにも良くないとされています。検索エンジンからの評価が低くなり、検索順位も下がってしまいます。

そこで有効な対策がカスタム404ページを作成することです。探している情報を最終的には見つけ出せるように、検索ユーザーを導いてあげることが求められます。

また、チェックツールを活用することで、リンク切れが生じていないかを確かめることができます。

WEBページがリンクの遷移先にアクセスできなくなっている場合には、問題点を明確化して一刻も早く改善するようにしましょう。

 

レガシー

レガシー(Legacy)とは、「遺産」、「過去の遺物」、「先人の遺物」、「旧式の」、「古い物」、「時代遅れの物」、「現在にそぐわない物」のことです。

しかし、「負の遺産」のようにマイナスの意味として捉えられる場合もあれば、反対に「業績」「功績」のようにプラスの意味を表す場合もあります。

そもそもレガシーという用語が本格的に使われるようになったのは、1980年代から90年代にかけてのことです。

まず1989年に自動車メーカーによってレガシィという車が発売されました。

この出来事がレガシーを一般社会に浸透させる最初のきっかけとなりました。

 

そして、1990年代に入り、コンピューター分野で「レガシーシステム」という概念が一般化しました。

さらに、2010年以降は政治や経済の分野でも「レガシー」という用語を耳にするようになりました。

例えば、過去から引き継がれて企業の経営を圧迫する要因にかかる費用として「レガシーコスト」は代表例だと言えます。

このようにレガシーという用語はIT業界だけではなく、幅広い分野や業界で使われています。その上で、肯定的・否定的あるいは中立的な意味を持っています。

シチュエーションに応じて多様な意味を使い分けられるようにしておきましょう。

 

レガシーシステム

レガシーシステム(Legacy system)とは、「昔に作ったシステム」、「過去の築かれたシステム」、「先人が作ったシステム」のことです。

一般に、「新技術の登場によって相対的に古びてしまった情報システムのこと」を指します。

情報システムというものは、長期的に運用し続けるとやがて「レガシー化」を遂げ、後に行うシステムの改良や置き換えが困難になってしまいます。その上、古いシステムを維持するのにもコストがかかります。

そこで必要になってくるのが「レガシーマイグレーション(Legacy migration)」です。

これは、古いレガシーシステムを新たなシステムに置き換えることを言います。

 

しかし、技術者を始めとする人材が不足していることで、熟練のノウハウが次の世代に継承できないなど、レガシーシステムには課題が山積しています。

実際に古いシステムが経済損失を生じさせてしまう可能性も報告されており、レガシーシステムは企業の足かせとなっています。

このようにレガシーシステムは、「従来型の」情報システムを意味していて、ビジネスへの影響は計り知れません。

レガシー化に歯止めがかからなくならないように、レガシーマイグレーションが必須ということです。レガシーシステムと一緒に覚えておきましょう。

 

レコメンデーション

レコメンデーション(Recommendation)とは、顧客に対して、特定の製品やサービスなどを推奨することです。

特にWEBサイトやECサイトで、過去のお客様のお問い合わせや購買履歴、訪問履歴をもとに好みを分析し、お客様のお勧め商品、関心がありそうな情報を推薦することです。

 

ECサイトに表示されることの多い「売れ筋ランキング」や「あなたへのおすすめ」、「チェックした商品の関連商品」、「この商品を購入した人はこんな商品も買っています」というフレーズはその代表的な例だと言えます。

また、レコメンデーションはWEBサイトの更新・修正のために、直帰率や離脱率を下げることにも応用できます。

さらにインターネットの世界だけではなく、実店舗での顧客対応もレコメンデーションの1つだと言えます。

そんなレコメンデーションを行うことで、幾つかのメリットが得られます。以下の通りです。

 

・顧客ロイヤリティの向上。

・顧客からの信頼度が高まる。

・購入金額の向上を見込める。

 

このようにレコメンデーションは、オンラインとオフラインの両方で活用されており、顧客の好みや嗜好に沿って商品やサービスをお勧めします。

顧客単価や購入単価を上げたいとお考えの企業は、レコメンデーションに注力してみましょう。

 

ロボット型検索エンジン

ロボット型検索エンジン(Robot type search engine)とは、インターネット上で提供される検索システムのひとつで、データベースを作る為に、クローラーを使用して、WEBページを巡回、収集してキーワードごとにデータベース化するタイプのシステムのことです。

 

そんなロボット型検索エンジンには幾つかのメリットがあります。以下の通りです。

・膨大な範囲からの情報からの検索ができる。

・新鮮な情報やニッチな情報を検索できる。

 

逆にデメリットもあります。以下の通りです。

・ユーザーが意図しないWEBページが上位に表示されてしまうことがある。

・質の悪いブログが表示されてしまうことがある。

 

対して、ジャンルごとにカテゴリー別で登録されているWEBサイトがまとめて掲載される検索エンジンのことをディレクトリ型サーチエンジンと言います。

wwwの中にあるWEBサイトのリンクを収集し、それをカテゴリ別に分類しているのが特徴です。

そして高い信頼性が担保された上で、良質なコンテンツを探しやすい点において優れています。一方で登録されているWEBサイト数が少ないなど、ロボット検索ほどの網羅性には欠けるというデメリットもあります。

そんな従来型のディレクトリ型サーチエンジンとロボット型検索エンジンには、大きな違いが1つあります。それはデータの収集方法です。

 

Googleを始めとするロボット型検索エンジンが自動的にWEBページを審査するのに対して、ディレクトリ型サーチエンジンは人間の手によって一つ一つ審査されています。

インターネットが普及し始めた頃、検索エンジンと言えばディレクトリ型サーチエンジンでした。しかし現在では、短時間で数多くのWEBページを巡回することができるロボット型検索エンジンが主流となっています。

その理由は、インターネット上でサイトが爆発的に増加したり、SNSが急速に普及したりしたことに伴い、人間の手によって処理するのが容易ではなくなったからです。

このように検索エンジンには、ロボット型検索エンジンとディレクトリ型検索エンジンの2種類があります。区別しておきましょう。

 

お問い合わせ
コンテンツマーケティング・SEOコンサルティング・ホームページ制作の際は、
お気軽にご相談ください。