ロボット型検索エンジン

ロボット型検索エンジン(Robot type search engine)とは、インターネット上で提供される検索システムのひとつで、データベースを作る為に、クローラーを使用して、WEBページを巡回、収集してキーワードごとにデータベース化するタイプのシステムのことです。

 

そんなロボット型検索エンジンには幾つかのメリットがあります。以下の通りです。

・膨大な範囲からの情報からの検索ができる。

・新鮮な情報やニッチな情報を検索できる。

 

逆にデメリットもあります。以下の通りです。

・ユーザーが意図しないWEBページが上位に表示されてしまうことがある。

・質の悪いブログが表示されてしまうことがある。

 

対して、ジャンルごとにカテゴリー別で登録されているWEBサイトがまとめて掲載される検索エンジンのことをディレクトリ型サーチエンジンと言います。

wwwの中にあるWEBサイトのリンクを収集し、それをカテゴリ別に分類しているのが特徴です。

そして高い信頼性が担保された上で、良質なコンテンツを探しやすい点において優れています。一方で登録されているWEBサイト数が少ないなど、ロボット検索ほどの網羅性には欠けるというデメリットもあります。

そんな従来型のディレクトリ型サーチエンジンとロボット型検索エンジンには、大きな違いが1つあります。それはデータの収集方法です。

 

Googleを始めとするロボット型検索エンジンが自動的にWEBページを審査するのに対して、ディレクトリ型サーチエンジンは人間の手によって一つ一つ審査されています。

インターネットが普及し始めた頃、検索エンジンと言えばディレクトリ型サーチエンジンでした。しかし現在では、短時間で数多くのWEBページを巡回することができるロボット型検索エンジンが主流となっています。

その理由は、インターネット上でサイトが爆発的に増加したり、SNSが急速に普及したりしたことに伴い、人間の手によって処理するのが容易ではなくなったからです。

このように検索エンジンには、ロボット型検索エンジンとディレクトリ型検索エンジンの2種類があります。区別しておきましょう。

 

お問い合わせ
コンテンツマーケティング・SEOコンサルティング・ホームページ制作の際は、
お気軽にご相談ください。