検索エンジン最適化
ウェブマスターとコンテンツプロバイダーは、最初の検索エンジンが初期のWebをカタログ化していたため、1990年代半ばに検索エ 最初に、すべてのウェブマスターはそのページを這うために網のクローラーを送るさまざまなエンジンにページの住所、かURLを、それからの他のページへのリンクを得、そして索引付けされるべきページで見つけられる情報を戻すために堤出するためにだけ必要とした。 プロセスはページをダウンロードし、サーチエンジンの自身のサーバーで貯えるサーチエンジンのくもを含む。 インデクサーと呼ばれる第二のプログラムは、ページに含まれる単語、場所、特定の単語の重み、ページに含まれるすべてのリンクなど、ページに関する情報を抽出 これらの情報はすべて、後でクロールするためにスケジューラに配置されます。
ウェブサイトの所有者は、白い帽子と黒い帽子のSEOの専門家の両方のための機会を作成し、検索エンジンの結果に高いランキングと可視性の値 業界アナリストのDanny Sullivanによると、”検索エンジン最適化”というフレーズはおそらく1997年に使用されました。 サリバンはブルース・クレイをこの用語を普及させた最初の人物の一人としてクレジットしている。
初期のバージョンの検索アルゴリズムは、ALIWEBのようなエンジンのキーワードメタタグやインデックスファイルなどのウェブマスターが提供する情報に依存していました。 メタタグは、各ページのコンテンツへのガイドを提供します。 しかし、メタタグ内のキーワードのウェブマスターの選択は、潜在的にサイトの実際のコンテンツの不正確な表現である可能性があるため、メタデータを使用してページのインデックスを作成することは信頼性が低いことが判明しました。 メタタグの不正確、不完全、および一貫性のないデータは、無関係な検索のためにページをランク付けする可能性があり、原因となりました。 Webコンテンツ-プロバイダーはまた調査エンジンでよくランク付けするためにページのHTMLの源の内のある属性を処理した。 1997年までに、サーチエンジンデザイナーはウェブマスターが彼らのサーチエンジンでよくランク付けするための努力をしていたこと、そして何人かのウェブマスターが余分なか関係がないキーワードが付いているページを詰めることによって調査の結果の彼らのランキングを処理していたことを確認した。 AltavistaやInfoseekなどの初期の検索エンジンは、ウェブマスターがランキングを操作するのを防ぐためにアルゴリズムを調整しました。
重くウェブマスターの制御の内に専らあったキーワード密度のような要因に頼ることによって、早い調査エンジンは乱用およびランキングの処理に苦 ユーザーによりよい結果を提供するためには、調査エンジンは結果のページが不謹慎なウェブマスターによって多数のキーワードと詰められる無関係なページよりもむしろ最も関連性が高い調査の結果を、示したことを保障するために合わせなければならなかった。 これは、用語密度への重い依存から、意味的信号を採点するためのより包括的なプロセスに移行することを意味しました。 検索エンジンの成功と人気は、任意の検索に最も関連性の高い結果を生成する能力によって決定されるため、品質の悪さや無関係な検索結果は、ユー 検索エンジンは、ウェブマスターが操作するのがより困難であった追加の要因を考慮して、より複雑なランキングアルゴリズムを開発するこ
過度に積極的な技術を用いる会社は調査の結果から禁止される彼らの顧客のウェブサイトを得ることができる。 2005年、ウォールストリートジャーナルは、高リスクの技術を使用し、その顧客にそれらのリスクを開示することができなかったとされる会社、トラフィックパワー、に報告しました。 Wired magazineは、同じ会社がブロガーとSEO Aaron Wallを禁止について書いたとして訴えたと報告した。 GoogleのMatt Cuttsは後に、Googleが実際にトラフィックの電力とそのクライアントの一部を禁止したことを確認しました。
いくつかの検索エンジンはまた、SEO業界に手を差し伸べており、SEOの会議、webchats、およびセミナーで頻繁にスポンサーやゲストです。 主要な調査エンジンはウェブサイトの最適化と助けるために情報および指針を提供する。 GoogleにGoogleが彼らのウェブサイトを指示する問題を有し、またウェブサイトにGoogleの交通でデータを提供するかどうかウェブマスターが学ぶのを助けるSitemaps Bingウェブマスターツールは、ウェブマスターがサイトマップとwebフィードを送信する方法を提供し、ユーザーが”クロール率”を決定し、webページのインデックス状態を追跡
2015年には、Googleが将来の製品内の重要な機能としてモバイル検索を開発し、促進していることが報告されました。 応答では、多くのブランドは彼らのインターネットのマーケティングの作戦に別のアプローチを取り始めた。
Googleとの関係
1998年、スタンフォード大学の二人の大学院生、ラリー-ペイジとセルゲイ-ブリンは、”Backrub”、webページの隆起を評価するために数学的アルゴリズムに依存していた検索エンジンを開発しました。 アルゴリズム、PageRankによって計算される数は、インバウンドリンクの量と強さの関数です。 PageRankは、特定のページがランダムにウェブをサーフィンし、あるページから別のページへのリンクをたどるwebユーザーによって到達される可能性を推定します。 実際には、これはより高いPageRankのページが任意網のサーファーによって達されて本当らしいのであるリンクが他より強いことを意味する。ページとブリンは1998年にGoogleを設立しました。 Googleは、そのシンプルなデザインが好きなインターネットユーザーの増加の間で忠実な次を集めました。 ページ以外の要因(PageRankやハイパーリンク分析など)とページ上の要因(キーワード頻度、メタタグ、見出し、リンク、サイト構造など)を考慮して、Googleがランキングのページ上の要因のみを考慮した検索エンジンで見られる種類の操作を回避できるようにしました。 PageRankはゲームすることがより困難であったが、ウェブマスターはすでにInktomi検索エンジンに影響を与えるためのリンク構築ツールやスキームを開発していたし、 多くの場所は交換し、買い、そして大規模のリンクを、頻繁に販売することに焦点を合わせた。 これらの方式、かリンク農場のいくつかは、たくさんのリンクスパミングの唯一の目的のための場所の作成を含んだ。
2004年までに、検索エンジンは、リンク操作の影響を軽減するために、ランキングアルゴリズムに未公開の要因の広い範囲を組み込んでいました。 2007年6月、ニューヨーク・タイムズのソール・ハンセルは、Googleが200以上の異なる信号を使ってサイトをランク付けしていると述べた。 主要な検索エンジン、Google、Bing、Yahooは、ページをランク付けするために使用するアルゴリズムを開示していません。 何人かのSEOの従業者はサーチエンジンの最適化への異なったアプローチを調査し、彼らの個人的な意見を共有した。 検索エンジンに関連する特許は、検索エンジンをよりよく理解するための情報を提供することができます。 2005年、Googleは各ユーザーの検索結果のパーソナライズを開始しました。 以前の検索の履歴に応じて、Googleはログインしたユーザーの結果を作成しました。
2007年、GoogleはPageRankを転送する有料リンクに対するキャンペーンを発表しました。 2009年6月15日、Googleはリンク上のnofollow属性を使用してPageRankスカルプトの影響を軽減する措置を講じたことを明らかにした。 マットCutts、Googleでよく知られているソフトウェアエンジニアは、Googleのボットは、もはやPageRankの彫刻のためのnofollowを使用してからSEOサービスプロバイダーを防ぐために、 この変更の結果、nofollowの使用はPageRankの蒸発につながりました。 上記を避けるために、SEOエンジニアは難読化されたJavaScriptでnofollowedタグを置き換えるため、PageRankの彫刻を可能にする代替技術を開発しました。 さらに、iframe、Flash、JavaScriptの使用法を含むいくつかの解決策が提案されています。
2009年、Googleは検索結果を入力するために、すべてのユーザーのウェブ検索履歴を使用することを発表しました。 2010年6月8日、Google Caffeineと呼ばれる新しいウェブインデックスシステムが発表された。 ユーザーが以前よりも公開した後、ニュース結果、フォーラムの投稿、その他のコンテンツをはるかに早く見つけることができるように設計されたGoogle Caffeineは、googleが Carrie Grimes、Googleのためのカフェインを発表したソフトウェアエンジニアに従って、”カフェインは私達の最後の索引より網の調査に50パーセントのより新しい結..”Googleインスタント、リアルタイム検索は、検索結果をよりタイムリーかつ関連性の高いものにするために、2010年後半に導入されました。 歴史的に場所の管理者は調査のランキングを高めるためにウェブサイトを最大限に活用する月また更に年を使った。 ソーシャルメディアサイトやブログの人気の成長に伴い、主要なエンジンは、新鮮なコンテンツが検索結果内で迅速にランク付けできるように、アルゴ
2011年、GoogleはPanda updateを発表し、他のウェブサイトやソースから複製されたコンテンツを含むウェブサイトにペナルティを課しました。 歴史的にウェブサイトは互いから内容をコピーし、サーチエンジンのランキングでこの練習で従事によって寄与した。 しかし、Googleは、そのコンテンツが一意ではないサイトを罰する新しいシステムを実装しました。 2012年のGoogle Penguinは、検索エンジンでのランキングを向上させるために整体技術を使用したウェブサイトを罰することを試みました。 Google Penguinはwebスパムとの戦いを目的としたアルゴリズムとして提示されていますが、リンクが来ているサイトの品質を測定することで、スパムリンク 2013年のGoogle Hummingbirdアップデートでは、Googleの自然言語処理とwebページの意味論的理解を改善するために設計されたアルゴリズムの変更が特集されました。 Hummingbirdの言語処理システムは、いくつかの単語ではなく、クエリの意味にページをよりよく一致させるために、クエリ内の各単語にもっと注意を払う”会話型検索”の新たに認識された用語に該当します。 検索エンジン最適化に加えられた変更に関しては、コンテンツの出版社や作家のために、Hummingbirdは、googleが高品質のコンテンツを生成し、”信頼された”著者であ
2019年10月、Googleは米国で英語の検索クエリにBERTモデルを適用することを発表しました。 トランスフォーマー(BERT)からの双方向エンコーダ表現は、より良いユーザーの検索クエリを理解するために、彼らの自然言語処理を改善するために、Googleが別の試 検索エンジン最適化の面では、BERTは、関連するコンテンツに、より簡単にユーザーを接続し、検索エンジンの結果ページにランク付けされているwebサイトに来
Leave a Reply