Articles

Optimalizace pro vyhledávače

Webmastery a poskytovatelé obsahu začal optimalizaci webových stránek pro vyhledávače v polovině-1990, jako první vyhledávače byly katalogizace počátku Webu. Zpočátku, všechny webmastery potřeba pouze odeslat adresu stránky, nebo URL, na různé motory, které by poslat webový prolézací této stránce, extrakt odkazy na jiné stránky z ní, a vrátit informace nalezené na stránce, musí být indexovány. Tento proces zahrnuje pavouk vyhledávače, který stáhne stránku a uloží ji na vlastní server vyhledávače. Druhý program, známý jako indexátor, extrahuje informace o stránce, například slova, která obsahuje, kde se nacházejí,a jakoukoli váhu konkrétních slov, stejně jako všechny odkazy, které stránka obsahuje. Všechny tyto informace jsou pak umístěny do plánovače pro procházení později.

majitelé webových Stránek, poznal hodnotu vysoké hodnocení a viditelnost ve výsledcích vyhledávačů, vytvoření příležitostí jak pro white hat a black hat SEO praktiky. Podle průmyslového analytika Dannyho Sullivana se fráze „optimalizace pro vyhledávače“ pravděpodobně začala používat v roce 1997. Sullivan připisuje Bruce Clayovi jako jednomu z prvních lidí, kteří tento termín popularizovali.

rané verze vyhledávacích algoritmů se spoléhaly na informace poskytované webmasterem, jako je meta tag klíčových slov nebo indexové soubory v motorech, jako je ALIWEB. Meta tagy poskytují průvodce obsahem každé stránky. Bylo však zjištěno, že použití metadat k indexování stránek je méně než spolehlivé, protože výběr klíčových slov webmastera v metaznačce by mohl být nepřesnou reprezentací skutečného obsahu webu. Nepřesné, neúplné a nekonzistentní údaje v metaznačkách by mohly a způsobily, že stránky se řadí k irelevantním vyhledáváním. Poskytovatelé webového obsahu také manipulovali s některými atributy ve zdroji HTML stránky ve snaze dobře se zařadit do vyhledávačů. V roce 1997, vyhledávač návrháři uznat, že webmasteři dělal úsilí, aby řadí i ve svém vyhledávači, a že někteří webmasteři byli i manipulování jejich pořadí ve výsledcích vyhledávání tím, že nádivkou stránky s nadměrným nebo irelevantní klíčová slova. Rané vyhledávače, jako Altavista a Infoseek, upravily své algoritmy, aby zabránily webmasterům v manipulaci s hodnocením.

silně spoléhat na faktorech, jako je hustota klíčových slov, které byly výhradně ve webmaster kontrolu, brzy vyhledávače trpí zneužívání a pořadí manipulace. Poskytovat lepší výsledky pro své uživatele, vyhledávače musel přizpůsobit, aby zajistily jejich výsledky stránky ukázaly nejrelevantnější výsledky vyhledávání, spíše než nesouvisející stránky plněné mnoha klíčových slov bezohlednými webmastery. To znamenalo odklon od silného spoléhání se na hustotu termínu k holističtějšímu procesu bodování sémantických signálů. Od úspěchu a popularity vyhledávače je dána jeho schopnost produkovat relevantní výsledky pro dané vyhledávání, špatná kvalita nebo irelevantní výsledky hledání by mohlo vést uživatelům najít další zdroje vyhledávání. Vyhledávače reagovaly vývojem složitějších algoritmů hodnocení, s přihlédnutím k dalším faktorům, které byly pro webmastery obtížnější manipulovat.

společnosti, které používají příliš agresivní techniky, mohou svým klientským webům zakázat výsledky vyhledávání. V roce 2005 Wall Street Journal informoval o společnosti Traffic Power, která údajně používala vysoce rizikové techniky a tato rizika svým klientům nesdělila. Časopis Wired uvedl, že stejná společnost žalovala blogger a SEO Aaron Wall za psaní o zákazu. Matt Cutts společnosti Google později potvrdil, že Google ve skutečnosti zakázal provoz a některé jeho klienty.

Některé vyhledávače také natáhl k SEO průmyslu, a jsou časté sponzory a hosty na SEO konferencích, webchats, a semináře. Hlavní vyhledávače poskytují informace a pokyny, které vám pomohou s optimalizací webových stránek. Google má program Sitemaps, který pomáhá webmasterům zjistit, zda má Google problémy s indexováním svých webových stránek, a také poskytuje údaje o provozu Google na webových stránkách. Nástroje pro webmastery Bing poskytují způsob, jak webmasterům odeslat soubor sitemap a webové kanály, umožňuje uživatelům určit „rychlost procházení“a sledovat stav indexu webových stránek.

v roce 2015 bylo oznámeno, že Google vyvíjí a propaguje mobilní vyhledávání jako klíčovou funkci v rámci budoucích produktů. V reakci na to mnoho značek začalo zaujímat odlišný přístup ke svým strategiím internetového marketingu.

Vztah s Google

V roce 1998, dva postgraduální studenti na Stanfordově Univerzitě, Larry Page a Sergey Brin, vyvinutý „Backrub“, vyhledávač, který se opírá o matematický algoritmus hodnotit důležitost webových stránek. Číslo vypočtené algoritmem, PageRank, je funkcí množství a síly příchozích odkazů. PageRank odhaduje pravděpodobnost, že daná stránka bude dosažena uživatelem webu, který náhodně surfuje po webu, a sleduje odkazy z jedné stránky na druhou. Ve skutečnosti to znamená, že některé odkazy jsou silnější než jiné, protože vyšší stránka PageRank je pravděpodobnější, že bude dosažena náhodným webovým surfařem.

Page a Brin založili Google v roce 1998. Google přilákal loajální pokračování mezi rostoucím počtem uživatelů internetu, kterým se líbil jeho jednoduchý design. Off-page faktory (jako je PageRank a analýzu hypertextový odkaz) byly považovány za stejně jako on-page faktory (jako frekvenci klíčových slov, meta tagy, nadpisy, odkazy a struktury webu), aby společnost Google, aby se zabránilo druh manipulace viděn ve vyhledávačích, že pouze za on-page faktory pro jejich hodnocení. Ačkoli PageRank byl obtížnější hra, webmasteři měli již rozvinuté link stavební nářadí a systémy ovlivnit vyhledávač Inktomi, a tyto metody se ukázaly jako podobně použitelné pro herní PageRank. Mnoho webů se zaměřilo na výměnu, nákup, a prodej odkazů, často ve velkém měřítku. Některé z těchto schémat, nebo link farms, zahrnovalo vytvoření tisíců webů pouze za účelem spamování odkazů.

v roce 2004, vyhledávače zahrnul širokou škálu nezveřejněných faktory v jejich žebříčku algoritmů snížit dopad odkaz manipulace. V červnu 2007 Saul Hansell z New York Times uvedl, že Google řadí weby využívající více než 200 různých signálů. Přední vyhledávače, Google, Bing a Yahoo, nezveřejňují algoritmy, které používají k hodnocení stránek. Někteří odborníci na SEO studovali různé přístupy k optimalizaci pro vyhledávače a sdíleli své osobní názory. Patenty související s vyhledávači mohou poskytnout informace pro lepší pochopení vyhledávačů. V roce 2005 Google začal přizpůsobovat výsledky vyhledávání pro každého uživatele. V závislosti na jejich historii předchozích vyhledávání Google vytvořil výsledky pro přihlášené uživatele.

v roce 2007 Google oznámil kampaň proti placeným odkazům, které přenášejí PageRank. 15. června 2009 společnost Google oznámila, že přijala opatření ke zmírnění účinků sochařství PageRank pomocí atributu nofollow na odkazy. Matt Cutts, známý softwarový inženýr ve společnosti Google, oznámil, že Google Bot by se již léčit nofollow odkazy, stejným způsobem, aby se zabránilo SEO služeb od používání nofollow pro PageRank sochařství. V důsledku této změny vedlo použití nofollow k odpařování PageRank. Aby se předešlo výše uvedenému, inženýři SEO vyvinuli alternativní techniky, které nahrazují nofollowed tagy zmateným JavaScriptem a umožňují tak vyřezávání PageRank. Navíc bylo navrženo několik řešení, která zahrnují použití iframe, Flash a JavaScript.

v prosinci 2009 společnost Google oznámila, že bude používat historii vyhledávání na webu všech svých uživatelů, aby vyplnila výsledky vyhledávání. 8. června 2010 byl oznámen nový webový indexační systém s názvem Google Caffeine. Navržen tak, aby uživatelům najít zprávy, výsledky, fóra, příspěvky a další obsah mnohem dříve, po zveřejnění než dříve, Google Kofein je změna způsobu, jakým Google aktualizuje svůj index, aby věci objeví rychleji na Google, než předtím. Podle Carrie Grimes, softwarového inženýra, který oznámil kofein pro Google, “ kofein poskytuje 50 procent čerstvější výsledky pro vyhledávání na webu než náš poslední index…“Google Instant, real-time-search, byl představen na konci roku 2010 ve snaze učinit výsledky vyhledávání aktuálnější a relevantnější. Historicky správci webu strávili měsíce nebo dokonce roky optimalizací webu, aby zvýšili hodnocení vyhledávání. S růstem popularity sociálních médií stránky a blogy předních motorů provedené změny k jejich algoritmy umožnit, aby nový obsah, řadí rychle ve výsledcích vyhledávání.

v únoru 2011 společnost Google oznámila aktualizaci Panda, která penalizuje webové stránky obsahující obsah duplikovaný z jiných webových stránek a zdrojů. Historicky webové stránky kopírovaly obsah jeden od druhého a těžily z hodnocení vyhledávačů tím, že se zapojily do této praxe. Google však zavedl nový systém, který trestá weby, jejichž obsah není jedinečný. Google Penguin 2012 se pokusil penalizovat webové stránky, které používaly manipulativní techniky ke zlepšení jejich hodnocení ve vyhledávači. I když Google Penguin byl prezentován jako algoritmus zaměřený na boj proti web spam, je to opravdu zaměřuje na spam odkazy měřící kvalitní weby, odkazy přicházejí. Aktualizace Google Hummingbird 2013 obsahovala změnu algoritmu navrženou ke zlepšení zpracování přirozeného jazyka Google a sémantického porozumění webových stránek. Systém zpracování jazyka kolibříka spadá pod nově uznávaný termín „konverzační vyhledávání“, kde systém věnuje více pozornosti každému slovu v dotazu, aby lépe odpovídal stránkám významu dotazu než několika slovům. S ohledem na změny provedené optimalizace pro vyhledávače, pro obsah vydavatelů a spisovatelů, Kolibřík je určena k řešení problémů tím, jak se zbavit irelevantní obsahu a spamu, což umožní Google, aby produkovat vysoce kvalitní obsah a spolehnout na ně být „důvěryhodný“ autorů.

V říjnu 2019 společnost Google oznámila, že začne používat modely BERT pro vyhledávací dotazy v anglickém jazyce v USA. Obousměrný Encoder Reprezentace z Transformers (BERT) byl další pokus Google zlepšit jejich zpracování přirozeného jazyka, ale tentokrát, aby lépe pochopit vyhledávacích dotazů svých uživatelů. Z hlediska optimalizace pro vyhledávače, BERTE určena k připojení uživatelů snadněji relevantní obsah a zvýšit kvalitu provoz přicházející na webové stránky, které jsou hodnocení v vyhledávače Stránky s Výsledky.