Articles

Hakukoneoptimointi

Webmasterit ja sisällöntuottajat alkoivat optimoida verkkosivuja hakukoneille 1990-luvun puolivälissä, kun ensimmäiset hakukoneet luetteloivat varhaista Webiä. Aluksi, kaikki webmasters tarvitsi vain lähettää osoitteen sivun, tai URL, eri moottoreita, jotka lähettäisivät web crawler indeksoida että sivu, poimia linkkejä muille sivuille, ja palauttaa tietoja löytyy sivun indeksoitava. Prosessissa hakukonehämähäkki lataa sivun ja tallentaa sen hakukoneen omalle palvelimelle. Toinen ohjelma, joka tunnetaan indeksoijana, poimii tietoa sivusta, kuten sen sisältämistä sanoista, niiden sijainnista ja tiettyjen sanojen mahdollisesta painosta sekä kaikista sivun sisältämistä linkeistä. Kaikki nämä tiedot sijoitetaan sitten ajoituksen indeksointi myöhemmin.

sivuston omistajat tunnistivat korkean sijoituksen arvon ja näkyvyyden hakukonetuloksissa, mikä loi mahdollisuuden sekä white hat että black hat hakukoneoptimoinnin harjoittajille. Alan analyytikko Danny Sullivanin mukaan lause ”hakukoneoptimointi” tuli todennäköisesti käyttöön vuonna 1997. Sullivan myöntää Bruce Clayn olevan yksi ensimmäisistä ihmisistä, jotka popularisoivat termin.

hakualgoritmien varhaiset versiot tukeutuivat webmasterin tarjoamiin tietoihin, kuten avainsanan meta-tunnisteeseen tai aliwebin kaltaisten moottoreiden indeksitiedostoihin. Meta-tunnisteet tarjoavat oppaan kunkin sivun sisällöstä. Metatietojen käyttäminen sivujen indeksointiin osoittautui kuitenkin vähemmän luotettavaksi, koska webmasterin metatunnisteen avainsanavalinta saattoi mahdollisesti olla epätarkka esitys sivuston todellisesta sisällöstä. Virheelliset, epätäydelliset ja epäjohdonmukaiset tiedot metatunnisteissa saattoivat ja aiheuttivat sen, että sivut sijoittuivat epäoleellisiin hakuihin. Web-sisällöntuottajat myös manipuloitu joitakin attribuutteja sisällä HTML lähde sivun yrittää sijoitus hyvin hakukoneet. Vuoteen 1997 mennessä hakukonesuunnittelijat huomasivat, että Webmasterit pyrkivät sijoittumaan hyvin hakukoneessaan ja että jotkut ylläpitäjät jopa manipuloivat rankingejaan hakutuloksissa täyttämällä sivuja liiallisilla tai epäolennaisilla avainsanoilla. Varhaiset hakukoneet, kuten Altavista ja Infoseek, muokkasivat algoritmejaan estääkseen webmastereita manipuloimasta rankingia.

nojautumalla vahvasti avainsanojen tiheyden kaltaisiin tekijöihin, jotka olivat yksinomaan webmasterin hallinnassa, varhaiset hakukoneet kärsivät väärinkäytöksistä ja rankingin manipuloinnista. Jotta käyttäjät saisivat parempia tuloksia, hakukoneiden oli sopeuduttava siihen, että niiden tulossivuilla näkyivät tärkeimmät hakutulokset sen sijaan, että häikäilemättömät Webmasterit olisivat täyttäneet sivuillaan lukuisia avainsanoja. Tämä merkitsi siirtymistä pois raskaasta riippuvuudesta termitiheyteen kokonaisvaltaisempaan semanttisten signaalien pisteytysprosessiin. Koska hakukoneen menestys ja suosio riippuu sen kyvystä tuottaa kulloisenkin haun kannalta olennaisimmat tulokset, heikkolaatuiset tai epäolennaiset hakutulokset voivat johtaa siihen, että käyttäjät löytävät muita hakulähteitä. Hakukoneet vastasivat kehittämällä monimutkaisempia ranking-algoritmeja, ottaen huomioon muita tekijöitä, joita webmastereiden oli vaikeampi manipuloida.

liian aggressiivista tekniikkaa käyttävät yritykset voivat saada asiakassivustonsa kielletyksi hakutuloksista. The Wall Street Journal kertoi vuonna 2005 Traffic Power-nimisestä yrityksestä, jonka väitettiin käyttäneen korkean riskin tekniikoita ja jättäneen kertomatta riskeistä asiakkailleen. Wired-lehti kertoi, että sama yhtiö haastoi bloggaaja ja SEO Aaron Wallin oikeuteen kiellosta kirjoittamisesta. Googlen Matt Cutts vahvisti myöhemmin, että Google itse asiassa kielsi Liikennevoiman ja osan asiakkaistaan.

jotkut hakukoneet ovat myös ottaneet yhteyttä SEO-teollisuuteen ja ovat usein sponsoreina ja vieraina SEO-konferensseissa, webchatseissa ja seminaareissa. Suuret hakukoneet tarjoavat tietoa ja ohjeita verkkosivujen optimointiin. Googlella on Sitemaps-ohjelma, joka auttaa webmastereita oppimaan, jos Googlella on ongelmia verkkosivujensa indeksoinnissa, ja antaa myös tietoja Google-liikenteestä verkkosivustolle. Bing Webmaster Tools tarjoaa tavan webmasters lähettää sivukartta ja web-syötteet, avulla käyttäjät voivat määrittää ”indeksointinopeus”, ja seurata web-sivujen indeksin tila.

vuonna 2015 uutisoitiin Googlen kehittävän ja edistävän mobiilihakua keskeisenä ominaisuutena tulevissa tuotteissa. Vastauksena monet brändit alkoivat suhtautua eri tavalla Internet-markkinointistrategioihinsa.

suhde Googleen

vuonna 1998 kaksi Stanfordin yliopiston jatko-opiskelijaa, Larry Page ja Sergey Brin, kehittivät ”Backrub” – hakukoneen, joka tukeutui matemaattiseen algoritmiin verkkosivujen näkyvyyden arvioimiseksi. Algoritmin laskema luku, PageRank, on saapuvien linkkien määrän ja vahvuuden funktio. PageRank arvioi todennäköisyyden, että tietyn sivun saavuttaa web-käyttäjä, joka satunnaisesti surffaa Webissä ja seuraa linkkejä sivulta toiselle. Itse asiassa tämä tarkoittaa sitä, että jotkut linkit ovat vahvempia kuin toiset, sillä korkeampi PageRank-sivu on todennäköisemmin satunnaisen verkkosurffaajan saavutettavissa.

Page ja Brin perustivat Googlen vuonna 1998. Google keräsi uskollisen seuraajan kasvavan Internetin käyttäjien keskuudessa, jotka pitivät sen yksinkertaisesta muotoilusta. Sivun ulkopuoliset tekijät (kuten PageRank ja hyperlinkkianalyysi) otettiin huomioon sekä sivulla olevat tekijät (kuten avainsanojen taajuus, metatunnisteet, otsikot, linkit ja sivuston rakenne), jotta Google voisi välttää hakukoneissa nähtävän manipuloinnin, joka huomioi vain sivulla olevat tekijät rankingissaan. Vaikka PageRank oli hankalampi pelattava, Webmasterit olivat jo kehittäneet linkinrakennustyökaluja ja-järjestelmiä Inktomi-hakukoneeseen vaikuttamiseksi, ja nämä menetelmät osoittautuivat soveltuviksi myös PageRankin pelaamiseen. Monet sivustot keskittyivät vaihtamaan, ostamaan ja myymään linkkejä, usein laajamittaisesti. Jotkin näistä järjestelmistä, tai link farms, mukana luomassa tuhansia sivustoja yksinomaan link spamming.

vuoteen 2004 mennessä hakukoneet olivat sisällyttäneet ranking-algoritmeihinsa monenlaisia julkistamattomia tekijöitä linkkien manipuloinnin vaikutusten vähentämiseksi. Kesäkuussa 2007 The New York Timesin Saul Hansell totesi Googlen sijoittavan sivustoja, jotka käyttävät yli 200 erilaista signaalia. Johtavat hakukoneet Google, Bing ja Yahoo eivät paljasta, millaisia algoritmeja ne käyttävät sivujen sijoittamiseen. Jotkut hakukoneoptimoinnin harjoittajat ovat tutkineet erilaisia lähestymistapoja hakukoneoptimointiin ja jakaneet henkilökohtaisia mielipiteitään. Hakukoneisiin liittyvät patentit voivat antaa tietoa hakukoneiden ymmärtämiseksi paremmin. Vuonna 2005 Google alkoi personoida hakutuloksia jokaiselle käyttäjälle. Riippuen aikaisempien hakujen historiasta, Google muotoili tuloksia kirjautuneille käyttäjille.

vuonna 2007 Google ilmoitti kampanjasta PageRankia siirtäviä maksullisia linkkejä vastaan. 15. kesäkuuta 2009 Google ilmoitti ryhtyneensä toimenpiteisiin lieventääkseen PageRank-kuvanveiston vaikutuksia käyttämällä nofollow-ominaisuutta linkeissä. Googlen tunnettu ohjelmistoinsinööri Matt Cutts ilmoitti, että Google Bot ei enää kohtelisi nofollow-linkkejä samalla tavalla estääkseen SEO-palveluntarjoajia käyttämästä nofollowia PageRank-kuvanveistoon. Tämän muutoksen seurauksena nofollowin käyttö johti PageRankin haihtumiseen. Edellä mainittujen välttämiseksi SEO-insinöörit kehittivät vaihtoehtoisia tekniikoita, jotka korvaavat nofollowed-tunnisteet obfuscated Javascriptillä ja siten sallivat PageRank-kuvanveiston. Lisäksi useita ratkaisuja on ehdotettu, jotka sisältävät käyttö iframes, Flash ja JavaScript.

joulukuussa 2009 Google ilmoitti käyttävänsä kaikkien käyttäjiensä verkkohakuhistoriaa hakutulosten kansoittamiseen. Kesäkuuta 2010 julkistettiin uusi verkkoindeksijärjestelmä nimeltä Google Caffeine. Tarkoituksena on antaa käyttäjille mahdollisuuden löytää uutistuloksia, Foorumiviestejä ja muuta sisältöä paljon nopeammin julkaisemisen jälkeen kuin ennen, Google kofeiini oli muutos tapaan, jolla Google päivitti indeksinsä, jotta asiat näkyvät nopeammin Google kuin ennen. Kofeiinin Googlelle julkistaneen ohjelmistoinsinööri Carrie Grimesin mukaan ” kofeiini tarjoaa 50 prosenttia tuoreempia tuloksia verkkohauissa kuin edellinen indeksimme…”Google Instant, reaaliaikainen haku, otettiin käyttöön loppuvuodesta 2010, tavoitteena tehdä hakutuloksista ajankohtaisempia ja merkityksellisempiä. Historiallisesti sivuston ylläpitäjät ovat viettäneet kuukausia tai jopa vuosia optimoimalla sivuston lisätä haku rankingissa. Sosiaalisen median sivustojen ja blogien suosion kasvun myötä johtavat moottorit tekivät muutoksia algoritmeihinsa, jotta tuore sisältö voisi sijoittua nopeasti hakutuloksissa.

helmikuussa 2011 Google julkisti Pandan päivityksen, joka rankaisee verkkosivustoja, jotka sisältävät toisilta verkkosivustoilta ja lähteistä monistettua sisältöä. Historiallisesti sivustot ovat kopioineet sisältöä toisistaan ja hyötyneet hakukoneiden rankingissa osallistumalla tähän käytäntöön. Google otti kuitenkin käyttöön uuden järjestelmän, joka rankaisee sivustoja, joiden sisältö ei ole ainutlaatuista. Vuonna 2012 Google Penguin yritti rangaista verkkosivustoja, jotka käyttivät manipulointitekniikoita parantaakseen rankingiaan hakukoneessa. Vaikka Google Penguin on esitetty algoritmina, jonka tarkoituksena on torjua web-roskapostia, se todella keskittyy spammy linkkejä mittaamalla laatua sivustoja linkit tulevat. Vuoden 2013 Google Hummingbird-päivityksessä esiteltiin algoritmimuutos, jonka tarkoituksena on parantaa Googlen luonnollista kielen käsittelyä ja web-sivujen semanttista ymmärtämistä. Hummingbirdin kielenkäsittelyjärjestelmä kuuluu vastikään tunnustettuun termiin ”keskusteluhaku”, jossa järjestelmä kiinnittää enemmän huomiota kuhunkin sanaan kyselyssä, jotta sivut vastaisivat paremmin kyselyn merkitystä muutaman sanan sijaan. Mitä tulee hakukoneoptimointiin tehtyihin muutoksiin, sisällön julkaisijoille ja kirjoittajille Hummingbirdin on tarkoitus ratkaista ongelmat hankkiutumalla eroon epäolennaisesta sisällöstä ja roskapostista, jolloin Google voi tuottaa laadukasta sisältöä ja luottaa siihen, että he ovat ”luotettuja” kirjoittajia.

lokakuussa 2019 Google ilmoitti alkavansa soveltaa BERT-malleja englanninkielisiin hakukyselyihin Yhdysvalloissa. Kaksisuuntainen Encoder Representations Transformers (BERT) oli toinen yritys Google parantaa luonnollisen kielen käsittelyä, mutta tällä kertaa, jotta paremmin ymmärtää hakukyselyt niiden käyttäjien. Hakukoneoptimoinnin kannalta BERT pyrki yhdistämään käyttäjät helpommin merkitykselliseen sisältöön ja parantamaan hakukoneen tulossivulla paremmuusjärjestyksessä oleville verkkosivustoille tulevan liikenteen laatua.