Articles

Søkemotoroptimalisering

Webmastere og innholdsleverandører begynte å optimalisere nettsteder for søkemotorer på midten av 1990-tallet, da de første søkemotorene katalogiserte Det tidlige Nettet. I utgangspunktet trengte alle webmastere bare å sende inn adressen til en side, ELLER URL, til de forskjellige motorene som ville sende en web crawler for å gjennomsøke den siden, trekke ut koblinger til andre sider fra den, og returnere informasjon som ble funnet på siden som skulle indekseres. Prosessen innebærer en søkemotor edderkopp laste ned en side og lagre den på søkemotorens egen server. Et annet program, kjent som en indekser, trekker ut informasjon om siden, for eksempel ordene den inneholder, hvor de befinner seg, og hvilken som helst vekt for bestemte ord, samt alle koblinger siden inneholder. All denne informasjonen blir deretter plassert i en planlegger for gjennomgang på et senere tidspunkt.Webområdeeiere anerkjente verdien av høy rangering og synlighet i søkemotorresultater, noe som skaper en mulighet for både white hat OG black hat SEO-utøvere. Ifølge Bransjeanalytiker Danny Sullivan kom uttrykket «søkemotoroptimalisering» sannsynligvis i bruk i 1997. Sullivan krediterer Bruce Clay som en av de første som populariserte begrepet.

Tidlige versjoner av søkealgoritmer var basert på informasjon fra nettredaktører som metataggen for søkeord eller indeksfiler i motorer som ALIWEB. Metakoder gir en veiledning til hver sides innhold. Bruk av metadata til å indeksere sider ble funnet å være mindre enn pålitelig, men fordi nettredaktørens valg av søkeord i metakoden potensielt kan være en unøyaktig representasjon av nettstedets faktiske innhold. Unøyaktige, ufullstendige og inkonsekvente data i metakoder kan føre til at sider rangeres for irrelevante søk. Web innholdsleverandører også manipulert noen attributter I HTML-kilden til en side i et forsøk på å rangere godt i søkemotorer. I 1997 anerkjente søkemotordesignere at webmastere gjorde anstrengelser for å rangere godt i søkemotoren, og at noen webmastere til og med manipulerte sine rangeringer i søkeresultatene ved å fylle sider med overdreven eller irrelevante søkeord. Tidlige søkemotorer, Som Altavista og Infoseek, justerte sine algoritmer for å hindre webmastere fra å manipulere rangeringer.Ved å stole sterkt på faktorer som søkeordtetthet, som utelukkende var innenfor en nettredaktørs kontroll, led tidlige søkemotorer av misbruk og rangeringsmanipulering. For å gi bedre resultater til brukerne måtte søkemotorer tilpasse seg for å sikre at resultatsidene viste de mest relevante søkeresultatene, i stedet for ikke-relaterte sider fylt med mange søkeord av skruppelløse webmastere. Dette betydde å bevege seg bort fra tung avhengighet av term tetthet til en mer helhetlig prosess for scoring semantiske signaler. Siden suksessen og populariteten til en søkemotor bestemmes av evnen til å produsere de mest relevante resultatene for et gitt søk, kan dårlig kvalitet eller irrelevante søkeresultater føre til at brukerne finner andre søkekilder. Søkemotorer reagerte ved å utvikle mer komplekse rangeringsalgoritmer, med tanke på tilleggsfaktorer som var vanskeligere for webmastere å manipulere.

Selskaper som benytter altfor aggressive teknikker kan få sine klient nettsteder utestengt fra søkeresultatene. I 2005 rapporterte Wall Street Journal Om Et selskap, Traffic Power, som angivelig brukte høyrisikoteknikker og ikke klarte å avsløre disse risikoene for sine kunder. Wired magazine rapporterte at det samme selskapet saksøkte blogger Og SEO Aaron Wall for å skrive om forbudet. Googles Matt Cutts bekreftet senere At Google faktisk forbød Trafikkmakt og noen av sine kunder.

noen søkemotorer har også nådd UT TIL SEO industrien, og er hyppige sponsorer OG gjester PÅ SEO konferanser, webchats og seminarer. Store søkemotorer gir informasjon og retningslinjer for å hjelpe med optimalisering av nettstedet. Google har Et Nettstedskartprogram for å hjelpe webmastere å lære Om Google har problemer med å indeksere nettstedet deres, og gir også data Om Google-trafikk til nettstedet. Bing Webmaster Tools gir en måte for webmastere å sende inn en sitemap og web feeds, tillater brukere å bestemme «crawl rate», og spore websider indeks status.I 2015 ble Det rapportert At Google utviklet og markedsførte mobilsøk som en nøkkelfunksjon i fremtidige produkter. Som svar begynte mange merker å ta en annen tilnærming til Deres internettmarkedsføringsstrategier.

Forhold Til Google

i 1998 utviklet To studenter Ved Stanford University, Larry Page og Sergey Brin, «Backrub», en søkemotor som stod på en matematisk algoritme for å vurdere fremtredende nettsider. Tallet beregnet av algoritmen, PageRank, er en funksjon av mengden og styrken av inngående lenker. PageRank anslår sannsynligheten for at en gitt side vil bli nådd av en webbruker som tilfeldig surfer på nettet, og følger koblinger fra en side til en annen. I virkeligheten betyr dette at noen koblinger er sterkere enn andre, da en Høyere PageRank-side er mer sannsynlig å bli nådd av den tilfeldige web-surferen.Page og Brin grunnla Google i 1998. Google tiltrukket seg en lojal tilhengerskare blant det økende antall Internett-brukere, som likte sin enkle design. Off-page faktorer (Som PageRank og hyperkoblingsanalyse) ble vurdert samt faktorer på siden (som søkeordfrekvens, metakoder, overskrifter, lenker og nettstedsstruktur) for Å gjøre Det Mulig For Google å unngå den typen manipulasjon sett i søkemotorer som bare vurderte faktorer på siden for deres rangeringer. Selv Om PageRank var vanskeligere å spille, hadde webmastere allerede utviklet linkbyggingsverktøy og ordninger for å påvirke inktomi-søkemotoren, og disse metodene viste seg å være like anvendelige for Spill PageRank. Mange nettsteder fokusert på utveksling, kjøpe, og selge lenker, ofte på en massiv skala. Noen av disse ordningene, eller link farms, involverte opprettelsen av tusenvis av nettsteder for det formål å lenke spamming.innen 2004 hadde søkemotorer innarbeidet et bredt spekter av ukjente faktorer i deres rangeringsalgoritmer for å redusere virkningen av linkmanipulering. I juni 2007 uttalte The New York Times’ Saul Hansell At Google rangerer nettsteder som bruker mer enn 200 forskjellige signaler. De ledende søkemotorene, Google, Bing Og Yahoo, avslører ikke algoritmene de bruker til å rangere sider. NOEN SEO utøvere har studert ulike tilnærminger til søkemotoroptimalisering, og har delt sine personlige meninger. Patenter knyttet til søkemotorer kan gi informasjon for å bedre forstå søkemotorer. I 2005 begynte Google å tilpasse søkeresultatene for hver bruker. Avhengig av historikken til tidligere søk, laget Google resultater for innloggede brukere.I 2007 annonserte Google en kampanje mot betalte lenker som overfører PageRank. Den 15. juni 2009 avslørte Google At De hadde tatt tiltak for å redusere effekten Av PageRank-skulptur ved bruk av nofollow-attributtet på lenker. Matt Cutts, en velkjent programvareingeniør Hos Google, annonserte At Google Bot ikke lenger ville behandle noen nofollow-koblinger på samme måte for å hindre AT SEO-tjenesteleverandører bruker nofollow for PageRank-skulptur. Som et resultat av denne endringen førte bruken av nofollow til fordampning Av PageRank. FOR å unngå de ovennevnte, SEO ingeniører utviklet alternative teknikker som erstatter nofollowed koder med maskert JavaScript og dermed tillate PageRank sculpting. I tillegg har flere løsninger blitt foreslått som inkluderer bruk av Iframes, Flash og JavaScript.i desember 2009 annonserte Google At de ville bruke nettsøkehistorikken til alle sine brukere for å fylle ut søkeresultater. Den 8. juni 2010 ble Et nytt webindekseringssystem Kalt Google Caffeine annonsert. Designet for å tillate brukere å finne nyhetsresultater, foruminnlegg og annet innhold mye raskere etter publisering enn før, Var Google Caffeine en endring I Måten Google oppdaterte indeksen for å få ting til å vises raskere På Google enn før. Ifølge Carrie Grimes, programvareingeniør som annonserte Koffein For Google, » Koffein gir 50 prosent ferskere resultater for nettsøk enn vår siste indeks…»Google Instant, real-time-search, ble introdusert i slutten av 2010 i et forsøk på å gjøre søkeresultatene mer tidsriktige og relevante. Historisk sideadministratorer har brukt måneder eller år optimalisere et nettsted for å øke søk rangeringer. Med veksten i populariteten til sosiale medier nettsteder og blogger de ledende motorene gjort endringer i sine algoritmer for å tillate nytt innhold å rangere raskt i søkeresultatene.I februar 2011 annonserte Google Panda update, som straffer nettsteder som inneholder innhold duplisert fra andre nettsteder og kilder. Historisk nettsteder har kopiert innhold fra hverandre og dratt nytte i søkemotorrangeringer ved å delta i denne praksisen. Men google implementerte et nytt system som straffer nettsteder hvis innhold ikke er unikt. 2012 Google Penguin forsøkte å straffe nettsteder som brukte manipulerende teknikker for å forbedre sine rangeringer på søkemotoren. Selv Om Google Penguin har blitt presentert som en algoritme som tar sikte på å bekjempe nettsøppel, fokuserer Den virkelig på spammy-koblinger ved å måle kvaliteten på nettstedene koblingene kommer fra. 2013 Google Hummingbird update inneholdt en algoritmeendring designet for å forbedre Googles naturlige språkbehandling og semantisk forståelse av nettsider. Hummingbird språkbehandlingssystem faller under den nylig anerkjente begrepet «conversational søk» der systemet betaler mer oppmerksomhet til hvert ord i spørringen for å bedre matche sidene til betydningen av spørringen i stedet for noen få ord. Med hensyn til endringene som er gjort i søkemotoroptimalisering, for innholdsutgivere og forfattere, Er Hummingbird ment å løse problemer ved å kvitte seg med irrelevant innhold og spam, slik At Google kan produsere innhold av høy kvalitet og stole på at de er pålitelige forfattere.i oktober 2019 annonserte Google At De ville begynne å bruke bert-modeller for engelskspråklige søk i USA. Toveis Encoder Representasjoner Fra Transformers (BERT) Var Et annet forsøk Fra Google for å forbedre sin naturlige språkbehandling, men denne gangen for å bedre forstå søkene til brukerne. Når DET gjelder søkemotoroptimalisering, hadde BERT til hensikt å koble brukere lettere til relevant innhold og øke kvaliteten på trafikken som kommer til nettsteder som er rangert på Søkemotorresultatsiden.