Søgemaskineoptimering
internetudbydere og indholdsudbydere begyndte at optimere hjemmesider til søgemaskiner i midten af 1990 ‘ erne, da de første søgemaskiner katalogiserede det tidlige internet. Til at begynde med behøvede alle netadministratorer kun at indsende adressen på en side, eller URL, til de forskellige motorer, der ville sende en internetsøgemaskine til at gennemgå den side, udtrække links til andre sider fra den og returnere oplysninger, der findes på den side, der skal indekseres. Processen indebærer en søgemaskine spider henter en side og gemme den på søgemaskinens egen server. Et andet program, kendt som en indekser, udtrækker oplysninger om siden, såsom de ord, den indeholder, hvor de er placeret, og enhver vægt for bestemte ord samt alle links, siden indeholder. Alle disse oplysninger placeres derefter i en planlægger til gennemsøgning på et senere tidspunkt.
hjemmesideejere anerkendte værdien af en høj placering og synlighed i søgemaskinens resultater, hvilket skabte en mulighed for både hvid hat og sort hat SEO-udøvere. Ifølge brancheanalytiker Danny Sullivan kom udtrykket” søgemaskineoptimering ” sandsynligvis i brug i 1997. Sullivan krediterer Bruce Clay som en af de første mennesker, der populariserede udtrykket.tidlige versioner af søgealgoritmer var afhængige af oplysninger, som f.eks. nøgleordets metatag eller indeksfiler i motorer som f. eks. Metatags giver en guide til hver sides indhold. Brug af metadata til indeksering af sider viste sig imidlertid at være mindre end pålidelig, fordi masterens valg af nøgleord i metatagget potentielt kunne være en unøjagtig gengivelse af sidens faktiske indhold. Unøjagtige, ufuldstændige og inkonsekvente data i metatags kunne og fik sider til at rangere for irrelevante søgninger. Internetudbydere manipulerede også nogle attributter inden for HTML-kilden på en side i et forsøg på at rangere godt i søgemaskiner. I 1997 erkendte søgemaskinedesignere, at søgemaskinedesignere bestræbte sig på at rangere godt i deres søgemaskine, og at nogle søgemaskinedesignere endda manipulerede deres placering i søgeresultaterne ved at fylde sider med overdrevne eller irrelevante søgeord. Tidlige søgemaskiner, såsom Altavista og Infoseek, justerede deres algoritmer for at forhindre, at internetmestere manipulerer placeringer.ved stærkt at stole på faktorer som nøgleordstæthed, som udelukkende var inden for en mesters kontrol, LED tidlige søgemaskiner af misbrug og rankingmanipulation. For at give bedre resultater til deres brugere måtte søgemaskinerne tilpasse sig for at sikre, at deres resultatsider viste de mest relevante søgeresultater, snarere end ikke-relaterede sider fyldt med mange søgeord af skrupelløse netmestere. Dette betød at bevæge sig væk fra stor afhængighed af termtæthed til en mere holistisk proces til scoring af semantiske signaler. Da succes og popularitet af en søgemaskine er bestemt af dens evne til at producere de mest relevante resultater til en given søgning, kan dårlig kvalitet eller irrelevante søgeresultater føre brugerne til at finde andre søgekilder. Søgemaskiner reagerede ved at udvikle mere komplekse rankingalgoritmer under hensyntagen til yderligere faktorer, der var sværere for internetmestere at manipulere.
virksomheder, der anvender alt for aggressive teknikker kan få deres klient hjemmesider forbudt fra søgeresultaterne. I 2005 rapporterede Traffic Energy om en virksomhed, der angiveligt brugte højrisikoteknikker og ikke afslørede disse risici for sine kunder. Kablet magasin rapporterede, at det samme firma sagsøgte blogger og SEO Aaron væg for at skrive om forbuddet. Googles Matt Cutts bekræftede senere, at Google faktisk forbød Trafikstyrke og nogle af sine kunder.nogle søgemaskiner har også nået ud til SEO-branchen og er hyppige sponsorer og gæster på SEO-konferencer, hjemmesider og seminarer. Store søgemaskiner give oplysninger og retningslinjer til at hjælpe med hjemmeside optimering. Google har et sitemaps-program, der hjælper netadministratorer med at finde ud af, om Google har problemer med at indeksere deres hjemmeside og også leverer data om Google-trafik til hjemmesiden. Bing Tools giver brugerne mulighed for at indsende et sitemap og feeds, giver brugerne mulighed for at bestemme “gennemsøgningshastigheden” og spore status for hjemmesideindekset.
i 2015 blev det rapporteret, at Google udviklede og promoverede mobilsøgning som en nøglefunktion inden for fremtidige produkter. Som svar begyndte mange mærker at tage en anden tilgang til deres internetmarkedsføringsstrategier.
forholdet til Google
i 1998 udviklede to kandidatstuderende ved Stanford University, Larry Page og Sergey Brin, “Backrub”, en søgemaskine, der var afhængig af en matematisk algoritme for at bedømme fremtrædende sider. Nummeret beregnet af algoritmen, PageRank, er en funktion af mængden og styrken af indgående links. PageRank estimerer sandsynligheden for, at en given side vil blive nået af en internetbruger, der tilfældigt surfer på internettet, og følger links fra en side til en anden. I virkeligheden betyder det, at nogle links er stærkere end andre, da en højere PageRank-side sandsynligvis nås af den tilfældige internetsurfer.
Page og Brin grundlagde Google i 1998. Google tiltrak en loyal tilhænger blandt det stigende antal internetbrugere, der kunne lide dets enkle design. Off-side faktorer (såsom PageRank og hyperlink analyse) blev overvejet såvel som on-Side faktorer (såsom søgeord frekvens, metatags, overskrifter, links og site struktur) for at gøre det muligt for Google at undgå den form for manipulation set i søgemaskiner, der kun betragtes on-Side faktorer for deres placering. Selvom PageRank var sværere at spille, havde mastere allerede udviklet linkbygningsværktøjer og ordninger til at påvirke Inktomi-søgemaskinen, og disse metoder viste sig at være tilsvarende anvendelige for gaming PageRank. Mange steder fokuseret på at udveksle, købe og sælge links, ofte i massiv skala. Nogle af disse ordninger, eller link farms, involveret oprettelsen af tusindvis af steder med det ene formål at link spamming.
i 2004 havde søgemaskiner indarbejdet en bred vifte af ikke-afslørede faktorer i deres rangeringsalgoritmer for at reducere virkningen af linkmanipulation. I juni 2007 erklærede Saul Hansell, at Google rangerer sider ved hjælp af mere end 200 forskellige signaler. De førende søgemaskiner, Google, Bing og Yahoo, afslører ikke de algoritmer, de bruger til at rangere sider. Nogle SEO-udøvere har studeret forskellige tilgange til søgemaskineoptimering og har delt deres personlige meninger. Patenter relateret til søgemaskiner kan give information for bedre at forstå søgemaskiner. I 2005 begyndte Google at tilpasse søgeresultaterne for hver bruger. Afhængigt af deres historie med tidligere søgninger lavede Google resultater for brugere, der var logget ind.
i 2007 annoncerede Google en kampagne mod betalte links, der overfører PageRank. Den 15.juni 2009 afslørede Google, at de havde truffet foranstaltninger for at afbøde virkningerne af PageRank-skulptur ved brug af attributten nofølg på links. Matt Cutts, en velkendt programmelingeniør hos Google, meddelte, at Google Bot ikke længere ville behandle nogen nofølg-links på samme måde for at forhindre SEO-tjenesteudbydere i at bruge nofølg til PageRank-skulptur. Som et resultat af denne ændring førte brugen af nofølg til fordampning af PageRank. For at undgå ovenstående udviklede SEO-ingeniører alternative teknikker, der erstatter ikke-fulgte tags med tilsløret JavaScript og således tillader PageRank-skulptur. Derudover er der foreslået flere løsninger, der inkluderer brugen af iframes, Flash og JavaScript.
i December 2009 meddelte Google, at det ville bruge alle sine brugeres søgehistorik for at udfylde søgeresultater. Den 8. juni 2010 blev et nyt indekseringssystem kaldet Google Caffeine annonceret. Designet til at give brugerne mulighed for at finde nyhedsresultater, forumindlæg og andet indhold meget hurtigere efter offentliggørelse end før, Google Caffeine var en ændring i den måde, Google opdaterede sit indeks på for at få tingene til at dukke op hurtigere på Google end før. Ifølge Carrie Grimes, der annoncerede koffein til Google, ” giver koffein 50 procent friskere resultater til internetsøgninger end vores sidste indeks…”Google Instant, real-time-search, blev introduceret i slutningen af 2010 i et forsøg på at gøre søgeresultaterne mere rettidige og relevante. Historisk site administratorer har brugt måneder eller endda år at optimere en hjemmeside for at øge søgning placeringer. Med væksten i popularitet af sociale mediesider og blogs foretog de førende motorer ændringer i deres algoritmer for at give nyt indhold mulighed for hurtigt at rangere inden for søgeresultaterne.
i februar 2011 annoncerede Google Panda-opdateringen, som straffer hjemmesider, der indeholder indhold duplikeret fra andre hjemmesider og kilder. Historisk hjemmesider har kopieret indhold fra hinanden og nydt i søgemaskine placeringer ved at engagere sig i denne praksis. Google implementerede imidlertid et nyt system, der straffer sider, hvis indhold ikke er unikt. 2012 Google Penguin forsøgte at straffe hjemmesider, der brugte manipulerende teknikker til at forbedre deres placering på søgemaskinen. Selvom Google Penguin er blevet præsenteret som en algoritme, der sigter mod at bekæmpe spam på nettet, fokuserer den virkelig på spammy-links ved at måle kvaliteten af de sider, linkene kommer fra. Google Hummingbird-opdateringen fra 2013 indeholdt en algoritmeændring designet til at forbedre Googles naturlige sprogbehandling og semantiske forståelse af hjemmesider. Hummingbirds sprogbehandlingssystem falder ind under det nyligt anerkendte udtryk “konversationssøgning”, hvor systemet lægger større vægt på hvert ord i forespørgslen for bedre at matche siderne til betydningen af forespørgslen snarere end et par ord. Med hensyn til de ændringer, der er foretaget i søgemaskineoptimering, for indholdsudgivere og forfattere, er Hummingbird beregnet til at løse problemer ved at slippe af med irrelevant indhold og spam, så Google kan producere indhold af høj kvalitet og stole på, at de er ‘betroede’ forfattere.i oktober 2019 meddelte Google, at de ville begynde at anvende BERT-modeller til engelsksprogede søgeforespørgsler i USA. Tovejs Koderrepræsentationer fra Transformers (BERT) var endnu et forsøg fra Google på at forbedre deres naturlige sprogbehandling, men denne gang for bedre at forstå deres brugeres søgeforespørgsler. Med hensyn til søgemaskineoptimering havde BERT til hensigt at forbinde brugere lettere med relevant indhold og øge kvaliteten af trafikken, der kommer til hjemmesider, der rangerer på søgemaskinens resultatside.
Leave a Reply