Articles

Search engine optimization

webmasters en contentproviders begonnen halverwege de jaren negentig met het optimaliseren van websites voor zoekmachines, toen de eerste zoekmachines het vroege Web catalogiseerden. In eerste instantie, alle webmasters alleen nodig om het adres van een pagina, of URL, naar de verschillende motoren die een web crawler zou sturen om die pagina te crawlen, extraheren links naar andere pagina ‘ s van het, en terug te keren informatie gevonden op de pagina te worden geïndexeerd. Het proces omvat een zoekmachine spider downloaden van een pagina en opslaan op de eigen server van de zoekmachine. Een tweede programma, bekend als een indexer, extraheert informatie over de pagina, zoals de woorden die het bevat, waar ze zich bevinden, en elk gewicht voor specifieke woorden, evenals alle links die de pagina bevat. Al deze informatie wordt dan geplaatst in een scheduler voor het kruipen op een later tijdstip.

Website-eigenaren erkenden de waarde van een hoge ranking en zichtbaarheid in zoekmachineresultaten, waardoor een kans werd gecreëerd voor zowel white hat als black hat SEO beoefenaars. Volgens de industrie analist Danny Sullivan, de zinsnede “search engine optimization” kwam waarschijnlijk in gebruik in 1997. Sullivan noemt Bruce Clay als een van de eerste mensen die de term populariseren.

vroege versies van zoekalgoritmen vertrouwden op webmaster-verstrekte informatie, zoals het trefwoord metatag of indexbestanden in engines zoals ALIWEB. Meta tags bieden een gids voor de inhoud van elke pagina. Het gebruik van metadata om pagina ‘ s te indexeren bleek echter minder betrouwbaar, omdat de keuze van de webmaster van trefwoorden in de meta-tag mogelijk een onjuiste weergave van de werkelijke inhoud van de site zou kunnen zijn. Onnauwkeurige, onvolledige en inconsistente gegevens in meta-tags konden en deden pagina ‘ s rangschikken voor irrelevante zoekopdrachten. Web content providers manipuleerden ook enkele attributen binnen de HTML bron van een pagina in een poging om goed te rangschikken in zoekmachines. Door 1997, search engine ontwerpers erkend dat webmasters waren het maken van inspanningen om goed te rangschikken in hun zoekmachine, en dat sommige webmasters waren zelfs het manipuleren van hun ranglijst in de zoekresultaten door het vullen van pagina ‘ s met overmatige of irrelevante zoekwoorden. Vroege zoekmachines, zoals Altavista en Infoseek, hebben hun algoritmen aangepast om te voorkomen dat webmasters rankings manipuleren.

door sterk te vertrouwen op factoren zoals keyword density, die uitsluitend onder de controle van een webmaster vielen, leden vroege zoekmachines aan misbruik en ranking manipulatie. Om betere resultaten te bieden aan hun gebruikers, moesten zoekmachines zich aanpassen om ervoor te zorgen dat hun resultaatpagina ’s de meest relevante zoekresultaten vertoonden, in plaats van ongerelateerde pagina’ s gevuld met tal van zoekwoorden door gewetenloze webmasters. Dit betekende dat we moesten afstappen van een sterke afhankelijkheid van termdichtheid naar een meer holistisch proces voor het scoren van semantische signalen. Aangezien het succes en de populariteit van een zoekmachine wordt bepaald door zijn vermogen om de meest relevante resultaten te produceren om een bepaalde zoekopdracht, slechte kwaliteit of irrelevante zoekresultaten kunnen leiden gebruikers om andere zoekbronnen te vinden. Zoekmachines reageerden met het ontwikkelen van meer complexe ranking algoritmen, rekening houdend met extra factoren die moeilijker waren voor webmasters om te manipuleren.

bedrijven die overdreven agressieve technieken gebruiken, kunnen hun clientsites verbannen uit de zoekresultaten. In 2005 rapporteerde The Wall Street Journal over een bedrijf, Traffic Power, dat beweerdelijk risicotechnieken gebruikte en deze risico ‘ s niet aan zijn klanten openbaar maakte. Wired magazine meldde dat hetzelfde bedrijf blogger en SEO Aaron Wall aanklaagde voor het schrijven over het verbod. Google ‘ s Matt Cutts later bevestigd dat Google in feite ban Traffic Power en een aantal van haar klanten.

sommige zoekmachines hebben ook contact opgenomen met de SEO-industrie en zijn frequente sponsors en gasten op SEO-conferenties, webchats en seminars. Belangrijke zoekmachines bieden informatie en richtlijnen om te helpen met website Optimalisatie. Google heeft een Sitemaps-programma om webmasters te helpen om te leren of Google problemen heeft met het indexeren van hun website en biedt ook gegevens over Google-verkeer naar de website. Bing Webmaster Tools biedt een manier voor webmasters om een sitemap en web feeds in te dienen, stelt gebruikers in staat om de “crawl rate” te bepalen, en het bijhouden van de webpagina ‘ s index status.

in 2015 werd gemeld dat Google mobiele zoekopdrachten ontwikkelde en promoot als een belangrijk onderdeel van toekomstige producten. In reactie daarop, veel merken begonnen om een andere aanpak van hun internet marketing strategieën te nemen.in 1998 ontwikkelden twee afgestudeerde studenten van Stanford University, Larry Page en Sergey Brin, “Backrub”, een zoekmachine die zich baseerde op een wiskundig algoritme om de zichtbaarheid van webpagina ‘ s te beoordelen. Het getal berekend door het algoritme, PageRank, is een functie van de hoeveelheid en de sterkte van inkomende links. PageRank schat de kans dat een bepaalde pagina zal worden bereikt door een webgebruiker die willekeurig surft op het web, en volgt links van de ene pagina naar de andere. In feite, dit betekent dat sommige links zijn sterker dan andere, als een hogere PageRank pagina is meer kans om te worden bereikt door de willekeurige web surfer.

Page en Brin richtten Google op in 1998. Google trok een trouwe aanhang onder het groeiende aantal internetgebruikers, die hield van het eenvoudige ontwerp. Off-page factoren (zoals PageRank en hyperlink analyse) werden beschouwd als evenals op-pagina factoren (zoals trefwoord frequentie, meta tags, koppen, links en site structuur) om Google in staat te stellen om het soort manipulatie gezien in zoekmachines die alleen beschouwd op-pagina factoren voor hun rankings te vermijden. Hoewel PageRank moeilijker te spelen was, hadden webmasters al link building tools en schema ‘ s ontwikkeld om de Inktomi zoekmachine te beïnvloeden, en deze methoden bleken ook van toepassing te zijn op gaming PageRank. Veel sites gericht op het uitwisselen, kopen en verkopen van links, vaak op grote schaal. Sommige van deze regelingen, of link farms, betroffen de oprichting van duizenden sites met als enig doel link spamming.

in 2004 hadden zoekmachines een breed scala aan onbekende factoren in hun rangschikkingsalgoritmen opgenomen om de impact van linkmanipulatie te verminderen. In juni 2007 verklaarde Saul Hansell van de New York Times dat Google Sites rangschikt met meer dan 200 verschillende signalen. De toonaangevende zoekmachines, Google, Bing, en Yahoo, niet onthullen de algoritmen die ze gebruiken om pagina ‘ s rangschikken. Sommige SEO beoefenaars hebben verschillende benaderingen van zoekmachine optimalisatie bestudeerd, en hebben hun persoonlijke meningen gedeeld. Patenten met betrekking tot zoekmachines kunnen informatie verschaffen om zoekmachines beter te begrijpen. In 2005 begon Google de zoekresultaten voor elke gebruiker te personaliseren. Afhankelijk van hun geschiedenis van eerdere zoekopdrachten, Google gemaakt resultaten voor ingelogde gebruikers.in 2007 kondigde Google een campagne aan tegen betaalde links die PageRank overdragen. Op 15 juni 2009 maakte Google bekend dat zij maatregelen hadden genomen om de effecten van het beeldhouwen van PageRank te beperken door gebruik te maken van het attribuut nofollow op links. Matt Cutts, een bekende software engineer bij Google, kondigde aan dat Google Bot geen nofollow-links meer op dezelfde manier zou behandelen om te voorkomen dat SEO-serviceproviders nofollow gebruiken voor pagerank-sculpting. Als gevolg van deze verandering leidde het gebruik van nofollow tot verdamping van PageRank. Om het bovenstaande te voorkomen, SEO ingenieurs ontwikkelde alternatieve technieken die nofollowed tags vervangen door versluierde JavaScript en dus pagerank beeldhouwen toestaan. Daarnaast zijn verschillende oplossingen voorgesteld die het gebruik van iframes, Flash en JavaScript omvatten.

In December 2009 kondigde Google aan dat het de zoekgeschiedenis van alle gebruikers op het web zou gebruiken om zoekresultaten in te vullen. Op 8 juni 2010 werd een nieuw webindexeringssysteem genaamd Google cafeïne aangekondigd. Ontworpen om gebruikers in staat te stellen om nieuwsresultaten te vinden, forumberichten en andere inhoud veel eerder na publicatie dan voorheen, Google cafeïne was een verandering in de manier waarop Google bijgewerkt zijn index om dingen te laten zien sneller op Google dan voorheen. Volgens Carrie Grimes, de software engineer die cafeïne aangekondigd voor Google, ” cafeïne biedt 50 procent frissere resultaten voor zoekopdrachten op het web dan onze laatste index…”Google Instant, real-time-search, werd eind 2010 geïntroduceerd in een poging om de zoekresultaten sneller en relevanter te maken. Historisch site beheerders hebben maanden of zelfs jaren besteed aan het optimaliseren van een website om de zoekresultaten te verhogen. Met de groei in populariteit van social media sites en blogs de toonaangevende motoren wijzigingen aangebracht in hun algoritmen om verse inhoud snel te rangschikken binnen de zoekresultaten.

In februari 2011 kondigde Google de Panda-update aan, die websites bestraft die inhoud bevatten die van andere websites en bronnen is gedupliceerd. Historisch websites hebben inhoud van elkaar gekopieerd en geprofiteerd in de zoekmachine rankings door deel te nemen aan deze praktijk. Google heeft echter een nieuw systeem geïmplementeerd dat sites straft waarvan de inhoud niet uniek is. De 2012 Google Penguin geprobeerd om websites die manipulatieve technieken gebruikt om hun rankings op de zoekmachine te verbeteren straffen. Hoewel Google Penguin is gepresenteerd als een algoritme gericht op het bestrijden van web spam, het echt richt zich op spammy links door het meten van de kwaliteit van de sites de links zijn afkomstig van. De 2013 Google Hummingbird update featured een algoritme verandering ontworpen om Google ’s natuurlijke taalverwerking en semantische begrip van webpagina’ s te verbeteren. Hummingbird ‘ s language processing system valt onder de nieuw erkende term van “conversational search” waar het systeem besteedt meer aandacht aan elk woord in de query om beter overeenkomen met de pagina ‘ s aan de Betekenis van de query in plaats van een paar woorden. Met betrekking tot de wijzigingen in de zoekmachine optimalisatie, voor inhoud uitgevers en schrijvers, Hummingbird is bedoeld om problemen op te lossen door het wegwerken van irrelevante inhoud en spam, waardoor Google kwalitatief hoogwaardige inhoud te produceren en vertrouwen op hen te zijn ‘vertrouwde’ auteurs.

In oktober 2019 kondigde Google aan dat ze BERT-modellen zouden gaan toepassen voor Engelstalige zoekopdrachten in de VS. Bidirectionele Encoder Representations van Transformers (BERT) was een andere poging van Google om hun natuurlijke taalverwerking te verbeteren, maar dit keer om de zoekopdrachten van hun gebruikers beter te begrijpen. In termen van zoekmachine optimalisatie, BERT bedoeld om gebruikers gemakkelijker te verbinden met relevante inhoud en de kwaliteit van het verkeer komen naar websites die worden gerangschikt in de zoekmachine resultaten pagina te verhogen.