Articles

Suchmaschinenoptimierung

Webmaster und Inhaltsanbieter begannen Mitte der 1990er Jahre mit der Optimierung von Websites für Suchmaschinen, als die ersten Suchmaschinen das frühe Web katalogisierten. Anfänglich mussten alle Webmaster nur die Adresse einer Seite oder URL an die verschiedenen Engines senden, die einen Webcrawler senden, um diese Seite zu crawlen, Links zu anderen Seiten daraus zu extrahieren und Informationen zurückzugeben, die auf der zu indizierenden Seite gefunden wurden. Bei diesem Vorgang lädt ein Suchmaschinen-Spider eine Seite herunter und speichert sie auf dem eigenen Server der Suchmaschine. Ein zweites Programm, das als Indexer bezeichnet wird, extrahiert Informationen über die Seite, z. B. die darin enthaltenen Wörter, wo sie sich befinden, und das Gewicht für bestimmte Wörter sowie alle Links, die die Seite enthält. Alle diese Informationen werden dann in einem Scheduler für das Crawlen zu einem späteren Zeitpunkt platziert.

Websitebesitzer erkannten den Wert eines hohen Rankings und einer hohen Sichtbarkeit in den Suchmaschinenergebnissen, was sowohl für White-Hat- als auch für Black-Hat-SEO-Praktiker eine Chance bot. Laut Branchenanalyst Danny Sullivan wurde der Begriff „Suchmaschinenoptimierung“ wahrscheinlich 1997 verwendet. Sullivan schreibt Bruce Clay als einen der ersten Menschen zu, die den Begriff populär machten.Frühe Versionen von Suchalgorithmen stützten sich auf von Webmastern bereitgestellte Informationen wie das Keyword-Meta-Tag oder Indexdateien in Suchmaschinen wie ALIWEB. Meta-Tags bieten einen Leitfaden für den Inhalt jeder Seite. Die Verwendung von Metadaten zum Indizieren von Seiten erwies sich jedoch als weniger zuverlässig, da die Auswahl der Schlüsselwörter im Meta-Tag durch den Webmaster möglicherweise eine ungenaue Darstellung des tatsächlichen Inhalts der Website darstellt. Ungenaue, unvollständige und inkonsistente Daten in Meta-Tags können dazu führen, dass Seiten für irrelevante Suchanfragen eingestuft werden. Webinhaltsanbieter manipulierten auch einige Attribute innerhalb der HTML-Quelle einer Seite, um in Suchmaschinen einen guten Rang einzunehmen. Bis 1997 erkannten Suchmaschinendesigner, dass Webmaster Anstrengungen unternahmen, um in ihrer Suchmaschine gut zu ranken, und dass einige Webmaster sogar ihre Platzierungen in den Suchergebnissen manipulierten, indem sie Seiten mit übermäßigen oder irrelevanten Schlüsselwörtern füllten. Frühe Suchmaschinen wie Altavista und Infoseek haben ihre Algorithmen angepasst, um zu verhindern, dass Webmaster Rankings manipulieren.Durch die starke Abhängigkeit von Faktoren wie der Keyword-Dichte, die ausschließlich unter der Kontrolle eines Webmasters standen, litten frühe Suchmaschinen unter Missbrauch und Ranking-Manipulation. Um ihren Nutzern bessere Ergebnisse zu liefern, mussten sich Suchmaschinen anpassen, um sicherzustellen, dass ihre Ergebnisseiten die relevantesten Suchergebnisse zeigten, und nicht unabhängige Seiten, die von skrupellosen Webmastern mit zahlreichen Schlüsselwörtern gefüllt wurden. Dies bedeutete, sich von der starken Abhängigkeit von der Termdichte zu einem ganzheitlicheren Prozess zur Bewertung semantischer Signale zu bewegen. Da der Erfolg und die Popularität einer Suchmaschine durch ihre Fähigkeit bestimmt wird, die relevantesten Ergebnisse für eine bestimmte Suche zu liefern, können schlechte Qualität oder irrelevante Suchergebnisse dazu führen, dass Benutzer andere Suchquellen finden. Suchmaschinen reagierten darauf, indem sie komplexere Ranking-Algorithmen entwickelten, die zusätzliche Faktoren berücksichtigten, die für Webmaster schwieriger zu manipulieren waren.

Unternehmen, die übermäßig aggressive Techniken anwenden, können ihre Kunden-Websites aus den Suchergebnissen verbannen. Im Jahr 2005 berichtete das Wall Street Journal über ein Unternehmen, Traffic Power, das angeblich risikoreiche Techniken einsetzte und diese Risiken seinen Kunden nicht offenlegte. Das Wired Magazine berichtete, dass dasselbe Unternehmen den Blogger und SEO Aaron Wall verklagt habe, weil er über das Verbot geschrieben habe. Matt Cutts von Google bestätigte später, dass Google Traffic Power und einige seiner Kunden tatsächlich verboten hat.

Einige Suchmaschinen haben sich auch an die SEO-Branche gewandt und sind häufige Sponsoren und Gäste bei SEO-Konferenzen, Webchats und Seminaren. Die wichtigsten Suchmaschinen bieten Informationen und Richtlinien zur Website-Optimierung. Google verfügt über ein Sitemaps-Programm, mit dem Webmaster herausfinden können, ob Google Probleme bei der Indizierung ihrer Website hat, und das auch Daten zum Google-Traffic auf der Website bereitstellt. Bing Webmaster Tools bietet Webmastern die Möglichkeit, eine Sitemap und Webfeeds einzureichen, die „Crawling-Rate“ zu bestimmen und den Indexstatus von Webseiten zu verfolgen.

Im Jahr 2015 wurde berichtet, dass Google die mobile Suche als Schlüsselfunktion in zukünftigen Produkten entwickelt und fördert. Als Reaktion darauf begannen viele Marken, einen anderen Ansatz für ihre Internet-Marketing-Strategien zu verfolgen.

Beziehung zu Google

1998 entwickelten zwei Doktoranden der Stanford University, Larry Page und Sergey Brin, „Backrub“, eine Suchmaschine, die sich auf einen mathematischen Algorithmus stützte, um die Bekanntheit von Webseiten zu bewerten. Die vom Algorithmus berechnete Zahl, PageRank, ist eine Funktion der Menge und Stärke eingehender Links. PageRank schätzt die Wahrscheinlichkeit, dass eine bestimmte Seite von einem Webbenutzer erreicht wird, der zufällig im Web surft und Links von einer Seite zur anderen folgt. In der Tat bedeutet dies, dass einige Links stärker sind als andere, da eine höhere PageRank-Seite eher vom zufälligen Websurfer erreicht wird.Page und Brin gründeten Google 1998. Google zog eine treue Anhängerschaft unter der wachsenden Zahl von Internetnutzern an, die sein einfaches Design mochten. Off-Page-Faktoren (wie PageRank und Hyperlink-Analyse) wurden ebenso berücksichtigt wie On-Page-Faktoren (wie Keyword-Häufigkeit, Meta-Tags, Überschriften, Links und Site-Struktur), damit Google Manipulationen vermeiden kann, die in Suchmaschinen zu beobachten sind, die nur On-Page-Faktoren für ihre Rankings berücksichtigen. Obwohl PageRank schwieriger zu spielen war, Webmaster hatten bereits Linkbuilding-Tools und -Schemata entwickelt, um die Inktomi-Suchmaschine zu beeinflussen, und diese Methoden erwiesen sich als ähnlich anwendbar auf den PageRank von Spielen. Viele Websites konzentrierten sich auf den Austausch, Kauf und Verkauf von Links, oft in großem Umfang. Einige dieser Systeme oder Linkfarmen beinhalteten die Erstellung von Tausenden von Websites zum alleinigen Zweck des Link-Spammings.

Bis 2004 hatten Suchmaschinen eine Vielzahl von unbekannten Faktoren in ihre Ranking-Algorithmen aufgenommen, um die Auswirkungen der Linkmanipulation zu reduzieren. Im Juni 2007 gab Saul Hansell von der New York Times an, dass Google Websites mit mehr als 200 verschiedenen Signalen bewertet. Die führenden Suchmaschinen Google, Bing und Yahoo geben die Algorithmen, mit denen sie Seiten bewerten, nicht bekannt. Einige SEO-Praktiker haben verschiedene Ansätze zur Suchmaschinenoptimierung untersucht und ihre persönlichen Meinungen geteilt. Patente im Zusammenhang mit Suchmaschinen können Informationen zum besseren Verständnis von Suchmaschinen liefern. Im Jahr 2005 begann Google, die Suchergebnisse für jeden Nutzer zu personalisieren. Abhängig von ihrem Verlauf früherer Suchanfragen erstellt Google Ergebnisse für angemeldete Benutzer.

Im Jahr 2007 kündigte Google eine Kampagne gegen bezahlte Links an, die PageRank übertragen. Am 15. Juni 2009 gab Google bekannt, dass sie Maßnahmen ergriffen haben, um die Auswirkungen der PageRank-Sculpting durch die Verwendung des Nofollow-Attributs auf Links zu mildern. Matt Cutts, ein bekannter Softwareentwickler bei Google, kündigte an, dass Google Bot keine Nofollow-Links mehr auf die gleiche Weise behandeln werde, um zu verhindern, dass SEO-Dienstleister Nofollow für die PageRank-Sculpting verwenden. Infolge dieser Änderung führte die Verwendung von Nofollow zur Verdunstung des PageRank. Um dies zu vermeiden, haben SEO-Ingenieure alternative Techniken entwickelt, die Nofollow-Tags durch verschleiertes JavaScript ersetzen und so PageRank-Sculpting ermöglichen. Zusätzlich wurden mehrere Lösungen vorgeschlagen, die die Verwendung von Iframes, Flash und JavaScript beinhalten.

Im Dezember 2009 gab Google bekannt, dass es den Websuchverlauf aller seiner Nutzer verwenden würde, um Suchergebnisse zu füllen. Am 8. Juni 2010 wurde ein neues Web-Indexierungssystem namens Google Caffeine angekündigt. Google Caffeine wurde entwickelt, um es Nutzern zu ermöglichen, Nachrichtenergebnisse, Forenbeiträge und andere Inhalte viel früher nach der Veröffentlichung als zuvor zu finden, und war eine Änderung der Art und Weise, wie Google seinen Index aktualisiert hat, damit die Dinge bei Google schneller angezeigt werden als zuvor. Laut Carrie Grimes, der Software-Ingenieurin, die Caffeine für Google angekündigt hat, „liefert Caffeine 50 Prozent frischere Ergebnisse für Websuchen als unser letzter Index…“ Google Instant, die Echtzeitsuche, wurde Ende 2010 eingeführt, um die Suchergebnisse aktueller und relevanter zu machen. In der Vergangenheit haben Site-Administratoren Monate oder sogar Jahre damit verbracht, eine Website zu optimieren, um das Suchranking zu erhöhen. Mit der wachsenden Popularität von Social-Media-Sites und Blogs haben die führenden Suchmaschinen Änderungen an ihren Algorithmen vorgenommen, damit neue Inhalte schnell in den Suchergebnissen platziert werden können.

Im Februar 2011 kündigte Google das Panda-Update an, das Websites bestraft, die Inhalte enthalten, die von anderen Websites und Quellen dupliziert wurden. In der Vergangenheit haben Websites Inhalte voneinander kopiert und von dieser Praxis in Suchmaschinen-Rankings profitiert. Google hat jedoch ein neues System implementiert, das Websites bestraft, deren Inhalt nicht eindeutig ist. Der Google Penguin von 2012 versuchte, Websites zu bestrafen, die manipulative Techniken verwendeten, um ihre Platzierungen in der Suchmaschine zu verbessern. Obwohl Google Penguin als Algorithmus zur Bekämpfung von Web-Spam vorgestellt wurde, konzentriert es sich wirklich auf Spam-Links, indem es die Qualität der Websites misst, von denen die Links stammen. Das Google Hummingbird-Update 2013 enthielt eine Algorithmusänderung, die die Verarbeitung natürlicher Sprache und das semantische Verständnis von Webseiten durch Google verbessern sollte. Das Sprachverarbeitungssystem von Hummingbird fällt unter den neu anerkannten Begriff der „Konversationssuche“, bei dem das System jedem Wort in der Abfrage mehr Aufmerksamkeit schenkt, um die Seiten besser an die Bedeutung der Abfrage als an einige wenige Wörter anzupassen. In Bezug auf die Änderungen an der Suchmaschinenoptimierung soll Hummingbird für Content-Publisher und -Autoren Probleme lösen, indem irrelevante Inhalte und Spam entfernt werden, sodass Google qualitativ hochwertige Inhalte erstellen und sich darauf verlassen kann, dass sie vertrauenswürdige Autoren sind.

Im Oktober 2019 kündigte Google an, BERT-Modelle für englischsprachige Suchanfragen in den USA anzuwenden. Bidirectional Encoder Representations from Transformers (BERT) war ein weiterer Versuch von Google, die Verarbeitung natürlicher Sprache zu verbessern, diesmal jedoch, um die Suchanfragen ihrer Nutzer besser zu verstehen. In Bezug auf die Suchmaschinenoptimierung wollte BERT die Benutzer einfacher mit relevanten Inhalten verbinden und die Qualität des Datenverkehrs auf Websites erhöhen, die auf der Ergebnisseite der Suchmaschinen rangieren.