Articles

Search engine optimization

webmasterzy i dostawcy treści zaczęli optymalizować strony internetowe pod kątem wyszukiwarek w połowie lat 90., ponieważ pierwsze Wyszukiwarki katalogowały wczesną sieć. Początkowo wszyscy webmasterzy musieli tylko podać adres strony lub adres URL do różnych silników, które wysyłałyby Robot internetowy do indeksowania tej strony, wyodrębniania z niej linków do innych stron i zwracania informacji znalezionych na stronie, która ma być indeksowana. Proces polega na pobraniu strony przez wyszukiwarkę i zapisaniu jej na własnym serwerze Wyszukiwarki. Drugi program, znany jako indekser, wyodrębnia informacje o stronie, takie jak słowa, które zawiera, gdzie się znajdują, I jakąkolwiek wagę dla konkretnych słów, a także wszystkie linki, które zawiera strona. Wszystkie te informacje są następnie umieszczane w harmonogramie do indeksowania w późniejszym terminie.

właściciele stron www uznali wartość wysokiej pozycji w rankingu i widoczności w wynikach wyszukiwarek, tworząc szansę zarówno dla praktyków SEO white hat, jak i black hat. Według analityka branży Danny Sullivan, fraza „search engine optimization” prawdopodobnie weszła w życie w 1997 roku. Sullivan uważa Bruce ’ a Claya za jedną z pierwszych osób, które spopularyzowały ten termin.

wczesne wersje algorytmów wyszukiwania opierały się na informacjach dostarczanych przez webmastera, takich jak meta tag słowa kluczowego lub pliki indeksów w silnikach takich jak ALIWEB. Metatagi stanowią Przewodnik po zawartości każdej strony. Użycie metadanych do indeksowania stron okazało się jednak mniej niż wiarygodne, ponieważ wybór słów kluczowych przez webmastera w metatagu może potencjalnie być niedokładną reprezentacją rzeczywistej zawartości witryny. Niedokładne, niekompletne i niespójne dane w metatagach mogą i tak spowodować, że strony będą pozycjonowane dla nieistotnych wyszukiwań. Dostawcy treści internetowych manipulowali również niektórymi atrybutami w źródle HTML strony, starając się dobrze pozycjonować w wyszukiwarkach. W 1997 roku projektanci wyszukiwarek uznali, że webmasterzy dokładają starań, aby dobrze pozycjonować swoją wyszukiwarkę, a niektórzy webmasterzy manipulowali nawet swoimi rankingami w wynikach wyszukiwania, wypełniając strony nadmiernymi lub nieistotnymi słowami kluczowymi. Wczesne wyszukiwarki, takie jak Altavista i Infoseek, dostosowały swoje algorytmy, aby uniemożliwić webmasterom manipulowanie rankingami.

opierając się w dużym stopniu na czynnikach, takich jak gęstość słów kluczowych, które były wyłącznie pod kontrolą webmastera, wczesne Wyszukiwarki cierpiały na nadużycia i manipulacje w rankingu. Aby zapewnić lepsze wyniki dla swoich użytkowników, wyszukiwarki musiały dostosować się, aby ich strony wyników pokazywały Najbardziej odpowiednie wyniki wyszukiwania, a nie niepowiązane strony wypełnione licznymi słowami kluczowymi przez pozbawionych skrupułów webmasterów. Oznaczało to odejście od ciężkiego polegania na gęstości terminów na rzecz bardziej holistycznego procesu punktowania sygnałów semantycznych. Ponieważ sukces i popularność Wyszukiwarki zależy od jej zdolności do generowania najbardziej odpowiednich wyników dla danego wyszukiwania, niska jakość lub nieistotne wyniki wyszukiwania mogą prowadzić użytkowników do znalezienia innych źródeł wyszukiwania. Wyszukiwarki odpowiedziały, opracowując bardziej złożone algorytmy rankingu, biorąc pod uwagę dodatkowe czynniki, które były trudniejsze do manipulowania przez webmasterów.

firmy, które stosują zbyt agresywne techniki, mogą zablokować witryny swoich klientów w wynikach wyszukiwania. W 2005 roku Wall Street Journal poinformował o firmie Traffic Power, która rzekomo stosowała techniki wysokiego ryzyka i nie ujawniła tych zagrożeń swoim klientom. Magazyn Wired poinformował, że ta sama firma pozwała blogera i SEO Aarona Walla za pisanie o zakazie. Matt Cutts Google potwierdził później, że Google faktycznie zakazał ruchu i niektórych swoich klientów.

niektóre wyszukiwarki również dotarły do branży SEO i są częstymi sponsorami i gośćmi na konferencjach SEO, czatach internetowych i seminariach. Główne wyszukiwarki dostarczają informacji i wskazówek, które pomogą w optymalizacji witryny. Google ma program Sitemaps, który pomaga webmasterom dowiedzieć się, czy Google ma jakiekolwiek problemy z indeksowaniem ich witryny, a także dostarcza dane o ruchu Google na stronie. Narzędzia dla webmasterów Bing umożliwiają webmasterom przesyłanie mapy witryny i kanałów internetowych, umożliwiają użytkownikom określenie „współczynnika indeksowania” i śledzenie stanu indeksu stron internetowych.

w 2015 r.poinformowano, że Google rozwija i promuje wyszukiwanie mobilne jako kluczową funkcję w przyszłych produktach. W odpowiedzi wiele marek zaczęło przyjmować inne podejście do swoich strategii marketingu internetowego.

związek z Google

w 1998 roku dwaj absolwenci Uniwersytetu Stanforda, Larry Page i Sergey Brin, opracowali „Backrub”, wyszukiwarkę, która opierała się na matematycznym algorytmie do oceny znaczenia stron internetowych. Liczba obliczona przez algorytm, PageRank, jest funkcją ilości i siły linków przychodzących. PageRank szacuje prawdopodobieństwo, że dana strona zostanie osiągnięta przez użytkownika, który losowo surfuje po Internecie i podąża za linkami z jednej strony do drugiej. W efekcie oznacza to, że niektóre linki są silniejsze niż inne, ponieważ strona o wyższym PageRank jest bardziej prawdopodobna dla przypadkowego internauty.

Page i Brin założyli Google w 1998 roku. Google przyciągnęło lojalnych zwolenników wśród rosnącej liczby internautów, którym spodobała się jego prosta konstrukcja. Uwzględniono czynniki poza stroną (takie jak PageRank i analiza hiperłączy), a także czynniki na stronie (takie jak częstotliwość słów kluczowych, metatagi, nagłówki, linki i struktura witryny), aby umożliwić Google uniknięcie manipulacji obserwowanych w wyszukiwarkach, które uwzględniały tylko czynniki na stronie w swoich rankingach. Chociaż PageRank był trudniejszy do gry, webmasterzy opracowali już narzędzia i schematy budowania linków, aby wpłynąć na wyszukiwarkę Inktomi, a Metody te okazały się podobne do PageRank gier. Wiele witryn koncentruje się na wymianie, kupowaniu i sprzedaży linków, często na masową skalę. Niektóre z tych programów lub Farm linków obejmowały tworzenie tysięcy witryn wyłącznie w celu spamowania linków.

do 2004 r.Wyszukiwarki włączyły do swoich algorytmów rankingowych szeroką gamę nieujawnionych czynników, aby zmniejszyć wpływ manipulacji linkami. W czerwcu 2007 roku Saul Hansell z New York Timesa stwierdził, że Google pozycjonuje witryny używając ponad 200 różnych sygnałów. Wiodące wyszukiwarki, Google, Bing i Yahoo, nie ujawniają algorytmów, których używają do pozycjonowania stron. Niektórzy praktycy SEO studiowali różne podejścia do optymalizacji pod kątem wyszukiwarek i dzielili się swoimi osobistymi opiniami. Patenty związane z wyszukiwarkami mogą dostarczać informacji, aby lepiej zrozumieć Wyszukiwarki. W 2005 roku Google zaczęło personalizować wyniki wyszukiwania dla każdego użytkownika. W zależności od ich historii poprzednich wyszukiwań, Google opracowało wyniki dla zalogowanych użytkowników.

w 2007 roku Google ogłosiło kampanię przeciwko płatnym linkom, które przenoszą PageRank. 15 czerwca 2009 roku Google ujawniło, że podjęło działania mające na celu złagodzenie skutków rzeźbienia PageRank poprzez użycie atrybutu nofollow na linkach. Matt Cutts, znany inżynier oprogramowania w Google, ogłosił, że Bot Google nie będzie już traktował żadnych linków nofollow w ten sam sposób, aby uniemożliwić dostawcom usług SEO korzystanie z nofollow do rzeźbienia PageRank. W wyniku tej zmiany użycie nofollow doprowadziło do odparowania PageRank. Aby uniknąć powyższego, inżynierowie SEO opracowali alternatywne techniki, które zastępują tagi nofollowed przy użyciu zamaskowanego JavaScript, a tym samym umożliwiają rzeźbienie PageRank. Dodatkowo zaproponowano kilka rozwiązań, które obejmują użycie ramek iframes, Flash i JavaScript.

w grudniu 2009 roku Google ogłosiło, że będzie używać historii wyszukiwania wszystkich swoich użytkowników w celu wypełnienia wyników wyszukiwania. 8 czerwca 2010 roku został ogłoszony nowy system indeksowania stron internetowych o nazwie Google Caffeine. Zaprojektowany, aby umożliwić użytkownikom znalezienie wyników wiadomości, postów na forum i innych treści znacznie szybciej po opublikowaniu niż wcześniej, Google Caffeine była zmianą sposobu, w jaki Google zaktualizował swój indeks, aby rzeczy pojawiały się szybciej w Google niż wcześniej. Według Carrie Grimes, inżynier oprogramowania, który ogłosił kofeiny dla Google, ” kofeina zapewnia 50 procent świeższe wyniki wyszukiwania w Internecie niż nasz ostatni indeks…”Google Instant, wyszukiwanie w czasie rzeczywistym, zostało wprowadzone pod koniec 2010 roku, aby wyniki wyszukiwania były bardziej aktualne i trafne. Historycznie administratorzy witryny spędzili miesiące, a nawet lata, optymalizując witrynę w celu zwiększenia rankingów wyszukiwania. Wraz ze wzrostem popularności serwisów społecznościowych i blogów wiodące silniki wprowadziły zmiany w swoich algorytmach, aby umożliwić szybką pozycję świeżych treści w wynikach wyszukiwania.

w lutym 2011 roku Google ogłosiło aktualizację Panda, która penalizuje strony internetowe zawierające treści powielone z innych stron i źródeł. Historycznie strony internetowe kopiowały treści od siebie i korzystały w rankingach wyszukiwarek, angażując się w tę praktykę. Google wdrożyło jednak nowy system, który karze witryny, których treść nie jest unikalna. 2012 Google Penguin próbował ukarać strony internetowe, które wykorzystywały techniki manipulacyjne w celu poprawy ich pozycji w wyszukiwarce. Chociaż Google Penguin został przedstawiony jako algorytm mający na celu zwalczanie spamu internetowego, naprawdę koncentruje się na spamowych linkach, oceniając jakość stron, z których pochodzą linki. Aktualizacja 2013 Google Hummingbird zawierała zmianę algorytmu zaprojektowaną w celu poprawy przetwarzania języka naturalnego Google i semantycznego rozumienia stron internetowych. System przetwarzania języka Hummingbird należy do nowo uznanego terminu „wyszukiwanie konwersacyjne”, gdzie system zwraca większą uwagę na każde słowo w zapytaniu, aby lepiej dopasować strony do znaczenia zapytania, a nie kilka słów. W odniesieniu do zmian wprowadzonych do optymalizacji pod kątem wyszukiwarek, dla wydawców treści i pisarzy, Hummingbird ma na celu rozwiązywanie problemów poprzez pozbycie się nieistotnych treści i spamu, umożliwiając Google tworzenie wysokiej jakości treści i poleganie na nich, aby być „zaufanymi” autorami.

w październiku 2019 r.Google ogłosiło, że zacznie stosować modele BERT do zapytań w języku angielskim w USA. Dwukierunkowe reprezentacje enkoderów Transformers (BERT) były kolejną próbą Google poprawy przetwarzania języka naturalnego, ale tym razem w celu lepszego zrozumienia zapytań ich użytkowników. Jeśli chodzi o optymalizację pod kątem wyszukiwarek, Bert zamierzał łatwiej łączyć użytkowników z odpowiednimi treściami i zwiększać jakość ruchu na stronach internetowych, które są w rankingu na stronie wyników wyszukiwania.