Articles

Optimizarea motorului de căutare

webmasterii și furnizorii de conținut au început să optimizeze site-urile web pentru motoarele de căutare la mijlocul anilor 1990, deoarece primele motoare de căutare catalogau Web-ul timpuriu. Inițial, toți webmasterii trebuiau doar să trimită adresa unei pagini sau URL-ul diferitelor motoare care ar trimite un crawler web să acceseze cu crawlere acea pagină, să extragă linkuri către alte pagini din ea și să returneze informațiile găsite pe pagina care urmează să fie indexată. Procesul implică un păianjen al motorului de căutare care descarcă o pagină și o stochează pe propriul server al motorului de căutare. Un al doilea program, cunoscut sub numele de indexator, extrage informații despre pagină, cum ar fi cuvintele pe care le conține, unde se află și orice greutate pentru anumite cuvinte, precum și toate linkurile pe care le conține pagina. Toate aceste informații sunt apoi plasate într-un planificator pentru accesarea cu crawlere la o dată ulterioară.

proprietarii de site-uri web au recunoscut valoarea unui rang înalt și a vizibilității în rezultatele motorului de căutare, creând o oportunitate atât pentru practicienii SEO white hat, cât și pentru Black Hat. Potrivit analistului din industrie Danny Sullivan, expresia „optimizarea motorului de căutare” a intrat probabil în uz în 1997. Sullivan îl recunoaște pe Bruce Clay drept unul dintre primii oameni care au popularizat termenul.

primele versiuni ale algoritmilor de căutare s-au bazat pe informații furnizate de webmasteri, cum ar fi meta tag-ul cuvântului cheie sau fișierele index din motoare precum ALIWEB. Etichetele Meta oferă un ghid pentru conținutul fiecărei pagini. Utilizarea metadatelor pentru indexarea paginilor s-a dovedit a fi mai puțin fiabilă, totuși, deoarece alegerea cuvintelor cheie de către webmaster în meta tag ar putea fi o reprezentare inexactă a conținutului real al site-ului. Datele inexacte, incomplete și inconsistente din meta tag-uri ar putea și au făcut ca paginile să se clasifice pentru căutări irelevante. Furnizorii de conținut web au manipulat, de asemenea, unele atribute din sursa HTML a unei pagini, în încercarea de a se clasifica bine în motoarele de căutare. Până în 1997, designerii motoarelor de căutare au recunoscut că webmasterii făceau eforturi pentru a se clasifica bine în motorul lor de căutare și că unii webmasteri își manipulau chiar clasamentele în rezultatele căutării prin umplerea paginilor cu cuvinte cheie excesive sau irelevante. Motoarele de căutare timpurii, cum ar fi Altavista și Infoseek, și-au ajustat algoritmii pentru a împiedica webmasterii să manipuleze clasamentele.bazându-se în mare măsură pe factori precum densitatea cuvintelor cheie, care se aflau exclusiv sub controlul unui webmaster, motoarele de căutare timpurii au suferit de abuz și manipulare a clasamentului. Pentru a oferi rezultate mai bune utilizatorilor lor, motoarele de căutare au trebuit să se adapteze pentru a se asigura că paginile cu rezultate arată cele mai relevante rezultate ale căutării, mai degrabă decât paginile fără legătură umplute cu numeroase cuvinte cheie de către webmasteri lipsiți de scrupule. Aceasta a însemnat trecerea de la dependența puternică de densitatea termenului la un proces mai holistic pentru notarea semnalelor semantice. Deoarece succesul și popularitatea unui motor de căutare sunt determinate de capacitatea sa de a produce cele mai relevante rezultate pentru orice căutare dată, rezultatele de căutare de calitate slabă sau irelevante ar putea determina utilizatorii să găsească alte surse de căutare. Motoarele de căutare au răspuns dezvoltând algoritmi de clasare mai complexi, luând în considerare factori suplimentari care au fost mai greu de manipulat pentru webmasteri.

companiile care folosesc tehnici excesiv de agresive pot obține site-urile clienților lor interzise din rezultatele căutării. În 2005, Wall Street Journal a raportat despre o companie, Traffic Power, care ar fi folosit tehnici cu risc ridicat și nu a reușit să dezvăluie aceste riscuri clienților săi. Revista Wired a raportat că aceeași companie a dat în judecată bloggerul și SEO Aaron Wall pentru că au scris despre interdicție. Matt Cutts de la Google a confirmat ulterior că Google a interzis, de fapt, puterea de trafic și unii dintre clienții săi.

unele motoare de căutare au ajuns, de asemenea, la industria SEO și sunt sponsori frecvenți și invitați la conferințe SEO, webchats și seminarii. Motoarele de căutare majore oferă informații și linii directoare pentru a ajuta la optimizarea site-ului. Google are un program de sitemap-uri pentru a ajuta webmasterii să afle dacă Google are probleme la indexarea site-ului lor web și oferă, de asemenea, date despre traficul Google către site-ul web. Bing Webmaster Tools oferă o modalitate pentru webmasteri de a trimite un sitemap și fluxuri web, permite utilizatorilor să determine „rata de accesare cu crawlere” și să urmărească starea indexului paginilor web.

în 2015, s-a raportat că Google dezvoltă și promovează căutarea mobilă ca o caracteristică cheie în cadrul produselor viitoare. Ca răspuns, multe mărci au început să adopte o abordare diferită a strategiilor lor de marketing pe Internet.

relația cu Google

în 1998, doi studenți absolvenți de la Universitatea Stanford, Larry Page și Sergey Brin, au dezvoltat „Backrub”, un motor de căutare care se baza pe un algoritm matematic pentru a evalua proeminența paginilor web. Numărul calculat de algoritm, PageRank, este o funcție a cantității și puterii legăturilor de intrare. PageRank estimează probabilitatea ca o anumită pagină să fie accesată de un utilizator web care navighează aleatoriu pe web și urmează linkuri de la o pagină la alta. De fapt, acest lucru înseamnă că unele link-uri sunt mai puternice decât altele, deoarece o pagină PageRank mai mare este mai probabil să fie atinsă de surferul web aleatoriu.Page și Brin au fondat Google în 1998. Google a atras o urmărire loială în rândul numărului tot mai mare de utilizatori de Internet, cărora le-a plăcut designul său simplu. Factorii din afara paginii (cum ar fi analiza PageRank și hyperlink) au fost luați în considerare, precum și factorii de pe pagină (cum ar fi frecvența cuvintelor cheie, meta tag-urile, titlurile, link-urile și structura site-ului) pentru a permite Google să evite tipul de manipulare văzut în motoarele de căutare care au luat în considerare doar factorii de pe pagină pentru clasamentul lor. Deși PageRank era mai dificil de jucat, webmasterii dezvoltaseră deja instrumente și scheme de construire a legăturilor pentru a influența motorul de căutare Inktomi, iar aceste metode s-au dovedit a fi aplicabile în mod similar PageRank-ului de jocuri. Multe site-uri s-au concentrat pe schimbul, cumpărarea și vânzarea de link-uri, adesea la scară masivă. Unele dintre aceste scheme, sau ferme de link-uri, au implicat crearea a mii de site-uri cu unicul scop de spam de link-uri.până în 2004, motoarele de căutare au încorporat o gamă largă de factori nedivulgați în algoritmii lor de clasificare pentru a reduce impactul manipulării legăturilor. În iunie 2007, Saul Hansell din New York Times a declarat că Google clasează site-urile folosind peste 200 de semnale diferite. Cele mai importante motoare de căutare, Google, Bing și Yahoo, nu dezvăluie algoritmii pe care îi folosesc pentru a clasifica paginile. Unii practicanți SEO au studiat diferite abordări ale optimizării motoarelor de căutare și și-au împărtășit opiniile personale. Brevetele legate de motoarele de căutare pot oferi informații pentru a înțelege mai bine motoarele de căutare. În 2005, Google a început să personalizeze rezultatele căutării pentru fiecare utilizator. În funcție de istoricul căutărilor anterioare, Google a creat rezultate pentru utilizatorii conectați.

în 2007, Google a anunțat o campanie împotriva linkurilor plătite care transferă PageRank. La 15 iunie 2009, Google a dezvăluit că a luat măsuri pentru a atenua efectele sculptării PageRank prin utilizarea atributului nofollow pe linkuri. Matt Cutts, un cunoscut inginer software la Google, a anunțat că Google Bot nu va mai trata niciun link nofollow, în același mod, pentru a împiedica furnizorii de servicii SEO să utilizeze nofollow pentru sculptura PageRank. Ca urmare a acestei modificări, utilizarea nofollow a dus la evaporarea PageRank. Pentru a evita cele de mai sus, inginerii SEO au dezvoltat tehnici alternative care înlocuiesc etichetele nofollowed cu JavaScript obfuscated și permit astfel sculptura PageRank. În plus, au fost sugerate mai multe soluții care includ utilizarea iframe-urilor, Flash și JavaScript.în decembrie 2009, Google a anunțat că va folosi Istoricul căutărilor web al tuturor utilizatorilor săi pentru a popula rezultatele căutării. Pe 8 iunie 2010 a fost anunțat un nou sistem de indexare web numit Google Caffeine. Conceput pentru a permite utilizatorilor să găsească rezultate de știri, postări pe forum și alte conținuturi mult mai devreme după publicare decât înainte, Google Caffeine a fost o schimbare a modului în care Google și-a actualizat indexul pentru a face lucrurile să apară mai repede pe Google decât înainte. Potrivit lui Carrie Grimes ,inginerul software care a anunțat cofeină pentru Google, ” cofeina oferă rezultate cu 50% mai proaspete pentru căutările pe web decât ultimul nostru index…”Google Instant, Căutare în timp real, a fost introdus la sfârșitul anului 2010, în încercarea de a face rezultatele căutării mai oportune și mai relevante. Din punct de vedere istoric, administratorii site-ului au petrecut luni sau chiar ani optimizând un site web pentru a crește clasamentul de căutare. Odată cu creșterea popularității site-urilor de socializare și a blogurilor, motoarele de top au făcut modificări algoritmilor lor pentru a permite conținutului proaspăt să se clasifice rapid în rezultatele căutării.în februarie 2011, Google a anunțat actualizarea Panda, care penalizează site-urile web care conțin conținut duplicat de pe alte site-uri web și surse. Din punct de vedere istoric, site-urile web au copiat conținut unul de la celălalt și au beneficiat în clasamentul motoarelor de căutare prin implicarea în această practică. Cu toate acestea, Google a implementat un nou sistem care pedepsește site-urile al căror conținut nu este unic. Google Penguin din 2012 a încercat să penalizeze site-urile web care au folosit tehnici manipulative pentru a-și îmbunătăți clasamentul pe motorul de căutare. Deși Google Penguin a fost prezentat ca un algoritm care vizează combaterea spamului web, acesta se concentrează într-adevăr pe linkurile spam prin măsurarea calității site-urilor de pe care provin linkurile. Actualizarea Google Hummingbird din 2013 a prezentat o modificare a algoritmului concepută pentru a îmbunătăți procesarea limbajului natural Google și înțelegerea semantică a paginilor web. Sistemul de procesare a limbajului Hummingbird se încadrează în termenul nou recunoscut de” căutare conversațională”, unde sistemul acordă mai multă atenție fiecărui cuvânt din interogare pentru a potrivi mai bine paginile cu semnificația interogării, mai degrabă decât cu câteva cuvinte. În ceea ce privește modificările aduse optimizării motoarelor de căutare, pentru editorii și scriitorii de conținut, Hummingbird este destinat să rezolve problemele prin eliminarea conținutului irelevant și a spamului, permițând Google să producă conținut de înaltă calitate și să se bazeze pe aceștia pentru a fi autori de încredere.în octombrie 2019, Google a anunțat că va începe să aplice modele BERT pentru interogările de căutare în limba engleză în SUA. Reprezentările codificatorului bidirecțional de la Transformers (BERT) a fost o altă încercare a Google de a-și îmbunătăți procesarea limbajului natural, dar de data aceasta pentru a înțelege mai bine interogările de căutare ale utilizatorilor lor. În ceea ce privește optimizarea motorului de căutare, BERT intenționa să conecteze utilizatorii mai ușor la conținutul relevant și să crească calitatea traficului care vine pe site-urile web care se clasează în pagina cu rezultatele motorului de căutare.