Articles

Optimización de motores de búsqueda

Los webmasters y proveedores de contenido comenzaron a optimizar sitios web para motores de búsqueda a mediados de la década de 1990, ya que los primeros motores de búsqueda estaban catalogando la Web temprana. Inicialmente, todos los webmasters solo necesitaban enviar la dirección de una página, o URL, a los diversos motores que enviarían un rastreador web para rastrear esa página, extraer enlaces a otras páginas de ella y devolver información encontrada en la página para ser indexada. El proceso implica que una araña del motor de búsqueda descargue una página y la almacene en el propio servidor del motor de búsqueda. Un segundo programa, conocido como indexador, extrae información sobre la página, como las palabras que contiene, dónde se encuentran y cualquier peso para palabras específicas, así como todos los enlaces que contiene la página. Toda esta información se coloca en un planificador para rastrearla en una fecha posterior.

Los propietarios de sitios web reconocieron el valor de un alto ranking y visibilidad en los resultados de los motores de búsqueda, creando una oportunidad para los profesionales de SEO de sombrero blanco y sombrero negro. Según el analista de la industria Danny Sullivan, la frase «optimización de motores de búsqueda» probablemente entró en uso en 1997. Sullivan acredita a Bruce Clay como una de las primeras personas en popularizar el término.

Las primeras versiones de los algoritmos de búsqueda se basaban en información proporcionada por el webmaster, como la etiqueta meta de palabras clave o los archivos de índice en motores como ALIWEB. Las meta etiquetas proporcionan una guía para el contenido de cada página. Sin embargo, se encontró que el uso de metadatos para indexar páginas no era confiable, porque la elección de palabras clave del administrador de la web en la etiqueta meta podría ser una representación inexacta del contenido real del sitio. Los datos inexactos, incompletos e inconsistentes en las meta etiquetas podían y hacían que las páginas se clasificaran para búsquedas irrelevantes. Los proveedores de contenido web también manipularon algunos atributos dentro de la fuente HTML de una página en un intento de posicionarse bien en los motores de búsqueda. En 1997, los diseñadores de motores de búsqueda reconocieron que los webmasters estaban haciendo esfuerzos para posicionarse bien en su motor de búsqueda, y que algunos webmasters incluso estaban manipulando sus clasificaciones en los resultados de búsqueda rellenando páginas con palabras clave excesivas o irrelevantes. Los primeros motores de búsqueda, como Altavista e Infoseek, ajustaron sus algoritmos para evitar que los webmasters manipularan los rankings.

Al depender en gran medida de factores como la densidad de palabras clave, que estaban exclusivamente bajo el control de un webmaster, los primeros motores de búsqueda sufrieron abuso y manipulación de clasificación. Para proporcionar mejores resultados a sus usuarios, los motores de búsqueda tuvieron que adaptarse para asegurarse de que sus páginas de resultados mostraran los resultados de búsqueda más relevantes, en lugar de páginas no relacionadas llenas de numerosas palabras clave por webmasters sin escrúpulos. Esto significó alejarse de la gran dependencia de la densidad de términos a un proceso más holístico para anotar señales semánticas. Dado que el éxito y la popularidad de un motor de búsqueda están determinados por su capacidad para producir los resultados más relevantes para cualquier búsqueda, los resultados de búsqueda de mala calidad o irrelevantes podrían llevar a los usuarios a encontrar otras fuentes de búsqueda. Los motores de búsqueda respondieron desarrollando algoritmos de clasificación más complejos, teniendo en cuenta factores adicionales que eran más difíciles de manipular para los webmasters.

Las empresas que emplean técnicas excesivamente agresivas pueden hacer que los sitios web de sus clientes sean excluidos de los resultados de búsqueda. En 2005, el Wall Street Journal informó sobre una empresa, Traffic Power, que supuestamente utilizó técnicas de alto riesgo y no reveló esos riesgos a sus clientes. La revista Wired informó que la misma compañía demandó al bloguero y seo Aaron Wall por escribir sobre la prohibición. Matt Cutts de Google confirmó más tarde que Google, de hecho, prohibió el Poder de Tráfico y algunos de sus clientes.

Algunos motores de búsqueda también han llegado a la industria SEO, y son patrocinadores e invitados frecuentes en conferencias, webchats y seminarios de SEO. Los principales motores de búsqueda proporcionan información y directrices para ayudar con la optimización del sitio web. Google tiene un programa de mapas del sitio para ayudar a los webmasters a saber si Google tiene problemas para indexar su sitio web y también proporciona datos sobre el tráfico de Google al sitio web. Bing Webmaster Tools proporciona una forma para que los webmasters envíen un mapa del sitio y fuentes web, permite a los usuarios determinar la «tasa de rastreo» y realizar un seguimiento del estado del índice de las páginas web.

En 2015, se informó que Google estaba desarrollando y promoviendo la búsqueda móvil como una característica clave dentro de los productos futuros. En respuesta, muchas marcas comenzaron a adoptar un enfoque diferente a sus estrategias de marketing en Internet.

Relación con Google

En 1998, dos estudiantes graduados de la Universidad de Stanford, Larry Page y Sergey Brin, desarrollaron «Backrub», un motor de búsqueda que se basaba en un algoritmo matemático para calificar la prominencia de las páginas web. El número calculado por el algoritmo, PageRank, es una función de la cantidad y la fuerza de los enlaces entrantes. PageRank estima la probabilidad de que un usuario de la web que navega aleatoriamente por la web y sigue enlaces de una página a otra llegue a una página determinada. En efecto, esto significa que algunos enlaces son más fuertes que otros, ya que es más probable que el navegante aleatorio llegue a una página de PageRank más alta.

Page y Brin fundaron Google en 1998. Google atrajo a seguidores fieles entre el creciente número de usuarios de Internet, a los que les gustó su diseño simple. Se consideraron factores fuera de la página (como el análisis de PageRank e hipervínculos), así como factores dentro de la página (como la frecuencia de palabras clave, meta etiquetas, encabezados, enlaces y estructura del sitio) para permitir a Google evitar el tipo de manipulación que se ve en los motores de búsqueda que solo consideran factores dentro de la página para sus rankings. Aunque el PageRank era más difícil de jugar, los webmasters ya habían desarrollado herramientas y esquemas de construcción de enlaces para influir en el motor de búsqueda Inktomi, y estos métodos demostraron ser igualmente aplicables al PageRank de juegos. Muchos sitios se centraron en intercambiar, comprar y vender enlaces, a menudo a gran escala. Algunos de estos esquemas, o granjas de enlaces, implicaban la creación de miles de sitios con el único propósito de enviar spam de enlaces.

En 2004, los motores de búsqueda habían incorporado una amplia gama de factores no revelados en sus algoritmos de clasificación para reducir el impacto de la manipulación de enlaces. En junio de 2007, Saul Hansell del New York Times declaró que Google clasifica los sitios utilizando más de 200 señales diferentes. Los principales motores de búsqueda, Google, Bing y Yahoo, no revelan los algoritmos que utilizan para clasificar las páginas. Algunos profesionales de SEO han estudiado diferentes enfoques para la optimización de motores de búsqueda y han compartido sus opiniones personales. Las patentes relacionadas con los motores de búsqueda pueden proporcionar información para comprender mejor los motores de búsqueda. En 2005, Google comenzó a personalizar los resultados de búsqueda para cada usuario. Dependiendo de su historial de búsquedas anteriores, Google creó los resultados para los usuarios registrados.

En 2007, Google anunció una campaña contra los enlaces de pago que transfieren PageRank. El 15 de junio de 2009, Google reveló que había tomado medidas para mitigar los efectos de la escultura de PageRank mediante el uso del atributo nofollow en los enlaces. Matt Cutts, un conocido ingeniero de software de Google, anunció que el Bot de Google ya no trataría ningún enlace nofollow, de la misma manera, para evitar que los proveedores de servicios SEO usen nofollow para esculpir PageRank. Como resultado de este cambio, el uso de nofollow llevó a la evaporación del PageRank. Para evitar lo anterior, los ingenieros de SEO desarrollaron técnicas alternativas que reemplazan las etiquetas nofollow con JavaScript ofuscado y, por lo tanto, permiten esculpir PageRank. Además, se han sugerido varias soluciones que incluyen el uso de iframes, Flash y JavaScript.

En diciembre de 2009, Google anunció que utilizaría el historial de búsqueda en la web de todos sus usuarios para rellenar los resultados de búsqueda. El 8 de junio de 2010 se anunció un nuevo sistema de indexación web llamado Google Caffeine. Diseñado para permitir a los usuarios encontrar resultados de noticias, publicaciones en foros y otros contenidos mucho antes de publicarlos, Google Caffeine fue un cambio en la forma en que Google actualizó su índice para que las cosas se muestren más rápido en Google que antes. Según Carrie Grimes, la ingeniera de software que anunció Caffeine para Google, » La cafeína proporciona resultados un 50 por ciento más frescos para las búsquedas en la web que nuestro último índice…»Google Instant, búsqueda en tiempo real, se introdujo a finales de 2010 en un intento de hacer que los resultados de búsqueda fueran más oportunos y relevantes. Históricamente, los administradores de sitios han pasado meses o incluso años optimizando un sitio web para aumentar los rankings de búsqueda. Con el crecimiento de la popularidad de los sitios de redes sociales y blogs, los principales motores hicieron cambios en sus algoritmos para permitir que el contenido fresco se posicione rápidamente dentro de los resultados de búsqueda.

En febrero de 2011, Google anunció la actualización Panda, que penaliza a los sitios web que contienen contenido duplicado de otros sitios web y fuentes. Históricamente, los sitios web han copiado contenido unos de otros y se han beneficiado en las clasificaciones de los motores de búsqueda al participar en esta práctica. Sin embargo, Google implementó un nuevo sistema que castiga a los sitios cuyo contenido no es único. El Pingüino de Google de 2012 intentó penalizar a los sitios web que usaban técnicas de manipulación para mejorar sus clasificaciones en el motor de búsqueda. Aunque Google Penguin se ha presentado como un algoritmo destinado a combatir el spam en la web, realmente se centra en los enlaces de spam al medir la calidad de los sitios de los que provienen los enlaces. La actualización de Google Hummingbird de 2013 presentó un cambio de algoritmo diseñado para mejorar el procesamiento del lenguaje natural de Google y la comprensión semántica de las páginas web. El sistema de procesamiento de lenguaje de Hummingbird cae bajo el recién reconocido término de «búsqueda conversacional», donde el sistema presta más atención a cada palabra en la consulta para que las páginas coincidan mejor con el significado de la consulta en lugar de unas pocas palabras. Con respecto a los cambios realizados en la optimización de motores de búsqueda, para editores de contenido y escritores, Hummingbird está destinado a resolver problemas al deshacerse del contenido irrelevante y el spam, lo que permite a Google producir contenido de alta calidad y confiar en que sean autores «de confianza».

En octubre de 2019, Google anunció que comenzaría a aplicar modelos BERT para consultas de búsqueda en inglés en los Estados Unidos. Las representaciones de codificadores Bidireccionales de Transformers (BERT) fue otro intento de Google de mejorar su procesamiento de lenguaje natural, pero esta vez para comprender mejor las consultas de búsqueda de sus usuarios. En términos de optimización de motores de búsqueda, BERT pretendía conectar a los usuarios más fácilmente con contenido relevante y aumentar la calidad del tráfico que llega a los sitios web que se clasifican en la página de Resultados del motor de búsqueda.