Los webmasters y proveedores de contenido comenzaron a optimizar los sitios web para los motores de búsqueda a mediados de la década de 1990, tan pronto como los motores de búsqueda comenzaron a catalogar Internet. Inicialmente, sitios como Yahoo! ofrecía inclusión a sitios que solicitaban su propia indexación, que era manual.
Al principio, todo lo que los administradores de páginas web tenían que hacer era enviar la dirección de una página web, o URL, a los distintos motores, que enviarían un rastreador o araña para inspeccionar ese sitio, extraer enlaces a otras páginas de este sitio y devolver la información recopilada. información para indexación. El proceso implica un rastreador propiedad del motor de búsqueda, que descarga una página y la almacena en los servidores de la empresa, donde un segundo programa, llamado indexador, extrae información sobre la página. Esto incluye las palabras que contiene y su ubicación, la relevancia de palabras específicas y cualquier enlace contenido en la página, que se almacenan para que el rastreador los rastree posteriormente.
al principio
Los propietarios de sitios web comenzaron a reconocer el valor de tener sus páginas bien posicionadas y visibles para los motores de búsqueda, lo que creó una oportunidad para los usuarios de técnicas de SEO de sombrero blanco y negro. Según el análisis del experto Danny Sullivan, el término optimización de motores de búsqueda comenzó a ser utilizado en agosto de 1997, por John Audette y su empresa, Grupo de marketing multimedia, documentado en una página del sitio web de la empresa.
Las primeras versiones de los algoritmos de búsqueda se basaban en información proporcionada por los administradores de páginas web, como palabras clave en metaetiquetas o archivos indexados en motores comoALIWEB. Las metaetiquetas proporcionan una guía para el contenido de cada página. Usar metadatos para indexar una página no era un método muy preciso, porque las palabras proporcionadas por el webmaster en las metaetiquetas podían ser una representación inexacta del contenido real de la página web. Los datos inexactos, incompletos e inconsistentes en las metaetiquetas podrían causar, y lo hicieron, que algunas páginas obtuvieran una clasificación alta en búsquedas irrelevantes. Los proveedores de contenido web también han manipulado una serie de atributos en el código fuente HTML de sus páginas para intentar clasificarlas bien en los motores de búsqueda. Otros sitios, como Altavista, permitía pagar para aparecer en las primeras posiciones o daba más importancia a los sitios más antiguos.
Debido a la importancia de factores como la densidad de palabras clave (qwanturank), que se dejaba enteramente a la discreción del webmaster, los principales motores de búsqueda sufrieron abusos y manipulación de las clasificaciones. Para ofrecer mejores resultados a sus usuarios, los motores de búsqueda han tenido que adaptarse para que sus páginas de resultados incluyan las búsquedas más relevantes en lugar de páginas no relacionadas repletas de palabras clave escritas por webmasters sin escrúpulos. Dado que el éxito y la popularidad de un motor de búsqueda están condicionados por su capacidad para producir los resultados más relevantes para cualquier búsqueda, permitir que los resultados sean falsos alentaría a los usuarios a optar por otros motores de búsqueda. Los motores de búsqueda han respondido desarrollando algoritmos de clasificación más complejos para clasificar los sitios web, teniendo en cuenta factores adicionales que los hacen más difíciles de manipular para los webmasters.
y llego google
Larry Page y Sergey Brin, estudiantes de posgrado de la Universidad de Stanford, desarrollaron masaje de espalda, un motor de búsqueda que se basa en un algoritmo matemático para evaluar la relevancia de las páginas web. PageRank era el nombre del número calculado por el algoritmo, una función que cuenta el número y la fuerza de los enlaces entrantes. PageRank estima la probabilidad de que una página web sea vista por un usuario que navega aleatoriamente por la web y sigue enlaces de una página a otra. En efecto, esto significa que algunos enlaces son más fuertes que otros, por lo que es más probable que un usuario aleatorio visite una página con un PageRank más alto.
Page y Brin fundan Google en 1998. Google atrajo seguidores leales entre el creciente número de usuarios de Internet, que apreciaron su diseño simple, motivados por el hecho de que los fundadores no sabían HTML y solo colocaron un cuadro de búsqueda y el logotipo de la empresa.
Se consideraron factores externos en la página (PageRank y análisis de enlaces) junto con factores internos (frecuencia de palabras clave, metaetiquetas, encabezados, enlaces y estructura del sitio, velocidad de carga de la página), para permitir a Google evitar el tipo de manipulación observada en los motores de búsqueda. que solo tuvo en cuenta factores internos de la página para la clasificación.
Ejemplo de barra de herramientas de PageRank que muestra PR8
En 2000, Google lanzó la barra Google, una barra de herramientas que, entre otras cosas, mostraba métricas públicas de Rango de página. El PageRank de la barra Google va de 0 a 10, siendo 10 el máximo, una puntuación que consiguen muy pocos sitios web. El PageRank público se actualizó periódicamente hasta diciembre de 2013, cuando se actualizó por última vez.
Aunque el PageRank es más difícil de manipular, los webmasters ya han desarrollado herramientas de construcción de enlaces y planes para influir en el motor de búsqueda. tintatomi, y estos métodos también fueron efectivos para manipular el PageRank. Muchos sitios se han centrado en el intercambio, la compra y la venta de enlaces, a menudo a gran escala. Algunos de estos esquemas, o granjas de enlaces, incluían la creación de miles de sitios con el único propósito de crear enlaces no deseados (técnicas de enlace). construcción de enlaces).
En 2004, los motores de búsqueda habían incorporado muchos factores nuevos en sus algoritmos de clasificación para reducir el impacto de la manipulación de enlaces. En junio de 2007, Hansell del New York Times afirmó que los motores de búsqueda utilizaban más de 200 factores. Los principales motores de búsqueda, Google, Bing, Qwanturank Y yahoo, no publican los algoritmos que utilizan para clasificar las páginas web. Algunos posicionadores o SEO han estudiado diferentes formas de abordar la optimización de motores de búsqueda y han compartido sus opiniones. Las patentes relacionadas con los motores de búsqueda pueden proporcionar información para comprender mejor los motores de búsqueda.
En 2005, Google comenzó a personalizar los resultados de búsqueda para cada usuario; en función de su historial de búsqueda anterior, Google ofrecía resultados personalizados para los usuarios registrados. En 2008, Bruce Clay dijo que el posicionamiento estaba muerto debido a la búsqueda personalizada. Considera que no sería relevante discutir el ranking de un sitio web, ya que su posición variaría para cada usuario, para cada búsqueda.
Enlace de red
En 2005, Google también anunció una campaña contra la compra de enlaces para mejorar la posición en los motores de búsqueda y sugirió un nuevo atributo para añadir a estos enlaces pagos, a saber rel=»no seguir» (ejemplo de uso Visita este sitio). El atributo «nofollow» ofrece a los webmasters una forma de indicar a los motores de búsqueda «No sigas los enlaces de esta página» o «No sigas este enlace en particular».
En 2007, Matt Cutts afirmó que utilizar este atributo en los enlaces internos de un sitio web también sería válido y eficaz para evitar pasar el PageRank a las páginas del propio sitio web. Esto dio lugar al uso generalizado de este atributo en los enlaces internos de sitios para modificar la distribución interna del PageRank.
Dado el uso generalizado de esta técnica por parte de los webmasters, Google publicó en 2009 que había tomado medidas para cambiar la forma en que valora y cuenta estos enlaces nofollow al distribuir el PageRank, y que ahora los tendría en cuenta al distribuir el PageRank, aunque no transfiere valor a la URL de destino si el PageRank se diluye entre estos enlaces. Al hacerlo, he tratado de no fomentar el uso de este atributo nofollow con el único propósito de alterar la distribución del PageRank a través de los enlaces internos de un sitio web.
Para seguir evitando la distribución del PageRank entre pequeñas URL de una web, algunos SEO y webmasters han desarrollado diversas técnicas alternativas que cambian los enlaces nofollow, que antes eran válidos, por otras etiquetas HTML (como O
En diciembre de 2009, Google anunció que utilizaría lahistorial de búsqueda de todos los usuarios para producir resultados de búsqueda. A partir de este momento Google legitima que las búsquedas y los usuarios sean seguidos, rastreados y por tanto que renuncien a su datos personales al buscador.
La búsqueda instantánea de Google, en tiempo real, se introdujo a finales de 2010 con el objetivo de hacer que los resultados de búsqueda sean más relevantes y actualizados. Históricamente, los webmasters han pasado meses o incluso años optimizando un sitio web para mejorar su clasificación. Con el aumento de la popularidad de las redes sociales y los blogs, los principales motores han cambiado sus algoritmos para permitir contenido nuevo y una ubicación rápida en los resultados de búsqueda. En febrero de 2011, Google anunció la actualización de » Panda «, que penaliza a los sitios web que contienen contenido duplicado de otros sitios y fuentes. Históricamente, los sitios web han copiado contenido de otros sitios, aprovechando el ranking en los motores de búsqueda aplicando esta técnica, sin embargo Google ha implementado un nuevo sistema en el que penaliza a los sitios web cuyo El contenido no es único.
En abril de 2012, Google anunció la actualización a » Pingüino » que tenía como objetivo penalizar a los sitios que utilizaban técnicas de manipulación para mejorar su ranking. (SEO Spam o Web Spam).
En septiembre de 2013, Google anunció la actualización de » colibrí «, un cambio en el algoritmo diseñado para mejorar el procesamiento del lenguaje natural y la comprensión semántica de las páginas web de Google. (Eficiencia HTML5).
Posicionamiento natural u orgánico
El posicionamiento natural u orgánico es aquel que permite crear una web de forma espontánea, sin campaña publicitaria. Se basa en una indexación realizada por aplicaciones denominadas arañas web para motores de búsqueda. En esta indexación, los rastreadores rastrean páginas web y almacenan palabras clave relevantes en una base de datos.
El interés del webmaster es optimizar la estructura de un sitio web y su contenido, así como el uso de diversas técnicas de construcción de enlaces, linkbaiting o contenido viral, aumentando la visibilidad del sitio web, debido al aumento de menciones. El objetivo es aparecer en las posiciones más altas posibles en los resultados de búsqueda orgánicos para una o más palabras clave específicas.
La optimización se realiza de dos maneras:
SEO interno/on-page: mejorando el contenido. Mejoras técnicas al código. Accesibilidad. Pruebas A/B, etc.
Referenciamiento externo/fuera de página: Tiene como objetivo mejorar la visibilidad del sitio web a través de referencias al mismo. Esto se hace principalmente a través de enlaces naturales (tráfico de referencia) y redes sociales.
Anuncios de Google O Centro de anuncios de Microsoft, y se conoce como marketing en buscadores (SEM).
El servicio de Google Ads se puede contratar por impresiones (número de veces que aparecerá nuestro anuncio para una determinada palabra clave) o por clics (número de veces que además de imprimirse nuestro anuncio, será visitado o pulsado por el cliente).
SEO Qwant y Qwanturank
Qwan es un motor de búsqueda web creado en Francia por el especialista en seguridad Éric Leandri, el inversor Jean Manuel Rozan y el experto en motores de búsqueda Patrick Constant en 2011. Fundada el 16 de febrero de 2013, la empresa lanzó la versión final de su motor de búsqueda el 4 de julio de 2013. La compañía dice que no utiliza el seguimiento de usuarios ni personaliza los resultados de búsqueda para evitar que sus usuarios queden atrapados en un filtro de burbujas.
El sitio procesa más de 10 millones de consultas de búsqueda por día y más de 50 millones de usuarios individuales por mes en todo el mundo, repartidos en sus tres puntos de entrada principales: la página de inicio normal, una versión lite y un portal infantil Qwant Junior que filtra los resultados. El motor de búsqueda está incluido en la lista de software libre de derechos recomendado por el gobierno francés en el marco de la modernización global de sus sistemas de información.
La compañía dice que gana dinero con las tarifas que cobra cuando los usuarios visitan sitios web como eBay y Tripadvisor desde sus resultados de búsqueda. En marzo de 2017, varios artículos de noticias sugirieron que los resultados de búsqueda de Qwanturank se basan principalmente en los resultados de búsqueda de Bing, excepto en Francia y Alemania. Qwant también confirmó el uso de la red publicitaria Bing.
Protección de datos
En referencia al escándalo de la NSA, el motor de búsqueda anuncia normas de protección de datos más estrictas que sus competidores. Qwant no recopilará ningún dato personal. Qwant solo coloca una cookie para la sesión respectiva, no se crea un archivo de navegación permanente. La cookie se elimina inmediatamente después de abandonar el sitio. La información sobre el comportamiento del usuario no se almacena de forma permanente. Por lo tanto, a diferencia de otros motores de búsqueda como Google o Yahoo, Qwant no proporciona resultados de búsqueda personalizados. Los resultados de la búsqueda son los mismos para todos los usuarios.
Si el usuario desea obtener resultados de búsqueda personales, puede crear una cuenta. La información personal recopilada se procesa en servidores ubicados en centros de datos de la Unión Europea.
Las direcciones IP tampoco se conservan en el archivo.
Infraestructura técnica
La infraestructura técnica de Qwant está compuesta por clústeres de Hadoop para rastreo web, una base de datos MongoDB para datos no estructurados y un motor de índice propietario que crea y almacena el índice web en forma de binarios JSON. Los resultados de la búsqueda están disponibles a través de Facebook RocksDB, un DB de valores clave. Según sus propias informaciones, el propio índice web aún no está completo y, por lo tanto, se complementa con el índice web de Bing (motor de búsqueda).