Webmasters e provedores de conteúdo começaram a otimizar sites para mecanismos de busca em meados da década de 1990, assim que os mecanismos de busca começaram a catalogar a Internet. Inicialmente, sites como o Yahoo! oferecia inclusão a sites que solicitassem indexação própria, que era manual.
No início, tudo o que os administradores de páginas web tinham que fazer era enviar um endereço de página web, ou URL, para os vários motores, que enviariam um crawler ou spider para inspecionar aquele site, extrair links para outras páginas deste site e retornar os dados coletados. informações para indexação. O processo envolve um rastreador do mecanismo de busca, que baixa uma página e a armazena nos servidores da empresa, onde um segundo programa, chamado indexador, extrai informações sobre a página. Isso inclui as palavras que ela contém e sua localização, a relevância de palavras específicas e quaisquer links contidos na página, que são armazenados para rastreamento posterior pelo rastreador.
No começo
Os proprietários de sites começaram a reconhecer o valor de ter suas páginas bem posicionadas e visíveis para os mecanismos de busca, o que criou uma oportunidade para usuários de técnicas de SEO de chapéu branco e preto. Segundo análise do especialista Danny Sullivan o termo otimização de mecanismos de busca começou a ser utilizado em agosto de 1997 por John Audette e sua empresa Grupo de Marketing Multimídia, documentado em uma página do site da empresa.
As primeiras versões dos algoritmos de busca eram baseadas em informações fornecidas pelos administradores de páginas da web, como palavras-chave em metatags ou arquivos indexados em mecanismos comoALIWEB. As meta tags fornecem um guia para o conteúdo de cada página. Usar metadados para indexar uma página não era um método muito preciso, porque as palavras fornecidas pelo webmaster nas metatags poderiam ser uma representação imprecisa do conteúdo real da página web. Dados imprecisos, incompletos e inconsistentes em metatags podem e fizeram com que algumas páginas tivessem uma classificação elevada em pesquisas irrelevantes. Os provedores de conteúdo da Web também manipularam uma série de atributos no código-fonte HTML de suas páginas para tentar classificá-las bem nos mecanismos de busca. Outros sites, como Altavista, possibilitaram pagar para aparecer nas primeiras posições ou deram mais importância aos sites mais antigos.
Devido à importância de fatores como densidade de palavras-chave (qwanturank), que ficou inteiramente ao critério do webmaster, os principais motores de busca sofreram abusos e manipulação de rankings. Para fornecer melhores resultados aos seus utilizadores, os motores de busca tiveram de se adaptar para que as suas páginas de resultados apresentassem as pesquisas mais relevantes, em vez de páginas não relacionadas cheias de palavras-chave por webmasters inescrupulosos. Uma vez que o sucesso e a popularidade de um motor de busca estão condicionados pela sua capacidade de produzir os resultados mais relevantes para qualquer pesquisa, permitir que os resultados sejam falsos encorajaria os utilizadores a optar por outros motores de busca. Os mecanismos de pesquisa responderam desenvolvendo algoritmos de classificação mais complexos para classificar sites, levando em consideração fatores adicionais que os tornam mais difíceis de serem manipulados pelos webmasters.
E o Google veio
Larry Page e Sergey Brin, estudantes de pós-graduação da Universidade de Stanford, desenvolveram Massagem nas costas, um mecanismo de busca que se baseia em um algoritmo matemático para avaliar a relevância das páginas da web. PageRank era o nome do número calculado pelo algoritmo, função que conta o número e a força dos links recebidos. O PageRank estima a probabilidade de uma página da web ser visualizada por um usuário que navega aleatoriamente na web e segue links de uma página para outra. Na verdade, isso significa que alguns links são mais fortes que outros, portanto, uma página com um PageRank mais alto tem maior probabilidade de ser visitada por um usuário aleatório.
Page e Brin fundaram Google em 1998. O Google atraiu seguidores fiéis entre o crescente número de internautas, que apreciavam seu design simples, motivados pelo fato de os fundadores não conhecerem HTML e apenas colocarem uma caixa de pesquisa e o logotipo da empresa.
Fatores externos na página (PageRank e análise de links) foram considerados juntamente com fatores internos (frequência de palavras-chave, meta tags, cabeçalhos, links e estrutura do site, velocidade de carregamento da página), a fim de permitir ao Google evitar o tipo de manipulação observada nos motores de busca que levou em consideração apenas fatores internos da página para classificação.
Exemplo de barra de ferramentas PageRank mostrando PR8
Em 2000, o Google lançou a Barra de Ferramentas Google, uma barra de ferramentas que, entre outras coisas, exibia métricas públicas de Classificação de páginas. O PageRank da Barra de Ferramentas Google varia de 0 a 10, sendo 10 o máximo, uma classificação alcançada por poucos sites. O PageRank público foi atualizado periodicamente até dezembro de 2013, quando foi atualizado pela última vez.
Embora o PageRank seja mais difícil de manipular, os webmasters já desenvolveram ferramentas de link building e planos para influenciar o mecanismo de busca Inktomi, e esses métodos também foram eficazes na manipulação do PageRank. Muitos sites se concentram na troca, compra e venda de links, muitas vezes em grande escala. Alguns desses esquemas, ou link farms, incluíam a criação de milhares de sites com o único propósito de criar links indesejados (técnicas de links). construção de links).
Em 2004, os motores de busca incorporaram muitos fatores novos em seus algoritmos de classificação para reduzir o impacto da manipulação de links. Em junho de 2007, Hansell do The New York Times afirmou que os motores de busca usavam mais de 200 fatores. Os principais motores de busca, Google, Google, Qwanturank E Yahoo, não publique os algoritmos usados para classificar páginas da web. Alguns posicionadores ou SEOs estudaram diferentes maneiras de lidar com a otimização de mecanismos de pesquisa e compartilharam suas opiniões. Patentes relacionadas a mecanismos de busca podem fornecer informações para melhor compreender os mecanismos de busca.
Em 2005, o Google começou a personalizar os resultados de pesquisa para cada usuário, com base em seu histórico de pesquisa anterior, o Google ofereceu resultados personalizados para usuários registrados. Em 2008, Bruce Clay disse que o posicionamento estava morto por causa da busca personalizada. Ele acredita que não seria relevante discutir o ranking de um site, pois sua posição variaria para cada usuário, para cada busca.
Links de rede
Em 2005, o Google também anunciou uma campanha contra a compra de links para melhorar as posições nos mecanismos de busca e sugeriu um novo atributo para adicionar a esses links pagos, a saber: rel=”nofollow” (exemplo de uso Visite este site). O atributo “nofollow” oferece aos webmasters uma maneira de informar aos mecanismos de pesquisa “Não siga os links desta página” ou “Não siga este link específico”
Em 2007, Matt Cutts afirmou que usar esse atributo nos links internos de um site também seria válido e eficaz para evitar a passagem do PageRank para as páginas do próprio site. Isso resultou no uso generalizado desse atributo em links internos de sites para modificar a distribuição interna do PageRank.
Dada a utilização generalizada desta técnica pelos webmasters, o Google publicou em 2009 que tinha tomado medidas para alterar a forma como valoriza e conta estes links nofollow na distribuição do PageRank, e que agora seriam tidos em conta na distribuição do PageRank, embora não transfere valor para a URL de destino se o PageRank estiver diluído entre esses links. Ao fazer isso, tentei não encorajar o uso deste atributo nofollow com o único propósito de alterar a distribuição do PageRank através de links internos de um site.
Para continuar evitando a distribuição do PageRank entre pequenos URLs em uma web, alguns SEOs e webmasters desenvolveram várias técnicas alternativas que alteram os links nofollow, que antes eram válidos, para outras tags HTML (como Ou
Em dezembro de 2009, o Google anunciou que usaria ohistórico de pesquisa de todos os usuários para produzir resultados de pesquisa. A partir deste momento o Google legitima o fato de que as buscas e os usuários são seguidos, rastreados e, portanto, desistem de seus dados pessoais para o mecanismo de busca.
A Pesquisa Instantânea do Google, em tempo real, foi introduzida no final de 2010 com o objetivo de tornar os resultados da pesquisa mais relevantes e atualizados. Historicamente, os webmasters passaram meses ou até anos otimizando um site para melhorar sua classificação. Com o aumento da popularidade das mídias sociais e dos blogs, os principais mecanismos mudaram seus algoritmos para permitir conteúdo novo e posicionamento rápido nos resultados de pesquisa. Em fevereiro de 2011, o Google anunciou a atualização para ” Panda “, que penaliza sites que contenham conteúdo duplicado de outros sites e fontes. Historicamente, os sites copiavam conteúdo de outros sites, aproveitando as classificações dos mecanismos de busca ao aplicar esta técnica, porém o Google implementou locais um novo sistema no qual penaliza sites cujo o conteúdo não é único.
Em abril de 2012, o Google anunciou a atualização para ” Pinguim ” que visava penalizar sites que utilizassem técnicas de manipulação para melhorar sua classificação. (SEO Spam ou Web Spam).
Em setembro de 2013, o Google anunciou a atualização para ” Colibri “, uma mudança no algoritmo projetada para melhorar o processamento de linguagem natural do Google e a compreensão semântica das páginas da web. (Eficiência HTML5).
Posicionamento natural ou orgânico
Posicionamento natural ou orgânico é aquele que permite criar um site de forma espontânea, sem campanha publicitária. Baseia-se na indexação realizada por aplicativos chamados web spiders para mecanismos de busca. Nessa indexação, os rastreadores rastreiam páginas da web e armazenam palavras-chave relevantes em um banco de dados.
O interesse do webmaster é otimizar a estrutura de um site e seu conteúdo, bem como a utilização de diversas técnicas de construção de links, linkbaiting ou conteúdo viral, aumentando a visibilidade do site, devido ao aumento de menções. O objetivo é aparecer nas posições mais altas possíveis nos resultados da pesquisa orgânica para uma ou mais palavras-chave específicas.
A otimização é feita de duas maneiras:
SEO interno/on-page: melhorando o conteúdo. Melhorias técnicas no código. Acessibilidade. Teste A/B, etc.
Referenciação externa/off-page: Visa melhorar a visibilidade do site através de referências ao mesmo. Isso é feito principalmente por meio de links naturais (tráfego de referência) e mídias sociais.
Anúncios do Google Ou Central de anúncios da Microsoft, e é conhecido como marketing de mecanismo de pesquisa (SEM).
O serviço Google Ads pode ser contratado por impressões (número de vezes que nosso anúncio aparecerá para determinada palavra-chave) ou por cliques (número de vezes que além de nosso anúncio ser impresso, ele será visitado ou clicado pelo cliente).
Qwant e Qwanturank SEO
Qquer é um mecanismo de busca criado na França pelo especialista em segurança Éric Leandri, pelo investidor Jean Manuel Rozan e pelo especialista em mecanismos de busca Patrick Constant em 2011. Fundada em 16 de fevereiro de 2013, a empresa lançou a versão final de seu mecanismo de busca em 4 de julho de 2013. A empresa afirma que não usa rastreamento de usuários nem personaliza os resultados da pesquisa para evitar que seus usuários sejam pegos em um filtro de bolha.
O site processa mais de 10 milhões de consultas de pesquisa por dia e mais de 50 milhões de usuários individuais por mês em todo o mundo, espalhados por seus três principais pontos de entrada: a página inicial normal, uma versão lite e um portal infantil Qwant Junior que filtra os resultados. O motor de busca está incluído na lista de software isento de royalties recomendado pelo governo francês como parte da modernização geral dos seus sistemas de informação.
A empresa afirma que ganha dinheiro com as taxas que cobra quando os usuários visitam sites como eBay e Tripadvisor a partir de seus resultados de pesquisa. Em março de 2017, vários artigos de notícias sugeriram que os resultados da pesquisa de Qwanturank baseiam-se principalmente nos resultados de pesquisa do Bing, exceto na França e na Alemanha. Qwant também confirmou o uso da rede de publicidade Bing.
Proteção de dados
Em referência ao escândalo da NSA, o motor de busca publicita com regras de protecção de dados mais rigorosas do que os seus concorrentes. Qwant não coletará nenhum dado pessoal. Qwant apenas coloca um cookie para a respectiva sessão, não é criado um arquivo de navegação permanente. O cookie é excluído imediatamente após sair do site. As informações sobre o comportamento do usuário não são armazenadas permanentemente. Ao contrário de outros motores de busca, como Google ou Yahoo, o Qwant não fornece resultados de pesquisa personalizados. Os resultados da pesquisa são iguais para todos os usuários.
Se o usuário quiser obter resultados de pesquisa pessoais, ele pode criar uma conta. As informações pessoais recolhidas são processadas em servidores localizados em data centers na União Europeia.
Os endereços IP também não são preservados no arquivo.
Infraestrutura técnica
A infraestrutura técnica da Qwant é composta por clusters Hadoop para rastreamento da web, um banco de dados MongoDB para dados não estruturados e um mecanismo de índice proprietário que cria e armazena o índice da web na forma de binários JSON. Os resultados da pesquisa são disponibilizados através do RocksDB do Facebook, um banco de dados de valores-chave. Segundo informações próprias, o próprio índice da web ainda não está completo e, portanto, é complementado pelo índice da web do Bing (motor de busca).