Webmaster e fornitori di contenuti hanno iniziato a ottimizzare i siti web per i motori di ricerca a metà degli anni ’90, non appena i motori di ricerca hanno iniziato a catalogare Internet. Inizialmente, siti come Yahoo! offriva l’inclusione ai siti che richiedevano la propria indicizzazione, che era manuale.
Inizialmente, tutto ciò che gli amministratori della pagina web dovevano fare era inviare l’indirizzo di una pagina web, o URL, ai vari motori, che avrebbero inviato un crawler o uno spider per ispezionare quel sito, estrarre collegamenti ad altre pagine di questo sito e restituire i dati raccolti. informazioni per l’indicizzazione. Il processo coinvolge un crawler di proprietà del motore di ricerca, che scarica una pagina e la memorizza nei server dell’azienda, dove un secondo programma, chiamato indicizzatore, estrae informazioni sulla pagina. Ciò include le parole che contiene e la loro posizione, la pertinenza di parole specifiche e tutti i collegamenti contenuti nella pagina, che vengono archiviati per la successiva scansione da parte del crawler.
All’inizio
I proprietari di siti web hanno iniziato a riconoscere il valore di avere le proprie pagine ben posizionate e visibili sui motori di ricerca, il che ha creato un’opportunità per gli utenti delle tecniche SEO white e black hat. Secondo l’analisi dell’esperto Danny Sullivan, il termine ottimizzazione dei motori di ricerca iniziò ad essere utilizzato nell’agosto 1997 da John Audette e dalla sua azienda, Gruppo Marketing Multimediale, documentato in una pagina del sito web della società.
Le prime versioni degli algoritmi di ricerca erano basate sulle informazioni fornite dagli amministratori delle pagine web, come parole chiave nei metatag o file indicizzati in motori comeALIWEB. I meta tag forniscono una guida al contenuto di ciascuna pagina. L’utilizzo dei metadati per indicizzare una pagina non era un metodo molto accurato, perché le parole fornite dal webmaster nei metatag potevano essere una rappresentazione imprecisa del contenuto effettivo della pagina web. Dati imprecisi, incompleti e incoerenti nei metatag potevano e hanno causato un posizionamento elevato di alcune pagine per ricerche irrilevanti. I fornitori di contenuti web hanno anche manipolato una serie di attributi nel codice sorgente HTML delle loro pagine per cercare di posizionarle bene nei motori di ricerca. Altri siti, come Altavista, hanno permesso di pagare per apparire nelle prime posizioni o hanno dato più importanza ai siti più vecchi.
A causa dell’importanza di fattori quali la densità delle parole chiave (qwanturank), lasciato interamente alla discrezione del webmaster, i principali motori di ricerca hanno subito abusi e manipolazioni del posizionamento. Per fornire risultati migliori ai propri utenti, i motori di ricerca hanno dovuto adattarsi in modo che le pagine dei risultati presentassero le ricerche più pertinenti anziché pagine non correlate riempite di parole chiave da webmaster senza scrupoli. Poiché il successo e la popolarità di un motore di ricerca sono condizionati dalla sua capacità di produrre risultati più pertinenti per qualsiasi ricerca, consentire che i risultati siano falsi incoraggerebbe gli utenti a optare per altri motori di ricerca. I motori di ricerca hanno risposto sviluppando algoritmi di ranking più complessi per classificare i siti web, tenendo conto di fattori aggiuntivi che li rendono più difficili da manipolare per i webmaster.
E Google è arrivato
Larry Page e Sergey Brin, studenti laureati alla Stanford University, hanno sviluppato Massaggio alla schiena, un motore di ricerca che si basa su un algoritmo matematico per valutare la pertinenza delle pagine web. PageRank era il nome del numero calcolato dall’algoritmo, una funzione che conta il numero e la forza dei link in entrata. PageRank stima la probabilità che una pagina web venga visualizzata da un utente che sta navigando in modo casuale sul web e seguendo i collegamenti da una pagina all’altra. In effetti, ciò significa che alcuni collegamenti sono più forti di altri, quindi una pagina con un PageRank più elevato ha maggiori probabilità di essere visitata da un utente casuale.
Fondarono Page e Brin Google nel 1998. Google ha attirato un seguito fedele tra il numero crescente di utenti Internet, che hanno apprezzato il suo design semplice, motivato dal fatto che i fondatori non conoscevano l’HTML e si limitavano a inserire una casella di ricerca e il logo dell’azienda.
Fattori esterni alla pagina (PageRank e analisi dei link) sono stati considerati insieme a fattori interni (frequenza delle parole chiave, meta tag, intestazioni, link e struttura del sito, velocità di caricamento della pagina), per consentire a Google di evitare il tipo di manipolazione osservata nei motori di ricerca che prendeva in considerazione solo i fattori interni della pagina per il posizionamento.
Esempio della barra degli strumenti PageRank che mostra PR8
Nel 2000, Google ha lanciato la Google Toolbar, una barra degli strumenti che, tra le altre cose, mostrava parametri pubblici di PageRank. Il PageRank di Google Toolbar varia da 0 a 10, dove 10 è il massimo, una valutazione raggiunta da pochissimi siti web. Il PageRank pubblico è stato aggiornato periodicamente fino a dicembre 2013, quando è stato aggiornato l’ultima volta.
Anche se il PageRank è più difficile da manipolare, i webmaster hanno già sviluppato strumenti di link building e piani per influenzare il motore di ricerca Inktomie questi metodi si sono rivelati efficaci anche nel manipolare il PageRank. Molti siti si sono concentrati sullo scambio, l’acquisto e la vendita di link, spesso su larga scala. Alcuni di questi schemi, o link farm, includevano la creazione di migliaia di siti al solo scopo di creare collegamenti indesiderati (tecniche di collegamento). costruzione di collegamenti).
Nel 2004, i motori di ricerca avevano incorporato molti nuovi fattori nei loro algoritmi di classificazione per ridurre l’impatto della manipolazione dei collegamenti. Nel giugno 2007, Hansell del New York Times ha affermato che i motori di ricerca utilizzano più di 200 fattori. I principali motori di ricerca, Google, Bing, Qwanturank E Yahoo, non pubblicano gli algoritmi che utilizzano per classificare le pagine web. Alcuni posizionatori o SEO hanno studiato diversi modi di gestire l’ottimizzazione dei motori di ricerca e hanno condiviso le loro opinioni. I brevetti relativi ai motori di ricerca possono fornire informazioni per comprendere meglio i motori di ricerca.
Nel 2005, Google ha iniziato a personalizzare i risultati di ricerca per ciascun utente, in base alla cronologia delle ricerche precedenti, Google ha offerto risultati personalizzati per gli utenti registrati. Nel 2008, Bruce Clay affermò che il posizionamento era morto a causa della ricerca personalizzata. Ritiene che non sarebbe rilevante discutere del posizionamento di un sito web, poiché la sua posizione varierebbe per ciascun utente, per ciascuna ricerca.
Collegamento in rete
Nel 2005, Google ha anche annunciato una campagna contro l’acquisto di link per migliorare la posizione nei motori di ricerca e ha suggerito un nuovo attributo da aggiungere a questi link a pagamento, vale a dire rel=”nofollow” (esempio di utilizzo Visita questo sito). L’attributo “nofollow” offre ai webmaster un modo per dire ai motori di ricerca “Non seguire i link su questa pagina” o “Non seguire questo particolare link”
Nel 2007 Matt Cutts affermò che utilizzare questo attributo sui link interni di un sito sarebbe valido ed efficace anche per evitare di trasferire PageRank alle pagine del sito stesso. Ciò ha comportato un uso diffuso di questo attributo nei collegamenti interni ai siti per modificare la distribuzione interna del PageRank.
Considerando l’uso diffuso di questa tecnica da parte dei webmaster, Google ha reso noto nel 2009 di aver adottato misure per modificare il modo in cui valuta e conta questi collegamenti nofollow durante la distribuzione del PageRank e che ora ne terrà conto nella distribuzione del PageRank, anche se non trasferisce valore all’URL di destinazione se il PageRank è diluito tra questi collegamenti. Così facendo, ho cercato di non incoraggiare l’uso di questo attributo nofollow al solo scopo di alterare la distribuzione del PageRank attraverso i link interni di un sito web.
Per continuare ad evitare la distribuzione del PageRank tra piccoli URL su un web, alcuni SEO e webmaster hanno sviluppato varie tecniche alternative che cambiano i collegamenti nofollow, precedentemente validi, con altri tag HTML (come O
Nel dicembre 2009, Google ha annunciato che avrebbe utilizzato il formatocronologia delle ricerche di tutti gli utenti per produrre risultati di ricerca. Da questo momento Google legittima il fatto che le ricerche e gli utenti vengano seguiti, tracciati e quindi che rinuncino al loro dati personali al motore di ricerca.
Google Instant Search, in tempo reale, è stato introdotto alla fine del 2010 con l’obiettivo di rendere i risultati di ricerca più pertinenti e aggiornati. Storicamente, i webmaster hanno trascorso mesi o addirittura anni a ottimizzare un sito Web per migliorarne il posizionamento. Con l’aumento della popolarità dei social media e dei blog, i principali motori hanno modificato i propri algoritmi per consentire nuovi contenuti e un rapido posizionamento nei risultati di ricerca. Nel febbraio 2011, Google ha annunciato l’aggiornamento a ” Panda “, che penalizza i siti web che contengono contenuti duplicati da altri siti e fonti. Storicamente, i siti web hanno copiato contenuti da altri siti, sfruttando il posizionamento nei motori di ricerca applicando questa tecnica, tuttavia Google ha implementato un nuovo sistema in cui penalizza i siti web il cui il contenuto non è unico.
Nell’aprile 2012, Google ha annunciato l’aggiornamento a ” Pinguino ” che mirava a penalizzare i siti che utilizzavano tecniche di manipolazione per migliorare il proprio posizionamento (SEO Spam o Web Spam).
Nel settembre 2013, Google ha annunciato l’aggiornamento a ” Colibrì “, una modifica nell’algoritmo progettata per migliorare l’elaborazione del linguaggio naturale di Google e la comprensione semantica delle pagine web. (efficienza HTML5).
Posizionamento naturale o organico
Il posizionamento naturale o organico è quello che permette di creare una rete in modo spontaneo, senza una campagna pubblicitaria. Si basa sull’indicizzazione effettuata da applicazioni chiamate web spider per i motori di ricerca. In questa indicizzazione, i crawler eseguono la scansione delle pagine Web e memorizzano le parole chiave pertinenti in un database.
L’interesse del webmaster è ottimizzare la struttura di un sito web e dei suoi contenuti, nonché l’utilizzo delle varie tecniche di costruzione di collegamenti, linkbaiting o contenuti virali, che aumentano la visibilità del sito web, grazie all’aumento delle menzioni. L’obiettivo è apparire nelle posizioni più alte possibili nei risultati di ricerca organici per una o più parole chiave specifiche.
L’ottimizzazione avviene in due modi:
SEO interno/on-page: migliorando i contenuti. Miglioramenti tecnici al codice. Accessibilità. Test A/B, ecc.
Riferimenti esterni/fuori pagina: mira a migliorare la visibilità del sito Web attraverso riferimenti ad esso. Ciò avviene principalmente attraverso collegamenti naturali (traffico di riferimento) e social media.
Annunci Google O Centro annunci Microsofted è noto come marketing sui motori di ricerca (SEM).
Il servizio Google Ads può essere contrattato per impressioni (numero di volte che il nostro annuncio apparirà per una determinata parola chiave) o per clic (numero di volte che oltre ad essere stampato il nostro annuncio, verrà visitato o cliccato dal cliente).
Qwant e Qwanturank SEO
Qvoglio è un motore di ricerca web creato in Francia dallo specialista in sicurezza Éric Leandri, dall’investitore Jean Manuel Rozan e dall’esperto di motori di ricerca Patrick Constant nel 2011. Fondata il 16 febbraio 2013, l’azienda ha lanciato la versione finale del suo motore di ricerca il 4 luglio 2013. L’azienda afferma di non utilizzare il monitoraggio degli utenti né di personalizzare i risultati di ricerca per evitare che i propri utenti vengano intrappolati in un filtro a bolle.
Il sito elabora più di 10 milioni di query di ricerca al giorno e più di 50 milioni di singoli utenti al mese in tutto il mondo, distribuiti nei suoi tre punti di ingresso principali: la home page normale, una versione lite e un portale per bambini Qwant Junior che filtra i risultati. Il motore di ricerca è incluso nell’elenco dei software royalty-free raccomandati dal governo francese nell’ambito della modernizzazione complessiva dei suoi sistemi informativi.
L’azienda afferma di guadagnare dalle commissioni che raccoglie quando gli utenti visitano siti Web come eBay e Tripadvisor dai suoi risultati di ricerca. Nel marzo 2017, diversi articoli di notizie suggerivano che i risultati di ricerca di Qwanturank si basano principalmente sui risultati di ricerca di Bing, tranne che in Francia e Germania. Qwant ha confermato anche l’utilizzo della rete pubblicitaria Bing.
Protezione dei dati
In riferimento allo scandalo NSA, il motore di ricerca fa pubblicità con norme di protezione dei dati più severe rispetto ai suoi concorrenti. Qwant non raccoglierà alcun dato personale. Qwant inserisce solo un cookie per la rispettiva sessione, non viene creato un file di navigazione permanente. Il cookie viene cancellato immediatamente dopo aver lasciato il sito. Le informazioni sul comportamento dell’utente non vengono memorizzate in modo permanente. A differenza di altri motori di ricerca come Google o Yahoo, Qwant non fornisce quindi risultati di ricerca personalizzati. I risultati della ricerca sono gli stessi per tutti gli utenti.
Se l’utente desidera ottenere risultati di ricerca personali, può creare un account. Le informazioni personali raccolte sono trattate su server ubicati in data center nell’Unione Europea.
Anche gli indirizzi IP non vengono conservati nel file.
Infrastruttura tecnica
L’infrastruttura tecnica di Qwant è composta da cluster Hadoop per il web crawling, un database MongoDB per dati non strutturati e un motore di indice proprietario che crea e archivia l’indice web sotto forma di binari JSON. I risultati della ricerca vengono messi a disposizione tramite Facebooks RocksDB, un database di valori-chiave. Secondo le sue stesse informazioni, il proprio indice web non è ancora completo e viene quindi integrato dall’indice web di Bing (motore di ricerca).