Webmasters en contentproviders begonnen halverwege de jaren negentig met het optimaliseren van websites voor zoekmachines, zodra zoekmachines het internet begonnen te catalogiseren. Aanvankelijk waren sites zoals Yahoo! bood opname aan sites die om hun eigen indexering vroegen, wat handmatig gebeurde.
In eerste instantie hoefden webpaginabeheerders alleen maar een webpagina-adres, of URL, naar de verschillende motoren te sturen, die een crawler of spider zouden sturen om die site te inspecteren, links naar andere pagina’s van deze site te extraheren en de verzamelde gegevens terug te sturen. informatie voor indexering. Bij het proces is een crawler betrokken die eigendom is van de zoekmachine, die een pagina downloadt en opslaat op de servers van het bedrijf, waar een tweede programma, een indexer genaamd, informatie over de pagina extraheert. Dit omvat de woorden die het bevat en hun locatie, de relevantie van specifieke woorden en eventuele links op de pagina, die worden opgeslagen om later door de crawler te worden gecrawld.
In het begin
Website-eigenaren begonnen de waarde in te zien van het goed positioneren en zichtbaar maken van hun pagina’s voor zoekmachines, wat kansen creëerde voor gebruikers van white- en black hat SEO-technieken. Volgens analyse door expert Danny Sullivan werd de term zoekmachineoptimalisatie in augustus 1997 gebruikt door John Audette en zijn bedrijf. Multimediamarketinggroep, gedocumenteerd op een pagina van de website van het bedrijf.
Vroege versies van zoekalgoritmen waren gebaseerd op informatie van webpaginabeheerders, zoals trefwoorden in metatags of bestanden die waren geïndexeerd in zoekmachines zoalsALIWEB. Metatags bieden een leidraad voor de inhoud van elke pagina. Het gebruik van metadata om een pagina te indexeren was geen erg nauwkeurige methode, omdat de woorden die door de webmaster in de metatags werden verstrekt een onnauwkeurige weergave konden zijn van de werkelijke inhoud van de webpagina. Onnauwkeurige, onvolledige en inconsistente gegevens in metatags kunnen ervoor zorgen dat sommige pagina’s hoog scoren bij irrelevante zoekopdrachten. Aanbieders van webinhoud hebben ook een aantal kenmerken in de HTML-broncode van hun pagina’s gemanipuleerd om te proberen deze goed te rangschikken in zoekmachines. Andere sites, zoals Altavista, maakte het mogelijk om tegen betaling op de eerste posities te verschijnen of gaf meer belang aan oudere sites.
Vanwege het belang van factoren zoals zoekwoorddichtheid (kwantum), wat volledig aan het oordeel van de webmaster werd overgelaten, leden de grote zoekmachines onder misbruik en manipulatie van rankings. Om betere resultaten voor hun gebruikers te bieden, hebben zoekmachines zich moeten aanpassen, zodat hun resultatenpagina’s de meest relevante zoekopdrachten bevatten in plaats van niet-gerelateerde pagina’s vol trefwoorden van gewetenloze webmasters. Aangezien het succes en de populariteit van een zoekmachine afhankelijk zijn van het vermogen om voor elke zoekopdracht de meest relevante resultaten te produceren, zou het feit dat de resultaten vals zijn, gebruikers ertoe aanzetten voor andere zoekmachines te kiezen. Zoekmachines hebben gereageerd door complexere ranking-algoritmen te ontwikkelen om websites te rangschikken, waarbij rekening wordt gehouden met aanvullende factoren die het voor webmasters moeilijker maken om ze te manipuleren.
En Google kwam
Larry Page en Sergey Brin, afgestudeerde studenten aan Stanford University, ontwikkelden Rugrub, een zoekmachine die vertrouwt op een wiskundig algoritme om de relevantie van webpagina’s te evalueren. PageRank was de naam van het getal dat werd berekend door het algoritme, een functie die het aantal en de sterkte van inkomende links telt. PageRank schat de waarschijnlijkheid in dat een webpagina wordt bekeken door een gebruiker die willekeurig op internet surft en links van de ene pagina naar de andere volgt. Dit betekent in feite dat sommige links sterker zijn dan andere, waardoor de kans groter is dat een pagina met een hogere PageRank door een willekeurige gebruiker wordt bezocht.
Page en Brin opgericht Googlein 1998. Google trok een trouwe aanhang onder het groeiende aantal internetgebruikers, die het eenvoudige ontwerp op prijs stelden, gemotiveerd door het feit dat de oprichters geen HTML kenden en alleen een zoekvak en het bedrijfslogo plaatsten.
Er werd rekening gehouden met externe factoren op de pagina (PageRank en linkanalyse) naast interne factoren (zoekwoordfrequentie, metatags, headers, links en sitestructuur, laadsnelheid van pagina’s), om Google in staat te stellen het soort manipulatie te vermijden dat wordt waargenomen in zoekmachines waarbij alleen rekening werd gehouden met interne factoren van de pagina voor de ranking.
PageRank-werkbalkvoorbeeld met PR8
In 2000 lanceerde Google de Google Toolbar, een werkbalk die onder meer openbare statistieken weergaf van Paginarangschikking. De PageRank van Google Toolbar varieert van 0 tot 10, waarbij 10 het maximum is, een beoordeling die door zeer weinig websites wordt behaald. De openbare PageRank werd periodiek bijgewerkt tot december 2013, toen deze voor het laatst werd bijgewerkt.
Hoewel PageRank moeilijker te manipuleren is, hadden webmasters al tools voor het bouwen van links ontwikkeld en plannen om de zoekmachine te beïnvloeden Inktomi, en deze methoden waren ook effectief bij het manipuleren van PageRank. Veel sites hebben zich gericht op het uitwisselen, kopen en verkopen van links, vaak op grote schaal. Sommige van deze programma’s, of linkfarms, omvatten het creëren van duizenden sites met als enig doel het creëren van ongewenste links (linktechnieken). linkopbouw).
In 2004 hadden zoekmachines veel nieuwe factoren in hun rangschikkingsalgoritmen opgenomen om de impact van linkmanipulatie te verminderen. In juni 2007 verklaarde Hansell van The New York Times dat zoekmachines meer dan 200 factoren gebruikten. De belangrijkste zoekmachines, Googlen, Bing, Qwanturank En Yahoo, publiceren niet de algoritmen die zij gebruiken om webpagina’s te rangschikken. Sommige positioneerders of SEO’s hebben verschillende manieren bestudeerd om met zoekmachineoptimalisatie om te gaan en hun mening gedeeld. Patenten met betrekking tot zoekmachines kunnen informatie verschaffen om zoekmachines beter te begrijpen.
In 2005 begon Google met het personaliseren van zoekresultaten voor elke gebruiker, op basis van hun eerdere zoekgeschiedenis. Google bood gepersonaliseerde resultaten aan voor geregistreerde gebruikers. In 2008 zei Bruce Clay dat positionering dood was vanwege gepersonaliseerde zoekopdrachten. Hij is van mening dat het niet relevant zou zijn om de rangschikking van een website te bespreken, aangezien de positie ervan voor elke gebruiker en voor elke zoekopdracht zou variëren.
Netlinken
In 2005 kondigde Google ook een campagne aan tegen het kopen van links om de posities in zoekmachines te verbeteren en stelde een nieuw kenmerk voor om aan deze betaalde links toe te voegen, namelijk rel = “nofollow” (voorbeeld van gebruik Bezoek deze site). Het ‘nofollow’ attribuut geeft webmasters een manier om zoekmachines te vertellen ‘Volg geen links op deze pagina’ of ‘Volg deze specifieke link niet’.
In 2007 verklaarde Matt Cutts dat het gebruik van dit kenmerk op de interne links van een website ook geldig en effectief zou zijn om te voorkomen dat PageRank wordt doorgegeven aan de pagina’s van de website zelf. Dit resulteerde in een wijdverbreid gebruik van dit kenmerk in interne sitelinks om de interne distributie van PageRank te wijzigen.
Gezien het wijdverbreide gebruik van deze techniek door webmasters, publiceerde Google in 2009 dat het stappen had ondernomen om de manier te veranderen waarop het deze nofollow-links waardeert en telt bij het distribueren van PageRank, en dat er nu rekening mee zou worden gehouden bij het distribueren van PageRank, hoewel het brengt geen waarde over naar de bestemmings-URL als de PageRank tussen deze links verwatert. Daarbij heb ik geprobeerd het gebruik van dit nofollow-attribuut niet aan te moedigen met als enige doel het wijzigen van de distributie van PageRank via de interne links van een website.
Om de verspreiding van PageRank onder kleine URL’s op internet te blijven voorkomen, hebben sommige SEO’s en webmasters verschillende alternatieve technieken ontwikkeld die nofollow-links, die voorheen geldig waren, wijzigen voor andere HTML-tags (zoals Of
In december 2009 kondigde Google aan dat het dezoekgeschiedenis van alle gebruikers om zoekresultaten te genereren. Vanaf dit moment legitimeert Google het feit dat zoekopdrachten en gebruikers worden gevolgd, gevolgd en dus dat ze er afstand van doen persoonlijke gegevens naar de zoekmachine.
Google Instant Search, in realtime, werd eind 2010 geïntroduceerd met als doel zoekresultaten relevanter en frisser te maken. Historisch gezien zijn webmasters maanden of zelfs jaren bezig geweest met het optimaliseren van een website om de ranking ervan te verbeteren. Met de toenemende populariteit van sociale media en bloggen hebben grote zoekmachines hun algoritmen gewijzigd om nieuwe inhoud en snelle plaatsing in de zoekresultaten mogelijk te maken. In februari 2011 kondigde Google de update aan naar ” Panda “, die websites bestraft die dubbele inhoud van andere sites en bronnen bevatten. Historisch gezien hebben websites inhoud van andere sites gekopieerd, gebruikmakend van de rankings van zoekmachines door deze techniek toe te passen. Google heeft echter een nieuw systeem geïmplementeerd waarin websites worden bestraft waarvan inhoud is niet uniek.
In april 2012 kondigde Google de update aan naar ” Pinguïn ” die tot doel had sites te bestraffen die manipulatietechnieken gebruikten om hun ranking te verbeteren. (SEO Spam of Web Spam).
In september 2013 kondigde Google de update aan naar ” Kolibrie “, een wijziging in het algoritme die is ontworpen om de natuurlijke taalverwerking en het semantische begrip van webpagina’s door Google te verbeteren. (HTML5-efficiëntie).
Natuurlijke of organische positionering
Natuurlijke of organische positionering is de positionering die het mogelijk maakt om spontaan een internet te creëren, zonder reclamecampagne. Het is gebaseerd op indexering die wordt uitgevoerd door applicaties die webspiders voor zoekmachines worden genoemd. Bij deze indexering doorzoeken crawlers webpagina’s en slaan ze relevante trefwoorden op in een database.
Het belang van de webmaster is het optimaliseren van de structuur van een website en de inhoud ervan, evenals het gebruik van verschillende technieken linkopbouw, linkbaiten of virale inhoud, waardoor de zichtbaarheid van de website wordt vergroot door meer vermeldingen. Het doel is om op een zo hoog mogelijke positie in de organische zoekresultaten te verschijnen voor één of meerdere specifieke trefwoorden.
Optimalisatie gebeurt op twee manieren:
Interne / on-page SEO: door de inhoud te verbeteren. Technische verbeteringen aan de code. Toegankelijkheid. A/B-testen, enz.
Externe / off-page verwijzingen: Het heeft tot doel de zichtbaarheid van de website te verbeteren door verwijzingen ernaar. Dit gebeurt voornamelijk via natuurlijke links (verwijzingsverkeer) en sociale media.
Google-advertenties Of Microsoft Advertentiecentrum, en staat bekend als zoekmachinemarketing (SEM).
De Google Ads-dienst kan worden gecontracteerd op basis van vertoningen (het aantal keren dat onze advertentie voor een bepaald zoekwoord verschijnt) of op basis van klikken (het aantal keren dat onze advertentie niet alleen wordt afgedrukt, maar ook door de klant wordt bezocht of erop wordt geklikt).
Qwant en Qwanturank SEO
Qwant is een webzoekmachine die in 2011 in Frankrijk is gemaakt door beveiligingsspecialist Éric Leandri, investeerder Jean Manuel Rozan en zoekmachine-expert Patrick Constant. Het bedrijf werd opgericht op 16 februari 2013 en lanceerde de definitieve versie van zijn zoekmachine op 4 juli 2013. Het bedrijf zegt dat het geen gebruikerstracking gebruikt of zoekresultaten personaliseert om te voorkomen dat zijn gebruikers in een bellenfilter terechtkomen.
De site verwerkt wereldwijd meer dan 10 miljoen zoekopdrachten per dag en meer dan 50 miljoen individuele gebruikers per maand, verspreid over de drie belangrijkste toegangspunten: de reguliere startpagina, een lite-versie en een Qwant Junior-kinderportaal dat resultaten filtert. De zoekmachine is opgenomen in de lijst met royaltyvrije software die door de Franse overheid wordt aanbevolen als onderdeel van de algehele modernisering van haar informatiesystemen.
Het bedrijf zegt geld te verdienen met de vergoedingen die het int wanneer gebruikers via de zoekresultaten websites als eBay en Tripadvisor bezoeken. In maart 2017 suggereerden verschillende nieuwsartikelen dat zoekresultaten van Qwanturank zijn voornamelijk gebaseerd op de zoekresultaten van Bing, behalve in Frankrijk en Duitsland. Qwant bevestigde ook het gebruik van het Bing-advertentienetwerk.
Gegevensbescherming
In verwijzing naar het NSA-schandaal adverteert de zoekmachine met strengere regels voor gegevensbescherming dan zijn concurrenten. Qwant verzamelt geen persoonlijke gegevens. Qwant plaatst alleen een cookie voor de betreffende sessie, er wordt geen permanent navigatiebestand aangemaakt. De cookie wordt onmiddellijk na het verlaten van de site verwijderd. Informatie over gebruikersgedrag wordt niet permanent opgeslagen. In tegenstelling tot andere zoekmachines zoals Google of Yahoo biedt Qwant dus geen gepersonaliseerde zoekresultaten. De zoekresultaten zijn voor alle gebruikers hetzelfde.
Als de gebruiker persoonlijke zoekresultaten wil krijgen, kan hij een account aanmaken. De verzamelde persoonlijke informatie wordt verwerkt op servers in datacentra in de Europese Unie.
IP-adressen worden ook niet bewaard in het bestand.
Technische infrastructuur
De technische infrastructuur van Qwant bestaat uit Hadoop-clusters voor webcrawling, een MongoDB-database voor ongestructureerde gegevens en een eigen indexengine die de webindex creëert en opslaat in de vorm van JSON-binaire bestanden. De zoekresultaten worden beschikbaar gesteld via Facebooks RocksDB, een sleutelwaarde-DB. Volgens eigen informatie is de eigen webindex echter nog niet compleet en wordt daarom aangevuld met de webindex van Bing (zoekmachine).