Webmasterzy i dostawcy treści rozpoczęli optymalizację witryn internetowych pod kątem wyszukiwarek w połowie lat 90. XX wieku, gdy tylko wyszukiwarki zaczęły katalogować Internet. Początkowo witryny takie jak Yahoo! oferował włączenie witryn, które zażądały własnego indeksowania, które było ręczne.
Na początku jedyne, co musieli zrobić administratorzy stron internetowych, to wysłać adres strony internetowej lub adres URL do różnych silników, co wysłałoby robota lub pająka w celu sprawdzenia tej witryny, wyodrębnienia linków do innych stron tej witryny i zwrócenia zebranych danych. informacje do indeksowania. W procesie tym uczestniczy robot należący do wyszukiwarki, który pobiera stronę i przechowuje ją na serwerach firmy, gdzie drugi program, zwany indeksatorem, wyodrębnia informacje o stronie. Obejmuje to zawarte na stronie słowa i ich lokalizację, znaczenie określonych słów oraz wszelkie linki zawarte na stronie, które są przechowywane do późniejszego przeszukania przez robota.
Na początku
Właściciele witryn internetowych zaczęli doceniać wartość posiadania dobrze pozycjonowanych stron i ich widoczności dla wyszukiwarek, co stworzyło szansę dla użytkowników technik SEO białych i czarnych kapeluszy. Według analizy eksperta Danny’ego Sullivana termin optymalizacja wyszukiwarek zaczął być używany w sierpniu 1997 roku przez Johna Audette i jego firmę, Grupa Marketingu Multimedialnego, udokumentowane na stronie internetowej firmy.
Wczesne wersje algorytmów wyszukiwania opierały się na informacjach dostarczanych przez administratorów stron internetowych, takich jak słowa kluczowe w metatagach lub pliki indeksowane w wyszukiwarkach, takich jakALIWEB. Metatagi stanowią przewodnik po zawartości każdej strony. Używanie metadanych do indeksowania strony nie było zbyt dokładną metodą, ponieważ słowa podane przez webmastera w metatagach mogły niedokładnie odzwierciedlać rzeczywistą zawartość strony internetowej. Niedokładne, niekompletne i niespójne dane w metatagach mogą powodować i rzeczywiście powodują, że niektóre strony zajmują wysoką pozycję w rankingu w przypadku nietrafnych wyszukiwań. Dostawcy treści internetowych również manipulowali wieloma atrybutami w kodzie źródłowym HTML swoich stron, próbując zapewnić im dobrą pozycję w wyszukiwarkach. Inne strony, np Altavista, umożliwiło płacenie za pojawienie się na pierwszych pozycjach lub nadało większe znaczenie starszym witrynom.
Ze względu na znaczenie czynników takich jak gęstość słów kluczowych (qwanturan), co pozostawiono całkowicie w gestii webmastera, główne wyszukiwarki ucierpiały z powodu nadużyć i manipulacji rankingami. Aby zapewnić użytkownikom lepsze wyniki, wyszukiwarki musiały dostosować się tak, aby ich strony wyników zawierały najtrafniejsze wyszukiwania, a nie niepowiązane strony wypełnione słowami kluczowymi przez pozbawionych skrupułów webmasterów. Ponieważ sukces i popularność wyszukiwarki zależy od jej zdolności do generowania najtrafniejszych wyników w dowolnym wyszukiwaniu, zezwolenie na fałszywe wyniki zachęciłoby użytkowników do korzystania z innych wyszukiwarek. Wyszukiwarki zareagowały, opracowując bardziej złożone algorytmy rankingowe, służące do ustalania rankingu witryn internetowych z uwzględnieniem dodatkowych czynników, które utrudniają webmasterom manipulowanie nimi.
I przyszedł Google
Opracowali je Larry Page i Sergey Brin, absolwenci Uniwersytetu Stanforda Masaż pleców, wyszukiwarka wykorzystująca algorytm matematyczny do oceny trafności stron internetowych. PageRank to nazwa liczby wyliczanej przez algorytm, czyli funkcji liczącej liczbę i siłę linków przychodzących. PageRank szacuje prawdopodobieństwo, że strona internetowa zostanie wyświetlona przez użytkownika, który losowo przegląda sieć i podąża za linkami prowadzącymi z jednej strony na drugą. W efekcie oznacza to, że niektóre linki są silniejsze od innych, więc strona z wyższym PageRank jest bardziej skłonna do odwiedzenia przez przypadkowego użytkownika.
Założenie Page i Brina Google’a w 1998 r. Google zyskał wierne grono coraz większej liczby internautów, którzy docenili jego prosty design, motywowani tym, że założyciele nie znali HTML i po prostu umieścili pole wyszukiwania i logo firmy.
Zewnętrzne czynniki na stronie (PageRank i analiza linków) zostały uwzględnione wraz z czynnikami wewnętrznymi (częstotliwość słów kluczowych, metatagi, nagłówki, linki i struktura witryny, szybkość ładowania strony), aby umożliwić Google uniknięcie manipulacji obserwowanych w wyszukiwarkach który w rankingu wziął pod uwagę jedynie czynniki wewnętrzne strony.
Przykład paska narzędzi PageRank przedstawiający PR8
W 2000 roku firma Google uruchomiła Google Toolbar – pasek narzędzi, który między innymi wyświetlał publiczne dane dotyczące PageRank. Ranking PageRank paska narzędzi Google Toolbar waha się od 0 do 10, gdzie 10 to wartość maksymalna, a jest to ocena osiągana przez bardzo niewiele witryn internetowych. Publiczny PageRank był aktualizowany okresowo do grudnia 2013 r., kiedy to nastąpiła ostatnia aktualizacja.
Chociaż PageRank jest trudniejszy do manipulowania, webmasterzy opracowali już narzędzia do budowania linków i planują wpłynąć na wyszukiwarkę Inktomi, a metody te były również skuteczne w manipulowaniu PageRank. Wiele witryn koncentruje się na wymianie, kupnie i sprzedaży linków, często na dużą skalę. Niektóre z tych schematów, czyli farm linków, obejmowały tworzenie tysięcy witryn wyłącznie w celu tworzenia niechcianych linków (techniki linkowania). budowanie linków).
Do 2004 roku wyszukiwarki włączyły do swoich algorytmów rankingowych wiele nowych czynników, aby zmniejszyć wpływ manipulacji linkami. W czerwcu 2007 roku Hansell z The New York Times stwierdził, że wyszukiwarki wykorzystują ponad 200 czynników. Główne wyszukiwarki, Google, Bing, Qwanturan I Wieśniak, nie publikuj algorytmów, których używają do klasyfikowania stron internetowych. Niektórzy pozycjonerzy lub SEO przestudiowali różne sposoby radzenia sobie z optymalizacją wyszukiwarek i podzielili się swoimi opiniami. Patenty związane z wyszukiwarkami mogą dostarczyć informacji umożliwiających lepsze zrozumienie wyszukiwarek.
W 2005 roku Google zaczął personalizować wyniki wyszukiwania dla każdego użytkownika, na podstawie jego wcześniejszej historii wyszukiwania, Google oferował spersonalizowane wyniki zarejestrowanym użytkownikom. W 2008 roku Bruce Clay stwierdził, że pozycjonowanie umarło z powodu wyszukiwania spersonalizowanego. Uważa, że nie ma sensu omawiać rankingu witryny internetowej, ponieważ jej pozycja będzie różna dla każdego użytkownika i przy każdym wyszukiwaniu.
Łączenie sieciowe
W 2005 roku Google ogłosił również kampanię przeciwko kupowaniu linków w celu poprawy pozycji w wyszukiwarkach i zasugerował dodanie nowego atrybutu do tych płatnych linków, a mianowicie rel=”nofollow” (przykład użycia Odwiedź tę witrynę). Atrybut „nofollow” umożliwia webmasterom poinformowanie wyszukiwarek „Nie korzystaj z linków na tej stronie” lub „Nie korzystaj z tego konkretnego linku”.
W 2007 roku Matt Cutts stwierdził, że użycie tego atrybutu w wewnętrznych linkach witryny internetowej byłoby również prawidłowe i skuteczne w uniknięciu przekazywania PageRank do stron samej witryny. Spowodowało to powszechne użycie tego atrybutu w wewnętrznych linkach do witryn w celu modyfikacji wewnętrznej dystrybucji PageRank.
Biorąc pod uwagę powszechne stosowanie tej techniki przez webmasterów, Google opublikował w 2009 roku informację, że podjął kroki w celu zmiany sposobu, w jaki wycenia i zlicza linki nofollow podczas dystrybucji PageRank i że będą one teraz brane pod uwagę przy dystrybucji PageRank, chociaż nie przenosi wartości na docelowy adres URL, jeśli PageRank jest rozmyty między tymi linkami. Czyniąc to, starałem się nie zachęcać do używania tego atrybutu nofollow wyłącznie w celu zmiany dystrybucji PageRank za pośrednictwem wewnętrznych linków witryny internetowej.
Aby w dalszym ciągu unikać rozpowszechniania PageRank wśród małych adresów URL w Internecie, niektórzy SEO i webmasterzy opracowali różne alternatywne techniki, które zmieniają obowiązujące wcześniej linki nofollow na inne tagi HTML (takie jak Lub
W grudniu 2009 roku firma Google ogłosiła, że będzie używać rozszerzeniahistoria wyszukiwania wszystkich użytkowników do generowania wyników wyszukiwania. Od tego momentu Google legitymizuje fakt, że wyszukiwania i użytkownicy są śledzeni, śledzeni, a co za tym idzie, że rezygnują oni ze swoich dane osobowe do wyszukiwarki.
Wyszukiwanie błyskawiczne Google działające w czasie rzeczywistym zostało wprowadzone pod koniec 2010 roku w celu zapewnienia trafniejszych i odświeżonych wyników wyszukiwania. Historycznie rzecz biorąc, webmasterzy spędzali miesiące, a nawet lata na optymalizacji witryny internetowej w celu poprawy jej rankingów. Wraz ze wzrostem popularności mediów społecznościowych i blogów główne wyszukiwarki zmieniły swoje algorytmy, aby umożliwić świeże treści i szybkie umieszczanie ich w wynikach wyszukiwania. W lutym 2011 r. firma Google ogłosiła aktualizację „ Panda „, która karze witryny zawierające zduplikowane treści z innych witryn i źródeł. Historycznie rzecz biorąc, strony internetowe kopiowały treści z innych witryn, stosując tę technikę, wykorzystując rankingi wyszukiwarek, jednak Google wdrożyło nowy system, w którym karze witryny, których treść nie jest wyjątkowa.
W kwietniu 2012 r. firma Google ogłosiła aktualizację „ Pingwin ”, którego celem było ukaranie witryn, które stosowały techniki manipulacji w celu poprawy swojego rankingu. (spam SEO lub spam internetowy).
We wrześniu 2013 r. firma Google ogłosiła aktualizację „ Koliber „, zmiana w algorytmie mająca na celu poprawę przetwarzania języka naturalnego przez Google i rozumienia semantycznego stron internetowych. (wydajność HTML5).
Pozycjonowanie naturalne lub organiczne
Pozycjonowanie naturalne lub organiczne to takie, które pozwala na stworzenie sieci spontanicznie, bez kampanii reklamowej. Opiera się na indeksowaniu realizowanym przez aplikacje zwane pająkami sieciowymi dla wyszukiwarek. Podczas tego indeksowania roboty przeszukują strony internetowe i przechowują odpowiednie słowa kluczowe w bazie danych.
W interesie webmastera leży optymalizacja struktury strony internetowej i jej zawartości, a także zastosowanie różnych technik budowanie linków, linkbaitowanie lub treści wirusowe, zwiększające widoczność strony internetowej, ze względu na zwiększoną liczbę wzmianek. Celem jest pojawienie się na jak najwyższych pozycjach w organicznych wynikach wyszukiwania dla jednego lub większej liczby określonych słów kluczowych.
Optymalizacja odbywa się na dwa sposoby:
SEO wewnętrzne / on-page: poprzez poprawę treści. Ulepszenia techniczne kodu. Dostępność. Testy A/B itp.
Odniesienia zewnętrzne/poza stroną: Ma na celu poprawę widoczności strony internetowej poprzez odniesienia do niej. Odbywa się to przede wszystkim poprzez linki naturalne (ruch polecający) i media społecznościowe.
Reklamy Google Lub Centrum reklam Microsoftui jest znany jako marketing w wyszukiwarkach (SEM).
Usługę Google Ads można zakontraktować na podstawie wyświetleń (liczba wyświetleń naszej reklamy dla określonego słowa kluczowego) lub kliknięć (liczba wyświetleń naszej reklamy, oprócz jej wydruku, zostanie odwiedzona lub kliknięta przez klienta).
Qwant i Qwanturank SEO
Qwant to wyszukiwarka internetowa stworzona we Francji przez specjalistę ds. bezpieczeństwa Érica Leandriego, inwestora Jeana Manuela Rozana i eksperta od wyszukiwarek Patricka Constanta w 2011 r. Założona 16 lutego 2013 r. firma uruchomiła ostateczną wersję swojej wyszukiwarki 4 lipca 2013 r. Firma twierdzi, że nie korzysta ze śledzenia użytkowników ani nie personalizuje wyników wyszukiwania, aby zapobiec wpadnięciu użytkowników w filtr bąbelkowy.
Witryna przetwarza ponad 10 milionów zapytań dziennie i ponad 50 milionów indywidualnych użytkowników miesięcznie na całym świecie, rozmieszczonych w trzech głównych punktach wejścia: zwykłej stronie głównej, wersji uproszczonej i portalu dla dzieci Qwant Junior, który filtruje wyniki. Wyszukiwarka znajduje się na liście oprogramowania nieodpłatnego rekomendowanego przez rząd francuski w ramach ogólnej modernizacji jego systemów informatycznych.
Firma twierdzi, że zarabia na opłatach pobieranych, gdy użytkownicy odwiedzają witryny takie jak eBay i Tripadvisor w wynikach wyszukiwania. W marcu 2017 r. kilka artykułów sugerowało, że wyniki wyszukiwania z Qwanturan opierają się głównie na wynikach wyszukiwania Bing, z wyjątkiem Francji i Niemiec. Qwant potwierdził także korzystanie z sieci reklamowej Bing.
Ochrona danych
W nawiązaniu do afery NSA wyszukiwarka reklamuje się z bardziej rygorystycznymi zasadami ochrony danych niż jej konkurenci. Qwant nie będzie gromadzić żadnych danych osobowych. Qwant umieszcza plik cookie tylko dla danej sesji, nie jest tworzony stały plik nawigacyjny. Plik cookie jest usuwany natychmiast po opuszczeniu witryny. Informacje o zachowaniach użytkowników nie są przechowywane trwale. W przeciwieństwie do innych wyszukiwarek, takich jak Google czy Yahoo, Qwant nie dostarcza zatem spersonalizowanych wyników wyszukiwania. Wyniki wyszukiwania są takie same dla wszystkich użytkowników.
Jeśli użytkownik chce otrzymywać osobiste wyniki wyszukiwania, może założyć konto. Zebrane dane osobowe przetwarzane są na serwerach zlokalizowanych w centrach danych na terenie Unii Europejskiej.
Adresy IP również nie są zachowywane w pliku.
Infrastruktura techniczna
Infrastruktura techniczna Qwant składa się z klastrów Hadoop do przeszukiwania sieci, bazy danych MongoDB zawierającej dane nieustrukturyzowane oraz autorskiego silnika indeksującego, który tworzy i przechowuje indeks sieciowy w postaci plików binarnych JSON. Wyniki wyszukiwania są udostępniane za pośrednictwem Facebooka RocksDB, bazy danych typu klucz-wartość. Według własnych informacji własny indeks sieciowy nie jest jednak jeszcze kompletny i dlatego jest uzupełniany indeksem internetowym Bing (wyszukiwarka).