Eksploracja Zasobów Internetu Web spamming

Podobne dokumenty
Eksploracja Zasobów Internetu Web spamming

Wyszukiwanie i Przetwarzanie Informacji Web Spam

Eksploracja Zasobów Internetu. PageRank intuicja: strona jest tak ważna jak ważne są strony, które na nią wskazują (Google)

Eksploracja Zasobów Internetu

POZYCJONOWANIE I OPTYMALIZACJA STRON WWW PDF >>>WIĘCEJ<<<

Spis treúci. Księgarnia PWN: Paweł Kobis - Marketing z Google. Podziękowania O Autorze Wstęp... 13

Wyszukiwarki stosują różne metody oceny stron i algorytmy oceniające za indeksowane strony różnią się w poszczególnych wyszukiwarkach, ale można

Tomasz Boiński: 1. Pozycjonowanie stron i zastosowanie mod_rewrite

#1 Wartościowa treść. #2 Słowa kluczowe. #3 Adresy URL

Audyt SEO. sklep-budowalny.pl Biuro obsługi: al. Grunwaldzka 2/ Gdańsk

Kroki dwa. do najlepszych pozycji w Google

[domen.pl. Strony jakiejśtam.pl

Website review radcowie.biz

1945 (96,1%) backlinks currently link back (74,4%) links bear full SEO value. 0 links are set up using embedded object

Jak tworzyć strony internetowe, aby były gotowe na pozycjonowanie?

Internetowa strategia marketingowa

Website review auto-web.pl

SEO. Optymalizacja TYPO3 dla wyszukiwarek internetowych

Przyjazne linki SEO i optymalizacja adresów URL

Spis treści

Księgarnia PWN: Paweł Kobis - Marketing z Google CZYNNIKI WPŁYWAJĄCE NA POZYCJĘ W WYSZUKIWARKACH

Wyszukiwanie i Przetwarzanie Informacji WWW

Website review pureorganic.pl

Jak unikąć duplikacji treści na wersjach językowych sklepu PrestaShop?

POZYCJONOWANIE STRON PORADY

Poradnik SEO. Ilu z nich szuka Twojego produktu? Jak skutecznie to wykorzystać?

Oferta SEO. Analiza i optymalizacja

Pozycjonowanie i SEO w czym jest różnica pojęć?

Inteligentne systemy informacyjne

SWISS EPHEMERIS for the year 2012

Cele pozycjonowania stron

SEO Audit for domain blog.rabinek.pl

Marketing z Google Autor Paweł Kobis

POZYCJONOWANIE STRON INTERNETOWYCH (SEO)

Jak podnieść pozycje w Google?

2 Podstawy tworzenia stron internetowych

INTERNET - NOWOCZESNY MARKETING

SERWISY BIBLIOTECZNE w perspektywie SEO

Zarządzanie treścią (CMS)

Strategia SEO. Załącznik B

SEO & SEM : przewodnik dla zaawansowanych po Webmarketingu / Marco Maltraversi. Warszawa, Spis treści WSTĘP 15

1. Promocja sklepu Wysokość pozycjonowania.

POZYCJONOWANIE STRONY SKLEPU

skutecznej rekrutacji

POZYCJONOWANIE CHORZÓW >>>WIĘCEJ<<<

POZYCJONOWANIE W WYSZUKIWARKACH APTEK INTERNETOWYCH

Optymalizacja kart produktów w sklepie internetowym nie tylko pod kątem SEO. Katarzyna Baranowska

POZYCJONOWANIE I OPTYMALIZACJA STRON WWW

Jak pisać dobre teksty SEO?

Tychy, plan miasta: Skala 1: (Polish Edition)

1. Wstęp Optymalizacja struktury adresów URL Wstęp Unikalność adresów URL (duplicate content)... 5

Wprowadzenie do reklamy w wyszukiwarkach

Plan: 1. Co to jest pozycjonowanie 2. Słowniczek pojęć 3. Podstawy wyszukiwarek (Roboty, bazy danych, manipulowanie) 4. Rankingi

MENTI.COM KOD:

PageRank i HITS. Mikołajczyk Grzegorz

POZYCJONOWANIE JOOMLA >>>WIĘCEJ<<<

Jak pisać publikacje naukowe? Nie o naukowej, a technicznej stronie pisania artykułu

Skuteczne sposoby budowania ruchu w oparciu o SEM/SEO. - Karol Wnukiewicz

Spis treści. O autorce. O recenzentach. Wprowadzenie

Proste kody html do szybkiego stosowania.

OPTYMALIZACJA SERWISÓW INTERNETOWYCH >>>WIĘCEJ<<<

SEO: Optymalizacja dla wyszukiwarek. Michał Prysłopski plio.pl 2010

Machine Learning for Data Science (CS4786) Lecture 11. Spectral Embedding + Clustering

Tworzenie Stron Internetowych. odcinek 5

Sposoby analizy i interpretacji statystyk strony WWW.

Przekierowanie Redirect Poradnik

Optymalizacja logo strony. Krok po kroku... Spis treści

HTML, CSS i JavaScript / Laura Lemay, Rafe Colburn, Jennifer Kyrnin. Gliwice, cop Spis treści

Oferta przygotowana przez BerMar multimedia. POZYCJONOWANIE oferta. tel.: (71)

Has the heat wave frequency or intensity changed in Poland since 1950?

WSKAZÓWKI DLA AUTORÓW Optymalizacja publikacji naukowych dla wyników wyszukiwarek ASEO 1

Wstęp do encyklopedii linków Audyt linków wskazówki, ciekawostki, zalecenia

Struktura produktów i tekst SEO w pozycjonowaniu sklepów internetowych

SEO Audit for domain zdrowewidzenie.pl

Widżety KIWIPortal. tworzenie umieszczanie na stronach internetowych opcje zaawansowane. Autor: Damian Rebuś Data: Wersja: 1.

Semantyczne Wiki na przykładzie Semantic MediaWiki

SEO oraz Google Adwords dla małych i średnich przedsiębiorstw.

Audyt SEO. strona-korporacyjna.pl Biuro obsługi: al. Grunwaldzka 2/ Gdańsk

Dobra pozycja w Google? Dlaczego warto nam zaufać?

POZYCJONOWANIE ZASOBÓW BIBLIOTEK CYFROWYCH

Kodeks Dobrych Praktyk SEO IAB Polska

Semantyczne Wiki! na przykładzie! Semantic MediaWiki!

Godzina dziennie z SEO. Wejdź na szczyty wyszukiwarek. Wydanie II.

Jak zdobywać linki z profili TR? Strona 1

ZNACZNIKI META. Znacznik META

SEO z pomysłem. dla leroymerlin.pl

Marketing w Internecie. 17 maja 2011 Poznań Enterso - Wojciech Kłodziński

ERASMUS + : Trail of extinct and active volcanoes, earthquakes through Europe. SURVEY TO STUDENTS.

Pozycjonowanie i optymalizacja stron WWW. Jak się to robi. Wydanie III.

PROCES TWORZENIA DOKUMENTU

Paweł Budynek. Metody optymalizacji i pozycjonowania stron internetowych Methods of search engine optimization

Zakopane, plan miasta: Skala ok. 1: = City map (Polish Edition)

SEO / SEM PREZENTACJA OFERTY

Mapa witryny - Poradnik od A do Z

Wojewodztwo Koszalinskie: Obiekty i walory krajoznawcze (Inwentaryzacja krajoznawcza Polski) (Polish Edition)

Podstawy optymalizacji stron internetowych w PAP pod kątem SEO Spis treści

Google AdWords. Gdańsk, 22 maja icbm.info cityboard.pl

Witryny nie do ukrycia. Jak zbudować stronę, którą znajdzie każda wyszukiwarka.

SEO Audyt. Podsumowanie. 51/100 punktów. Masz 11 rzeczy, które możesz poprawić! Uzyskany wynik: Data przeprowadzenia: :33:47

Transkrypt:

Web spamming web spamming celowe działanie człowieka mające na celu oszukanie algorytmu rangującego wyszukiwarek interenetowych, tak by oceniały niektóre strony wyżej niż na to zasługują

Web spamming web spamming celowe działanie człowieka mające na celu oszukanie algorytmu rangującego wyszukiwarek interenetowych, tak by oceniały niektóre strony wyżej niż na to zasługują Adversarial information retrieval Spamdexing, Google bombing

Web spamming web spamming celowe działanie człowieka mające na celu oszukanie algorytmu rangującego wyszukiwarek interenetowych, tak by oceniały niektóre strony wyżej niż na to zasługują 8%-13% indeksowanych stron (2006) Szacowane straty finansowe spowodowane spamem: 2005-50 miliardów $, 2009-130 miliardów $ N. Spirim, J. Han: Survey on Web Spam Detection: Principles and Algorithms Nowsze badania: http://www.itu.int/itu-d/cyb/cybersecurity/docs/itu-study-financial-aspects-ofmalware-and-spam.pdf

Web spamming web spamming celowe działanie człowieka mające na celu oszukanie algorytmu rangującego wyszukiwarek interenetowych, tak by oceniały niektóre strony wyżej niż na to zasługują web spamming? search engine optimization (SEO)

Content spamming (lub term spamming) dotyczy umieszczania nierzetelnej informacji w: tytule strony meta-tagach sekcji body tekście hiperłącz adresie URL

Dwie najbardziej popularne techniki, generowania sztucznej zawartości: Wielokrotne powtarzanie wybranych słów kluczowych, aby zwiększyć dopasowanie spam-strony do wybranych zapytań użytkowników (wstawianie potencjalnie popularnych słów do zdań związanych lub niezwiązanych z dziedziną, pozyskanych np. poprzez kopiowanie innych stron WWW) Wrzucanie wielu słów kluczowych luźno związanych z treścią strony, aby zwiększyć dopasowanie tej strony do większej liczby zapytań użytkowników (tworzenie sztucznej treści np. poprzez wstawianie zdań skopiowanych z wielu stron WWW)

Link Spamming dotyczy manipulowania hiperłączami, zarówno wychodzącymi z danej spam-strony, jak i wskazującymi na daną spam-stronę.

Link Spamming dotyczy manipulowania hiperłączami, zarówno wychodzącymi z danej spam-strony, jak i wskazującymi na daną spam-stronę. Linki wychodzące dość łatwo umieścić na stronie dużą liczbę linków do ważnych stron (np. directory cloning) Linki wchodzące trudniej jest manipulować linkami wskazującymi z innych (obcych) stron na daną.

Techniki manipulacji linkami: Utworzenie stron typu honey pot, które będą zawierać (ukryte) linki do spam-strony, której ranking chcemy polepszyć. Atrakcyjność stron honey pot wynika z zamieszczenia na nich informacji użytecznych dla wielu użytkowników sieci (np. listy FAQ lub dokumentację dla popularnych narzędzi). Dodanie linków na daną spam-stronę do (najlepiej kilku) katalogów stron.

Techniki manipulacji linkami c.d.: Wstawianie linków na daną spam-stronę do wypowiedzi zamieszczanych w blogach, dyskusjach na forach, recenzjach, itp. (tzw. user-generated content) Organizacja grupy wzajemnej wymiany linków kooperacja między spammerami. Utworzenie własnej spam-farmy. Pozwala na utworzenie dowolnej struktury linków, lecz wymaga kontroli nad większą liczbą witryn.

Clik spamming dotyczy technik generowania zapytań do popularnych wyszukiwarek internetowych, aby móc wybierać (click) z listy wyników promowane spam-strony, symulując w ten sposób zainteresowanie prawdziwych użytkowników Click spam działa podobnie jak tzw. Click fraud, ale stosowany jest w innym celu podniesienia rankingu strony

Techniki ukrywania spamu Ukrywanie zawartości Użycie tego samego koloru tekstu co tła <body background = white> <font color = white>spam items</font> </body> Zamieszczenie ukrytych hiperłącz <a href= target.html ><img src= blank.gif ></a>

Techniki ukrywania spamu Ukrywanie zawartości Użycie tego samego koloru tekstu co tła <body background = white> <font color = white>spam items</font> </body> Zamieszczenie ukrytych hiperłącz <a href= target.html ><img src= blank.gif ></a> Stosowanie skryptów do ukrycia części strony

Cloaking (maskowanie) Zawartość prezentowana wyszukiwarce internetowej jest odmienna od zawartości prezentowanej czytelnikom. Identyfikacja robotów indeksujących na podstawie predefiniowanych list adresów IP wyszukiwarek lub też analizy nagłówka user-agent.

Cloaking (maskowanie) Zawartość prezentowana wyszukiwarce internetowej jest odmienna od zawartości prezentowanej czytelnikom. Identyfikacja robotów indeksujących na podstawie predefiniowanych list adresów IP wyszukiwarek lub też analizy nagłówka user-agent. Przekierowywanie Strona prezentowana robotom nie jest widoczna dla użytkowników dzięki użyciu skryptów lub meta-tagu refresh (Refresh: 0; url=adres)

Zwalczanie spamu Jawny spam dość łatwo identyfikować, wykorzystanie skryptów komplikuje sprawę, gdyż ich wykonywanie/analizowanie przez serwisy wyszukujące jest czaso-/kosztochłonne

Zwalczanie spamu Jawny spam dość łatwo identyfikować, wykorzystanie skryptów komplikuje sprawę, gdyż ich wykonywanie/analizowanie przez serwisy wyszukujące jest czaso-/kosztochłonne Wykorzystanie opisów łącz (ang. anchor text ) do określania tematycznej zawartości stron.

Zwalczanie spamu Jawny spam dość łatwo identyfikować, wykorzystanie skryptów komplikuje sprawę, gdyż ich wykonywanie/analizowanie przez serwisy wyszukujące jest czaso-/kosztochłonne Wykorzystanie opisów łącz (ang. anchor text ) do określania tematycznej zawartości stron. PageRank dość dobrze radzi sobie z technikami spamowania zawartości lecz jest w pewnym stopniu podatny na techniki manipulowania linkami wchodzącymi.

Zwalczanie spamu Nowsze zalecenia Google a odnośnie zawartości w JavaScript 1.: Don t cloak to Googlebot 2.: Use the rel=canonical attribute ale także: Google supports JavaScript to some extent (titles, description & robots meta tags, structured data, and other meta-data) Pełna lista zaleceń skompilowana na podstawie wypowiedzi Johna Muellera w marcu 2016 dostępna na https://blog.seoprofiler.com/googles-john-mueller-google-indexes-javascript-sites/

Zwalczanie spamu c.d. Każda technika spamowania skupia się na jednym lub wielu aspektach wykorzystywanych przez algorytmy rangujące wyszukiwarek W ogólności heurystyki detekcji spamu szukają statystycznych anomalii w cechach stron/witryn obserwowalnych z poziomu wyszukiwarki Detekcja spamu sprowadza się do problemu klasyfikacji

Zwalczanie spamu c.d. Wykorzystanie metod uczenia maszynowego, a w szczególności klasyfikatorów. Cechy stron, które mogą być analizowane w klasyfikacji: liczba unikatowych słów na stronie (spam-strony zwykle zawierają ich więcej), średnia długość słowa (dla j. angielskiego =5), która jest często odmienna dla sztucznych tekstów, liczba słów w tytule strony (zwykle wyższa dla spamstron), procent zawartości widocznej (często niższy dla spam-stron), ilość tekstu w opisach łącz, podatność na kompresję, itp.

Zwalczanie spamu c.d. Web spam classification: a few features worth more, M.Erdélyi, A. Garzó, and A. A. Benczúr, ACM Press 2011 >>we investigate how much various classes of Web spam features, some requiring very high computational effort, add to the classification accuracy. We realize that advances in machine learning, an area that has received less attention in the adversarial IR community, yields more improvement than new features and result in low cost yet accurate spam filters<< Użyte techniki ML: LogitBoost, Random Forests Obecnie: Deep learning

Zwalczanie spamu c.d. Różnicowanie ważności słów kluczowych i linków występujących na stronie w zależności od ich położenia. Najczęściej linki są umieszczane na spodzie stron typu honey pot czy stron uczestniczących we wzajemnej wymianie linków. Algorytmy segmentacji dokumentów

Zwalczanie spamu c.d. Wykorzystanie obserwacji, że wartościowe strony i spam-strony tworzą odseparowane obszary sieci Web; strony wysokiej jakości rzadko wskazują na spam-strony, zaś spam-strony często wskazują na strony wartościowe. Algorytmy grafowe Web Structure Mining

Zwalczanie spamu c.d. Wykorzystanie informacji i powiązań z serwisami społecznościowymi Mutually Reinforcing Spam Detection on Twitter and Web Nikita Spirin, 2011

Zwalczanie spamu c.d. Wykorzystanie informacji i powiązań z serwisami społecznościowymi

Zwalczanie spamu c.d. Google Panda (luty 2011) algorytm nastawiony na zmarginalizowanie znaczenia treści powielonych na wielu stronach i treści nieoryginalnych (np. przedruki na wielu stronach, kopiowane opisy produktów, ta sama informacja prasowa w wielu serwisach). Jennifer Slegg Understanding Google Panda: Definitive Algo Guide for SEOs JANUARY 11, 2016 http://www.thesempost.com/understanding-google-panda-definitivealgo-guide-for-seos/

Zwalczanie spamu c.d. Google Panda (luty 2011) algorytm nastawiony na zmarginalizowanie znaczenia treści powielonych na wielu stronach i treści nieoryginalnych (np. przedruki na wielu stronach, kopiowane opisy produktów, ta sama informacja prasowa w wielu serwisach). Cel: zniwelowanie działania farm treści i scraperów chwilowy (?) efekt uboczny: osiąganie przez duplikaty wyższych pozycji niż strony oryginalne

Zwalczanie spamu c.d. Google Panda 23/24 lutego 2011 Panda dla serwisów i użytkowników w USA Kwiecień 2011 panda dla wszystkich domen anglojęzycznych (cctld) Od sierpnia 2011 stopniowe wprowadzanie dla innych języków (prócz chińskiego, japońskiego i koreańskiego) Od lipca 2012 dla języków azjatyckich Od stycznia 2016 jako integralna część mechanizmu rangującego Google a

Zwalczanie spamu c.d. Google Penguin (kwiecień 2012) algorytm nastawiony na karanie serwisów, które stosują techniki spamerskie Cel: zwalczanie spamu w sieci Web

Zwalczanie spamu c.d. Google Penguin prawdopodobnie nacisk na wykrywanie: optymalizowania tekstów odnośników (treści tagu <a>) pod popularne zapytania optymalizowania nazw domen pod popularne zapytania (EMDs - exact match domains) spamowania na serwisach społecznościowych/blogach 'upychania' słów kluczowych (keyword stuffing) w linkach

Zwalczanie spamu c.d. Google Penguin prawdopodobnie nacisk na wykrywanie: there is no inherent problem with EMDs. The problem is when it's combined with other spam tactics optymalizowania tekstów odnośników Google, (treści Nov 2016 tagu <a>) pod popularne zapytania optymalizowania nazw domen pod popularne zapytania (EMDs - exact match domains) spamowania na serwisach społecznościowych/blogach 'upychania' słów kluczowych (keyword stuffing) w linkach

Zwalczanie spamu c.d. Google deklaruje, że Panda 1.0 wpłynęła na wyniki ~12% zapytań kierowanych do ich wyszukiwarki, Penguin zaś na ok. 3.1% zapytań Oba algorytmy były uruchamiane okresowo (nieregularnie) Penguin w 2012: 24 kwietnia (~3.1%), 26 maja (<0.1%), 5 października (~0.3%) Penguin 2.0 w 2013: 2 maja 2013 (2.3%), 4 października ver. 2.1 (~1%) Wyniki działania kolejnych edycji miały być coraz bardziej precyzyjne

1. Panda 1.0 (aka the Farmer Update) on February 24th 2011 2. Panda 2.0 on April 11th 2011. (Panda impacts all English speaking countries) 3. Panda 2.1 on May 9th 2011 or so 4. Panda 2.2 on June 18th 2011 or so. 5. Panda 2.3 on around July 22nd 2011. 6. Panda 2.4 in August 2011(Panda goes international) 7. Panda 2.5 on September 28th 2011 8. Panda 2.5.1 on October 9th 2011 9. Panda 2.5.2 on October 13th 2011 10. Panda 2.5.3 on October 19/20th 2011 11. Panda 3.1 on November 18th 2011 12. Panda 3.2 on about January 15th 2012 13. Panda 3.3 on about February 26th 2012 14. Panda 3.4 on March 23rd 2012 15. Panda 3.5 on April 19th 2012 16. Panda 3.6 on April 27th 2012 17. Panda 3.7 on June 8th 2012 18. Panda 3.8 on June 25th 2012 19. Panda 3.9 on July 24th 2012 20. Panda 3.9.1 on August 20th 2012 21. Panda 3.9.2 on September 18th 2012 22. Panda Update #20 on September 27 2012 (overlapped the EMD Update) 23. Panda #21 on November 5th 2012 24. Panda #22 on December 4th 2012 25. Panda #23 on December 21st 2012 26. Panda #24 on January 22nd 2013 27. Panda #25 on March 25th 2013

Zwalczanie spamu c.d. Inne działania Google - kwiecień 2012 Zapowiedź obniżenia wartości tzw. nieorganicznych (nienaturalnych) linków: pochodzących z farm linków pochodzących z sieci wymiany linków wszelkich innych, które noszą znamiona linków płatnych (w szczególności otagowanych tekstem w postaci popularnych słów kluczowych)

Zwalczanie spamu c.d. Google s dreadful message źródło: searchenginewatch.com

Zwalczanie spamu c.d. W październiku 2012 Matt Cutts poinformował o nowym narzędziu dla webmasterów (tool to disavow links), które umożliwia przekazanie do Google w prostym pliku tekstowym listy adresów serwisów (lub pojedynczych stron), z których linki do naszych stron uznajemy za niewartościowe Przykładowa treść pliku: # Contacted owner of spamdomain1.com on 7/1/2012 to # ask for link removal but got no response domain:spamdomain1.com # Owner of spamdomain2.com removed most links, but missed these http://www.spamdomain2.com/contenta.html http://www.spamdomain2.com/contentb.html http://www.spamdomain2.com/contentc.html

Zwalczanie spamu c.d. W październiku 2012 Matt Cutts poinformował o nowym narzędziu dla webmasterów (tool to disavow links), które umożliwia przekazanie do Google w prostym pliku tekstowym listy adresów serwisów (lub pojedynczych stron), z których linki do naszych stron uznajemy za niewartościowe Z punktu widzenia Google jest to bardzo prosta metoda zaangażowania tysięcy (?) darmowych redaktorów (human editors) do wskazania spamerskich serwisów

Zwalczanie spamu c.d. W czerwcu 2013 Google ogłosił wprowadzanie nowych technik do walki ze spamem związanym z pewną grupą konkretnych zapytań spam algorithm aka Payday Loan algorithm >> Matt said that this impacts about 0.3% of U.S. queries but up to 4% or so of Turkish queries where spam is a larger part of the index there. Matt also added that the techniques targeted here are often "illegal" tactics that he won't discuss<< https://www.seroundtable.com/global-googlealgorithms-18896.html

Google s Hummingbird > nowy algorytm wyszukiwania/rangowania: >90% zapytań (ostatnia tak poważna zmiana miała ponoć miejsce w 2001r.) > oparty na dawnych kryteriach oceny stron (searchengineland.com/seotable Preiodic Table of SEO) > ogłoszony 26 września 2013 r. (uruchomiony ponoć ok. miesiąc wcześniej) > kładzie nacisk na semantykę zapytań

Knowledge graph > start w 2012 > bazuje na Schema.org alliance (Google, Microsoft, Yahoo - 2011) > dane ustrukturalizowane możliwość umieszczenia odpowiedzi na zapytania użytkowników bezpośrednio na stronach SERP (reach snippets fragmenty rozszerzone, oznaczanie treści z wyk. mikroformatów, mikrodanych lub standardu RDF) > lepsze zrozumienie intencji/znaczenia ukrytych w zapytaniach (semantic search) > Freebase, Wikipedia, CIA World Factbook, inne, częste zapytania > start w Polsce maj 2013

Fragmenty rozszerzone Obecnie fragmenty rozszerzone wyświetlają się w przypadku przepisów kulinarnych, opinii, produktów, zdarzeń i osób. Znaczniki filmów są rozpoznawane i używane do poprawnego pobierania oraz indeksowania materiałów wideo. Znaczniki organizacji nie są używane we fragmentach rozszerzonych Google wykorzystuje je w innych elementach w wyszukiwarce https://support.google.com/webmasters/answer/1093493

Fragmenty rozszerzone W maju 2016 pojawił się kolejny element w wynikach wyszukiwania Karty rozszerzone dla lepszego i szybszego przeglądania wyników na urządzeniach mobilnych Aktualnie dostępny dla wyników w języku angielskim dla dwóch kategorii wyników przepisy i video Rich Cards, podobnie jak Rich Snippets, to dodatkowe elementy w wynikach wyszukiwarki, które prezentują najmniejsze informacje, bazując na danych strukturalnych (schema.org)

Google s RankBrain wprowadzany od 2015 r. > Dokonuje interpretacji zapytania użytkownika > Przewiduje intencje użytkownika > Dokonuje selekcji adekwatnych wyników The number of new queries has reduced from 25% in 2007 ( ) 15% of all queries that Google processes are new, so it s common for RankBrain to encounter a query or phrase it hasn t seen before. RankBrain looks to make an intelligent guess based on similar queries, and similar meanings https://searchenginewatch.com/2017/07/10/heres-how-rankbrain-does-and-doesnt-impact-seo/

8 major Google ranking signals in 2017 https://searchengineland.com/8-major-google-ranking-signals-2017-278450

8 major Google ranking signals in 2017 Backlinks (link score, anchor text relevance - but not too much of it) https://searchengineland.com/8-major-google-ranking-signals-2017-278450

8 major Google ranking signals in 2017 Backlinks (link score, anchor text relevance - but not too much of it) Content (Keyword usage, length, comprehensiveness) https://searchengineland.com/8-major-google-ranking-signals-2017-278450

8 major Google ranking signals in 2017 Backlinks (link score, anchor text relevance - but not too much of it) Content (Keyword usage, length, comprehensiveness) Technical SEO (page speed, mobile-friendliness) https://searchengineland.com/8-major-google-ranking-signals-2017-278450

8 major Google ranking signals in 2017 Backlinks (link score, anchor text relevance - but not too much of it) Content (Keyword usage, length, comprehensiveness) Technical SEO (page speed, mobile-friendliness) User experience (SERP CTR) https://searchengineland.com/8-major-google-ranking-signals-2017-278450