AUTORYTATYWNE I EKSPERCKIE STRONY ŹRÓDŁEM RZETELNYCH WYNIKÓW W WYSZUKIWARKACH INTERNETOWYCH
|
|
- Witold Fabian Urbaniak
- 9 lat temu
- Przeglądów:
Transkrypt
1 Cześć II. Zarządzanie wspomagane informatyką 193 ARTUR STRZELECKI * AUTORYTATYWNE I EKSPERCKIE STRONY ŹRÓDŁEM RZETELNYCH WYNIKÓW W WYSZUKIWARKACH INTERNETOWYCH Eksploracja sieci WWW (Web mining) to odkrywanie nowej, interesującej, potencjalnie użytecznej i dotychczas nieznanej wiedzy ukrytej w strukturze, zawartości i sposobie korzystania z sieci WWW. Sieć www zawiera, poza użyteczną wiedzą, ogromną ilość szumu informacyjnego i śmieci. Pozyskanie użytecznej i wartościowej wiedzy z gigantycznego repozytorium, jakim jest sieć WWW, jest zadaniem trudnym. Metody eksploracji połączeń (Web linkage mining) analizują strukturę połączeń i odnośników między dokumentami www w celu opracowania rankingu dokumentów. Metody te znajdują zastosowanie przede wszystkim w wyszukiwarkach internetowych., choć nie tylko, można bowiem dzięki nim również definiować przestrzeń wokół organizacji [5]. W artykule omówiono oraz pokazano zastosowanie dwóch znanych algorytmów usprawniających pracę wyszukiwarek: HITS oraz Hilltop. HITS HITS (Hyper Induced Topic Search) [4] skupia się na analizie struktury odnośników ze zbioru stron relewantnych w szeroko rozumianym temacie poszukiwań (broad search topic) i odkryciu najbardziej autorytatywnych stron w tym temacie. Autor Jon Kleinberg jest jednym z pierwszych badaczy, którzy zainteresowali się badaniem struktury dużych sieci i ma spory wkład w ich rozwój. Pierwszy raz algorytmowi przypisano nazwę HITS w drugiej, zespołowej pracy w laboratorium IBM [3]. Na poszukiwanie tematu ma wpływ rodzaj zadanego zapytania. Istnieje więcej niż jeden podstawowy typ zapytania. Uwzględnia się następujące typy zapytań (query). Zapytania szczegółowe, z wyraźnie określonym celem, np. Czy Mozilla obsługuje najnowszą wtyczkę Adobe Player? * Wydział Zarządzania, Akademia Ekonomiczna w Katowicach, ul. Bogucicka 3, Katowice.
2 194 Informatyka dla przyszłości Zapytanie o szerokiej tematyce, np. Znajdź informacje o języku programowania Java. Zapytanie o podobne strony, np. Znajdź strony podobne do java.sun.com. Koncentrując się tylko na dwóch pierwszych typach zapytań, widać różnego rodzaju przeszkody. Trudność w zapytaniu szczegółowym w przybliżeniu koncentruje się wokół problemu niedostatku. Jest bardzo mało stron, które zawierają wymagane informacje i często jest trudno określić tożsamość tych stron. Dla zapytania z szerokiej tematyki należy się spodziewać znalezienia tysięcy albo setek tysięcy relewantnych stron w sieci. Część wyniku może być generowana przez różne warianty dla zapytań składających z więcej niż jednego wyrazu lub przez bardzo popularne słowa. W tym przypadku główną przeszkodą do poszukiwań jest obfitość, nadmiar wyników. Liczba stron, która w uzasadniony sposób została zwrócona jako relewantne jest za duża dla użytkownika do przeszukiwania. Żeby wprowadzić efektywne metody szukania w tych warunkach, należy odfiltrować spośród ogromnej listy relewantnych stron mały zbiór najbardziej autorytatywnych stron. W tych warunkach pojawiają się komplikacje, o których należy wspomnieć. Po pierwsze, uważa się, że strona domowa Szkoły Głównej Handlowej naturalnie będzie najlepszym autorytetem dla zapytania sgh. Niestety w sieci jest ponad 47 milionów stron zawierających zwrot sgh, a nie jest tą która używa tego zwrotu najczęściej. Nie ma czystej, endogenicznej (wewnętrznej) miary strony, która pozwoliłaby właściwie ocenić autorytet strony. Po drugie, zauważa się problem znalezienia stron, które nie używają w swojej treści słów kluczowych odpowiednich do zapytania. Np. dla zapytania wyszukiwarki spodziewamy się znaleźć naturalne autorytety (Google, Yahoo, Ask). Ten problem powtarza się w wielu miejscach. Inny przykład to znalezienie określenia producent samochodów na stronach Hondy lub Toyoty. Analiza struktury odnośników pomiędzy stronami w sieci WWW daje podstawę do rozwiązania wcześniej wskazanych przeszkód. Odnośniki przenoszą znaczną ilość ukrytego człowieczego zdania, a ten typ opinii jest dokładnie tym, co potrzeba do sformułowania pojęcia autorytetu. Utworzenie odnośnika w sieci WWW reprezentuje konkretne wskazanie na następujący typ opinii. Autor strony p poprzez umieszczenie odnośnika do strony q, w pewnej mierze dodaje autorytetu do strony q. Odnośniki dają możliwość znalezienia potencjalnych autorytetów poprzez strony, które do nich odsyłają. Pozwala to rozwiązać problem, w którym wiele ważnych stron nie opisuje siebie samych dostatecznie. Na przykład duże korporacje projektują swoje witryny internetowe bardzo ostrożnie, aby przekazać pewną atmosferę, przenieść swój wizerunek. Cel takiego projektu może być zupełnie różny od samego opisu przedsiębiorstwa. Ludzie poza przedsiębiorstwem często tworzą bardziej rozpoznawalne i czasami lepsze opinie niż przedsiębiorstwo same o sobie [2]. Kleinberg opracował oparty na odnośnikach model nadawania autorytetu i pokazał jak prowadzi to do metody, która konsekwentnie identyfikuje zarazem relewantne i autorytatywne strony dla zapytania o szerokiej tematyce. Model bazuje na związku, który istnieje pomiędzy autorytetem w danym temacie a tymi stronami, które odsyłają do wielu powiązanych tematycznie autorytetów. Ten drugi typ stron został nazwany koncentratorami (hub). Zaobserwowano, że pomiędzy autoryteta-
3 Cześć II. Zarządzanie wspomagane informatyką 195 mi i koncentratorami istnieje pewna naturalna równowaga w grafie zdefiniowanym przez strukturę odnośników. Wykorzystano to do rozwinięcia algorytmu, który identyfikuje jednocześnie oba typy stron. Algorytm operuje na skupionym podgrafie, który został skonstruowany z listy wyników wyszukiwania tekstowej wyszukiwarki. Technika konstruowania podgrafu jest zaprojektowana do uzyskania małego zbioru stron, który najprawdopodobniej zawiera najbardziej autorytatywne strony dla danego tematu. Koncentratory są reprezentowane przez różne formy stron, od profesjonalnie przygotowanych list zasobów przez komercyjne strony do stron z odnośnikami na indywidualnych stronach domowych. Koncentratory same nie muszą być znaczącymi stronami lub mieć odnośniki wskazujące do nich. Ich rozpoznawalną cechą jest, że silnie oddziałują na przyznawany autorytet w wybranym temacie. Nazwano dowolny zbiór V stron połączonych odnośnikami jako ukierunkowany graf G = (V, E), węzły odpowiadają stronom a krawędź pomiędzy (p, q) Œ E wskazuje na obecność odnośnika ze strony p do q. Stopień wyjścia (out-degree) z węzła p to węzły, do których odsyła, natomiast stopień wejścia (in-degree) węzła p to liczba węzłów, które mają odnośniki do p. Z grafu G wyizolowano mały rejon, podgraf, w taki sposób, że W Õ V jest podzbiorem stron, w którym wektor G[W] oznacza graf w przestrzeni W taki, że wszystkie węzły są stronami należącymi do W, a jego krawędzie odpowiadają wszystkim odnośnikom na stronach należących do W. Założono, że dane zapytanie o szerokiej tematyce, jest określone przez łańcuch zapytania σ. Do wyznaczenia autorytatywnych stron, należało wpierw określić podgraf, na którym algorytm będzie operował. Autor chciał skupić się na najbardziej relewantnych stronach, na przykład wziąć do wyliczeń wszystkie strony zawierające dane zapytanie σ. Jednak pamiętał przy tym, że posiada to dwie poważne wady. Po pierwsze, zbiór zawierałby miliony stron, co znacząco zwiększyłoby wymagane obliczenia, po drugie niektóre ze stron autorytatywnych mogłyby się nie znaleźć w tym zbiorze. Spróbowano zbudować zbiór S σ stron, który ma następujące właściwości: S σ jest relatywnie mały, S σ jest bogaty w relewantne strony, S σ zawiera wiele najsilniejszych autorytetów. Utrzymanie S σ małym, pozwala na uruchomienie nie trywialnych algorytmów, a pewność, że zawiera relewantne strony ułatwia szybsze znalezienie dobrych auto rytetów. Do znalezienia takiego zbioru stron wykorzystano pierwotne wyniki z wyszukiwarki. Zgromadzono t = 200 pierwszych wyników dla danego zapytania σ z wyszukiwarki AltaVista lub Hotbot. Zbiór t określono jako rdzeń R σ. Zbiór R σ zaspokaja wymagania postawione w punktach (a) i (b), ale jest daleki od spełnienia założenia (c). Zbiór R σ nadal jest podzbiorem stron, które zawierają wyłącznie zapytanie σ, co jak wcześniej zauważono nie zawsze powoduje wyszukanie wszystkich autorytetów. Zaobserwowano także, że bardzo często istnieje nadzwyczajnie mało odnośników pomiędzy stronami ze zbioru R σ, co zasadniczo wpływa na brak struktury w grafie. Na przykład, w eksperymencie zbiór R σ dla zapytania java zawierał tylko 15 odnośników pomiędzy stronami z różnych domen, a zbiór R σ dla zapytania censorship zawierał 28 odnośników pomiędzy stronami
4 196 Informatyka dla przyszłości z różnych domen. Te liczby są typowe dla różnych testowanych zapytań. Należy je porównać z 200*199 = potencjalnymi odnośnikami, które mogłyby istnieć w zbiorze R σ. Rysunek 1. Rozszerzenie rdzenia zbioru do podstawowego zbioru baza rdze Źródło: J.M. Kleinberg, Authoritative Sources in a Hyperlinked Environment, Proceedings 9th ACM- SIAM Symposium on Discrete Algorithms, ACM Press, New York Zbiór R σ trzeba rozszerzyć do zbioru S σ. Najlepszy autorytet dla danego tematu, może nie znajdować się w pierwszym zbiorze, ale jest bardzo prawdopodobne, że co najmniej jedna ze stron należących do R σ, posiada odnośnik do tego autorytetu. Dlatego rdzeń grafu rozszerzono o odnośniki wychodzące i wchodzące do niego (rys. 1). Rozszerzenie zbioru polegało na umieszczeniu w nim dodatkowo wszystkich stron, do których wychodziły odnośniki ze stron znajdujących się w zbiorze R σ, oraz dodanie stron, które same posiadają odnośniki do stron znajdujących się w zbiorze R σ z limitem, że tych drugich nie może być więcej niż d = 50. Zbiór S σ nazwano zbiorem podstawowym (base), którego rozmiar przy pierwotnych założeniach t = 200 i d = 50, zawierał się w przedziale stron. Należy jeszcze wspomnieć o odnośnikach, które służą wyłącznie celom nawigacyjnym. Rozróżniono dwa rodzaje odnośników. Pierwszy to odnośniki poprzeczne (atransverse) pomiędzy stronami z różnych domen, drugi to odnośniki wewnętrzne (intrinsic) znajdujące się pomiędzy stronami z tej samej domeny. Ta sama domena oznacza nazwę domeny pierwszego poziomu w adresie URL do strony. Ponieważ odnośniki wewnętrzne bardzo często istnieją wyłącznie do nawigacji, przenoszą znacznie mniej informacji niż odnośniki poprzeczne, o autorytecie strony, na którą wskazują, dlatego zostały z całego modelu usunięte. Jest to bardzo prosta heurystyka, ale efektywnie usuwa wszelkie patologie spowodowane traktowaniem odnośników nawigacyjnych w ten sam sposób jak pozostałe. Wyznaczenie koncentratorów i autorytetów Omówiona metoda wyznacza mały podgraf G σ, który jest relatywnie skoncentrowany na temacie zapytania, posiada wiele relewantnych stron i silnych autorytetów. Najłatwiejszym podejściem do problemu ekstrakcji tych autorytetów z całego zbioru
5 Cześć II. Zarządzanie wspomagane informatyką 197 stron wyłącznie poprzez analizę struktury odnośników byłoby uporządkowanie stron zgodnie z ich siłą wejścia, czyli ilością odnośników odsyłających do danej strony. Ten pomysł nie sprawdził się w przypadku zbioru zawierających wszystkie strony dotyczące danego zapytania, ponieważ zdarzało się wyznaczyć na autorytet stronę zupełnie niezwiązaną z tematem. Natomiast w wyraźnie skonstruowanym małym zbiorze zawierającym większość autorytetów ta metoda się sprawdzi, dlatego że każdy autorytet należący do G σ jest silnie powiązany odnośnikami z pozostałymi stronami w G σ. Takie podejście czystego zliczenia odnośników zazwyczaj działa dużo lepiej w kontekście G σ, aniżeli we wcześniejszych ustawieniach. Jednak nadal pojawiały się problemy z właściwymi wynikami, np. dla zapytania java strony z największą liczbą odnośników to oraz java.sun.com, razem ze stroną reklamującą wakacje na Karaibach oraz księgarnią Amazon. Ta mieszanina w wyniku powstała na bazie prostego zliczania odnośników, jako że pierwsze dwie strony to dobre odpowiedzi, nie można tego powiedzieć o pozostałych dwóch wynikach, które mają dużo odnośników, ale są słabo związane z tematem. W trakcie obserwacji zauważono, że autorytatywne strony relewantne do początkowego zapytania powinny mieć nie tylko wysoką liczbę odnośników, ale będąc autorytetami we wspólnym temacie, powinno istnieć znaczne pokrycie w zbiorze stron, które do nich odsyłają. Dlatego oprócz wyszukania wysoce autorytatywnych stron, spodziewano się znaleźć koncentratory (hub pages), czyli strony, które mają odnośniki do wielu autorytatywnych stron. To właśnie koncentratory trzymają razem autorytety we wspólnym temacie i pozwalają pozbyć się niepowiązanych stron z dużą liczbą odnośników (rys. 2). Rysunek 2. Ścisłe powiązanie autorytetów z koncentratorami niepowi zana strona z wieloma odno nikami Źródło: jak rys. 1. koncentratory autorytety Koncentratory i autorytety wykazują wzajemny, obopólnie wzmacniający związek (mutually reinforcing relationship). Dobry koncentrator to strona, która wskazuje do wielu dobrych autorytetów. Dobry autorytet to strona, która jest wskazywana przez wiele dobrych koncentratorów. Autor zauważył, że rezultaty uzyskane poprzez czystą analizę struktury odsyłaczy dają o wiele lepsze rezultaty, niż wyszukiwarki oparte o przeszukiwanie tekstu. W tym przypadku zastąpiono globalną analizę całej struktury odsyłaczy w WWW bardziej lokalną metodą analizy małego skupionego podgrafu.
6 198 Informatyka dla przyszłości Algorytm skutecznie sprawdza się w szerokim zakresie tematów, gdzie najsilniejsze autorytety świadomie nie zawierają do siebie wzajemnych odnośników. Mogą one być połączone pośrednio przez warstwę relatywnie anonimowych koncentratorów, które są skorelowane i odsyłają do tematycznie powiązanych grup autorytetów. Ten dwupoziomowy wzór powiązań odsłania strukturę pośród obu zbiorów, koncentratorów, które mogą wzajemnie o sobie nie wiedzieć i autorytetów, które mogą nie chcieć pogodzić się z istnieniem innych autorytetów. Dla wielu popularnych tematów w www ilość relewantnych informacji rośnie w zaskakującym tempie, co czyni coraz trudniejszym dla indywidualnych użytkowników przeglądanie i filtrowanie dostępnych zasobów. Celem powyższej metody jest odkrywanie autorytatywnych stron, ale pokazała także bardziej skomplikowany model społecznej organizacji danych w www, gdzie koncentratory zawierają wiele odnośników do zbioru tematycznie powiązanych autorytetów. Równowaga pomiędzy koncentratorami i autorytetami jest fenomenem, który powtarza się w kontekście szerokiej różnorodności tematów w www. Powyższej metody nie można całkowicie oddzielić od analizy zawartego na stronie tekstu. Wyszukiwanie oparte wyłącznie o odnośniki może w kilku przypadkach mijać się z prawdą [2]. W ściśle skoncentrowanych tematach, np. narciarstwo w Beskidach, HITS najczęściej zwraca dobre źródła dla bardziej ogólnych tematów, jak turystyka w Beskidach. Ponieważ każdy odnośnik w koncentratorze rozprowadza tę samą wagę, HITS czasami odchyla wyniki, gdy koncentrator omawia wiele różnych tematów. Na przykład, strona domowa chemika, może zawierać dobre odnośniki do przemysłu chemicznego oraz do źródeł związanych z jego prywatnymi zainteresowania lub informacje o mieście, w którym żyje. W tym przypadku, HITS nada część autorytetu o chemii stronom, które nie mają z nim nic wspólnego. Żeby zapobiec tym niedogodnością rozszerzono algorytm o analizę treści odnośnika oraz zaczęto dzielić duże koncentratory na mniejsze jednostki, jeśli nie był on wyłącznie skoncentrowany na jednym temacie. Treść odnośnika, który byłby brany pod uwagę przy obliczeniach, powinna zawierać słowo związane z tematem. Hilltop Algorytm Hilltop wyszukuje w sieci Internet autorytatywne strony. Jego autorami są K. Bharat i G. Mihaila [1]. Ich praca została napisana i opublikowana w 1999 roku. Na potrzeby nowego algorytmu stworzono prototypową wyszukiwarkę z działającym algorytmem. Autorzy w trakcie prac i badań wielokrotnie odnosili się i porównywali swoją metodę do dwóch wcześniej powstałych algorytmów, PageRank i HITS. Jednak jako pierwsi zwrócili uwagę na termin spam pages, czyli strony, które są wyłącznie tworzone po to żeby wprowadzić w błąd wyszukiwarki. Algorytm Hilltop bazuje na tych samych założeniach, co inne algorytmy badające strukturę odnośników w WWW. Liczba i jakość źródeł odsyłających do strony jest dobrą miarą wartości samej strony. Kluczowa różnica polega na braniu pod uwagę wyłącznie źródeł eksperckich. Strona jest autorytetem w temacie zapytania, jeśli i tylko jeśli, najlepsze ze stron eksperckich posiadają do niej odnośniki. Oczywiście w praktyce strony eksperckie
7 Cześć II. Zarządzanie wspomagane informatyką 199 mogą być ekspertami w szerszym lub zbliżonym temacie poszukiwań. Jeśli tak, to tylko podzbiór odnośników na stronie eksperckiej może być relewantny. W takich wypadkach, odnośniki brane pod uwagę są starannie porównywane i sprawdzane pod względem zgodności treści odnośnika z treścią zapytania. Porównując relewantne odnośniki od wielu ekspertów w jednym temacie, autorzy znajdują strony, które są najwyżej cenione w społeczności stron o tej tematyce. To podstawa wysokiej jakości i trafności w algorytmie Hilltop. Strony autorytatywne muszą mieć, co najmniej dwa odnośniki z niestowarzyszonych stron eksperckich, żeby mogły znaleźć się w ogóle w rankingu. Ranking jest obliczany na podstawie ilości i jakości stron eksperckich. Strony eksperckie Strona ekspercka jest stworzona w konkretnym, określonym celu poprowadzenia użytkownika w kierunku dobrego źródła. Strona ekspercka jest skupiona na określonym temacie i posiada odnośniki do wielu niestowarzyszonych stron o tym samym temacie. Dwie strony są niestowarzyszone, jeśli ich autorami są sobie obce, niestowarzyszone organizacje. W eksperymencie tylko podzbiór stron z bazy wyszukiwarki AltaVista został uznany za ekspercki. Wybrano 2,5 miliona stron ze 140 milionów stron jako ekspertów. Popularne tematy są dobrze reprezentowane w sieci WWW, tworzy się dla nich wiele ręcznie edytowanych list zasobów. Indywidualnym osobom lub organizacjom zależy żeby tworzyć listy zasobów w określonym temacie. Podnosi to ich popularność i wpływ wewnątrz społeczności zainteresowanej danym tematem. Autorzy list mają motywację do utrzymywania ich obszernych, wyczerpujących i aktualnych. Odnośniki z tych list są rekomendacjami, a strony które je zawierają są ekspertami. Żeby odróżnić obiektywnie strony eksperckie od innych, muszą one być wyraźnie bezstronne i niestowarzyszone. Strony stowarzyszone Strona jest stowarzyszona, kiedy jedno lub oba założenia są prawdziwe. Dzielą te same pierwsze trzy oktety adresu IP. Nazwa domeny drugiego poziomu, pomijając poziom najwyższy jest taka sama. Domena najwyższego poziomu, potocznie nazywana końcówką, jest uzależniona od rodzaju działalności prowadzonej przez organizację. Na przykład.com.pl i.pl, są domenami występującymi w wielu adresach i dlatego są traktowane jako rodzajowe, gatunkowe. Jeśli po usunięciu domeny najwyższego poziomu, rodzajowej, pozostała nazwa domeny drugiego poziomu jest taka sama, to strony są traktowane jako stowarzyszone. W porównaniu dwóch adresów np. com.pl oraz należy odrzucić końcówki rodzajowe.com.pl i.pl. Tak pozostała domena drugiego poziomu mbank, która w obu przypadkach jest identyczna. Obie strony są uznane za stowarzyszone.
8 200 Informatyka dla przyszłości Wybór ekspertów Strona ma charakter ekspercki, jeśli posiada, co najmniej 5 odnośników wychodzących do odrębnych, niestowarzyszonych stron. Każda, która spełnia powyższy warunek jest ekspertem. Ekspert jest dopasowywany do zapytania użytkownika na podstawie stworzonej mapy z fraz kluczowych. Fraza kluczowa obejmuje fragment strony, który zalicza jeden lub więcej odnośników do mapy. Każda fraza kluczowa obejmuje różny zakres wewnątrz strony, a odnośniki znajdujące się w zakresie objętym przez frazę kluczową są zaliczane do mapy. Na przykład, znacznik <TITLE>, nagłówki (tekst pomiędzy parą znaczników <Hx></Hx>) oraz treść odnośnika, znacznik <A></A>, na stronie eksperckiej są traktowane jako frazy kluczowe. Znacznik <TITLE> obejmuje swoim zakresem wszystkie odnośniki ze strony. Fraza oparta o nagłówek zalicza odnośniki występujące po nim aż do następnego nagłówka o tym samym lub wyższym poziomie. Treść odnośnika obejmuje swoim zakresem tylko ten odnośnik. Do listy stron eksperckich zostaje zakwalifikowanych pierwsze 200 stron zwracanych przez wyszukiwarkę. Następnie algorytm sortuje je pod względem relewantności znajdujących się na nich odnośników i wyznacza wynik eksperta. Strona zostanie uznana za ekspercką, jeśli zawiera, chociaż jeden odnośnik, który w treści ma wszystkie słowa kluczowe składające się na zapytanie. Dodatkowo są punktowane elementy w dokumencie, które zawierają słowa kluczowe. Tytuł strony zawierający słowa kluczowe jest 16 razy, a nagłówek 6 razy ważniejszy niż każdy następny odnośnik. Po wyznaczeniu uszeregowanej listy ekspertów, algorytm przystępuje do wyznaczenia autorytetów. Autorytet musi być, co najmniej wskazywany przez dwóch ekspertów, niestowarzyszonych ze sobą ani z autorytetem. Wszystkie autorytety otrzymują ocenę na podstawie ilości i relewantności powołujących się na nich ekspertów. Autorzy przeprowadzili testy, które potwierdziły wysoką skuteczność ich pomysłu. Zaprezentowane wyniki w oryginalnej pracy pokazują wysoką skuteczność, przewyższającą wyniki pochodzące z innych wyszukiwarek, oprócz Google. Prawie każde zapytanie zwracało wynik trochę gorszy bądź nieznacznie lepszy od Google. Optymalizacja pod Hilltop Wiele stron eksperckich takich jak listy zasobów lub katalogi niszowe są aktualizowane okresowo o nowe odnośniki. Natomiast inne to statyczne strony, które nigdy nie zostaną odnowione. Wtedy liczy się czynnik ludzki. Z czasem witryna będzie rozpoznawana jako wartościowa, autorzy innych stron zaufają jej na tyle, aby do niej odsyłać. Jednak faktem jest, że nowej witrynie jest bardzo trudno stać się autorytetem w oczach wyszukiwarki. Nasuwa to pytanie, jak nowa witryna może szybciej pojawić się w swoim sąsiedztwie? Należy zbadać, jakie powiązania mają eksperci i autorytety. Znalezienie stron eksperckich i autorytetów nie stanowi problemu, ponieważ są to witryny najwyżej rankingowane dla danego zapytania. Za pomocą narzędzi identyfikujących odnośniki można odszukać te strony z odnośnikami. Ze
9 Cześć II. Zarządzanie wspomagane informatyką 201 znalezionych witryn należy pozyskać odnośniki. Warto także spróbować zbudować własną stronę ekspercką, na przykład poprzez stworzenie katalogu branżowego. Oczywiście należy dodać własną stronę do innych katalogów tematycznych. Zakończenie Podstawowym zadaniem algorytmów wykorzystywanych w wyszukiwarkach jest ranking stron, czyli ocena względnej ważności, dokumentów WWW. Problem rankingu jest znany od wielu lat i występuje w wielu dziedzinach zastosowań. Skutecznie działające algorytmy będą coraz szerzej wykorzystywane w wyszukiwarkach z uwagi na wzrastającą częstotliwość korzystania z nich przez użytkowników. Literatura 1. Bharat K., Mihaila G.A., Hilltop: A search Engine based on Expert Documents, Poster of the 9th International World Wide Web Conference, Amsterdam Chakrabarti S., Dom B.E., Gibson, D., Kleinberg J., Kumar R., Raghavan P. et all, Mining the Link Structure of the World Wide Web, IEEE Computer, Gibson D., Kleinberg J. M., Raghavan P., Inferring Web communities from link topology, Proceedinsg 9th ACM Conference on Hypertext and Hypermedia, Kleinberg, J.M., Authoritative Sources in a Hyperlinked Environment, Proceedings 9th ACM-SIAM Symposium on Discrete Algorithms, ACM Press, New York Pawełoszek-Korek I., Grupy niejawne w wirtualnym otoczeniu organizacji, materiały konferencyjne Technologie Wiedzy w Zarządzaniu Publicznym, Akademia Ekonomiczna, Katowice 2007.
PageRank i HITS. Mikołajczyk Grzegorz
PageRank i HITS Mikołajczyk Grzegorz PageRank Metoda nadawania indeksowanym stronom internetowym określonej wartości liczbowej, oznaczającej jej jakość. Algorytm PageRank jest wykorzystywany przez popularną
Wyszukiwanie boolowskie i strukturalne. Adam Srebniak
Wyszukiwanie boolowskie i strukturalne Adam Srebniak Wyszukiwanie boolowskie W wyszukiwaniu boolowskim zapytanie traktowane jest jako zdanie logiczne. Zwracane są dokumenty, dla których to zdanie jest
Lingwistyczny system definicyjny wykorzystujący korpusy tekstów oraz zasoby internetowe.
Lingwistyczny system definicyjny wykorzystujący korpusy tekstów oraz zasoby internetowe. Autor: Mariusz Sasko Promotor: dr Adrian Horzyk Plan prezentacji 1. Wstęp 2. Cele pracy 3. Rozwiązanie 3.1. Robot
Internet, jako ocean informacji. Technologia Informacyjna Lekcja 2
Internet, jako ocean informacji Technologia Informacyjna Lekcja 2 Internet INTERNET jest rozległą siecią połączeń, między ogromną liczbą mniejszych sieci komputerowych na całym świecie. Jest wszechstronnym
Pozycjonowanie. Co to takiego?
Pozycjonowanie Co to takiego? WSTĘP SEO to akronim angielskiej nazwy Search Engine Optimization, czyli optymalizacja witryn internetowych pod kątem wyszukiwarek. Pozycjonowanie w uproszczeniu skupia się
2 Podstawy tworzenia stron internetowych
2 Podstawy tworzenia stron internetowych 2.1. HTML5 i struktura dokumentu Podstawą działania wszystkich stron internetowych jest język HTML (Hypertext Markup Language) hipertekstowy język znaczników. Dokument
Sieci komputerowe. Wykład 8: Wyszukiwarki internetowe. Marcin Bieńkowski. Instytut Informatyki Uniwersytet Wrocławski
Sieci komputerowe Wykład 8: Wyszukiwarki internetowe Marcin Bieńkowski Instytut Informatyki Uniwersytet Wrocławski Sieci komputerowe (II UWr) Wykład 8 1 / 37 czyli jak znaleźć igłę w sieci Sieci komputerowe
#1 Wartościowa treść. #2 Słowa kluczowe. #3 Adresy URL
#1 Wartościowa treść Treść artykułu powinna być unikatowa (algorytm wyszukiwarki nisko ocenia skopiowaną zawartość, a na strony zawierające powtórzoną treść może zostać nałożony filtr, co skutkuje spadkiem
Google Trends - Poradnik z analizą frazy SEO
Google Trends - Poradnik z analizą frazy SEO Co to jest Google Trends? Google Trends użyteczne narzędzie bazujące na zapytaniach, słowach kluczowych wpisywanych do wyszukiwarki Google i wyszukiwarki YouTube.
Tomasz Boiński: 1. Pozycjonowanie stron i zastosowanie mod_rewrite
Tomasz Boiński: 1 Pozycjonowanie stron i zastosowanie mod_rewrite Pozycjonowanie stron Promocja strony odbywa się poprzez umiejscowienie jej jak najwyżej w wynikach wyszukiwania Wyszukiwarki indeksują
Wyszukiwarki stosują różne metody oceny stron i algorytmy oceniające za indeksowane strony różnią się w poszczególnych wyszukiwarkach, ale można
Wyszukiwarki stosują różne metody oceny stron i algorytmy oceniające za indeksowane strony różnią się w poszczególnych wyszukiwarkach, ale można jednak wyróżnić 3 główne elementy, które brane są pod uwagę:
INTERNET - NOWOCZESNY MARKETING
STRONA INTERNETOWA TO JUŻ ZBYT MAŁO! INTERNET ROZWIJA SIĘ Z KAŻDYM DNIEM MÓWIMY JUŻ O: SEM Search Engine Marketing, czyli wszystko co wiąże się z marketingiem internetowym w wyszukiwarkach. SEM jest słowem
POZYCJONOWANIE CHORZÓW >>>WIĘCEJ<<<
POZYCJONOWANIE CHORZÓW. Wszystko O Pozycjonowaniu I Marketingu. >>>POZYCJONOWANIE STRON W WYSZUKIWARCE POZYCJONOWANIE CHORZÓW >>>WIĘCEJ
Załącznik nr 1. Specyfikacja. Do tworzenia Mapy Kompetencji
Załącznik nr 1 Specyfikacja Do tworzenia Mapy Kompetencji 1. Cel projektu Celem projektu jest utworzenie Mapy kompetencji. Ma ona zawierać informacje o kompetencjach, celach kształcenia, umożliwiać ich
POZYCJONOWANIE I OPTYMALIZACJA STRON WWW PDF >>>WIĘCEJ<<<
POZYCJONOWANIE I OPTYMALIZACJA STRON WWW PDF. Wszystko O Pozycjonowaniu I Marketingu. >>>SEO STRONA Z SEO PORADAMI POZYCJONOWANIE I OPTYMALIZACJA STRON WWW PDF >>>WIĘCEJ
Badanie struktury sieci WWW
Eksploracja zasobów internetowych Wykład 1 Badanie struktury sieci WWW mgr inż. Maciej Kopczyński Białystok 214 Rys historyczny Idea sieci Web stworzona została w 1989 przez Tima BernersaLee z CERN jako
Jak pisać publikacje naukowe? Nie o naukowej, a technicznej stronie pisania artykułu
XXVIII Letnia Szkoła Naukowa Metodologii Nauk Empirycznych Zakopane, 12-14.05.2014 Jak pisać publikacje naukowe? Nie o naukowej, a technicznej stronie pisania artykułu Maciej Zaborowicz Instytut Inżynierii
Szukaj miejsc i wydarzeń pozytywnie nakręconych!
Szukaj miejsc i wydarzeń pozytywnie nakręconych! Oferta dla partnerów biznesowych Historia Jesteśmy rodzicami i często szukamy sposobu na zorganizowanie czasu naszym dzieciom. Zauważyliśmy, że znalezienie
POZYCJONOWANIE STRONY SKLEPU
. Wszystko O Pozycjonowaniu I Marketingu. >>>POZYCJONOWANIE STRON LEGNICA POZYCJONOWANIE STRONY SKLEPU >>>WIĘCEJ
Co to jest pozycjonowanie stron internetowych? Dlaczego warto pozycjonować strony internetowe?
Co to jest pozycjonowanie stron internetowych? Pozycjonowanie to wszelkie działania mające na celu podniesienie pozycji strony internetowej, na określone słowa kluczowe, w wyszukiwarce Google. Dlaczego
Poradnik SEO. Ilu z nich szuka Twojego produktu? Jak skutecznie to wykorzystać?
Poradnik SEO Poradnik SEO Internet to najszybciej rozwijające się medium. W Polsce jest już 15 mln użytkowników, ponad 90% z nich używa wyszukiwarki Google. Dziennie użytkownicy zadają ponad 130 milionów
Jak podnieść pozycje w Google?
Jak podnieść pozycje w Google? STRONNET 2015 Zawartość Jak podnieść pozycje w Google?... 1 1. Tytuł strony... 3 2. Adres strony... 3 3. Opis strony... 4 4. Znaczniki h1 h2... 4 5. Słowa kluczowe w treści
ALGORYTMICZNA I STATYSTYCZNA ANALIZA DANYCH
1 ALGORYTMICZNA I STATYSTYCZNA ANALIZA DANYCH WFAiS UJ, Informatyka Stosowana II stopień studiów 2 Dane w postaci grafów Przykład: social network 3 Przykład: media network 4 Przykład: information network
Dobra pozycja w Google? Dlaczego warto nam zaufać?
Pozycja w Google to główny czynnik wpływający na popularność Twojej strony internetowej WWW. Dzięki wysokim pozycjom w wyszukiwarkach strona zyskuje coraz więcej unikalnych odwiedzin, a co za tym idzie,
WPROWADZENIE WYSZUKIWANIE OGŁOSZEŃ
WPROWADZENIE 1. Cel dokumentu Celem dokumentu jest: Zapoznanie internauty z funkcjonalnością realizowaną przez Bazę Konkurencyjności. Dostarczenie szczegółowych informacji na temat podstron, które znajdują
Tajemnice skutecznego wyszukiwania na przykładzie
Tajemnice skutecznego wyszukiwania na przykładzie Przeglądarka program otwierający wrota Internetu Wyszukiwarka a przeglądarka Wyszukiwarka program pozwalający wyszukiwać linki do stron WWW Kilka podstawowych
Budowa profesjonalnego mediaplanu
2012 Budowa profesjonalnego mediaplanu Wojciech Szymański Kampania marketingowa e-usługi Rzeszów, 24 października 2012 Kompetencje prowadzącego Wojciech Szymański - kierownik Działu Promocji w Wyszukiwarkach
Wszystko o sitelinkach w Google AdWords No prawie wszystko ;)
Wszystko o sitelinkach w Google AdWords No prawie wszystko ;) Rozszerzeń reklam Google AdWords jest coraz więcej rodzajów i są one coraz bardziej powszechnie używane. Szczególnie popularne są tzw. Sitelinki
Analiza składowych głównych. Wprowadzenie
Wprowadzenie jest techniką redukcji wymiaru. Składowe główne zostały po raz pierwszy zaproponowane przez Pearsona(1901), a następnie rozwinięte przez Hotellinga (1933). jest zaliczana do systemów uczących
WPROWADZENIE DO BAZ DANYCH
WPROWADZENIE DO BAZ DANYCH Pojęcie danych i baz danych Dane to wszystkie informacje jakie przechowujemy, aby w każdej chwili mieć do nich dostęp. Baza danych (data base) to uporządkowany zbiór danych z
166 Wstęp do statystyki matematycznej
166 Wstęp do statystyki matematycznej Etap trzeci realizacji procesu analizy danych statystycznych w zasadzie powinien rozwiązać nasz zasadniczy problem związany z identyfikacją cechy populacji generalnej
WSKAZÓWKI DLA AUTORÓW Optymalizacja publikacji naukowych dla wyników wyszukiwarek ASEO 1
WSKAZÓWKI DLA AUTORÓW Optymalizacja publikacji naukowych dla wyników wyszukiwarek ASEO 1 W celu zwiększenia indeksowania i przeszukiwania publikacji autorskich przez naukowe wyszukiwarki internetowe, należy
Wyszukiwanie informacji
Wyszukiwanie informacji Informatyka Temat 1 Krotoszyn, wrzesień 2015 r. 1 Informatyka 1 Przeszukiwanie zasobów internetowych Krotoszyn, 2015 r. Spis treści prezentacji 1. Wprowadzenie 2. Gdzie szukać informacji?
OpenOfficePL. Zestaw szablonów magazynowych. Instrukcja obsługi
OpenOfficePL Zestaw szablonów magazynowych Instrukcja obsługi Spis treści : 1. Informacje ogólne 2. Instalacja zestawu a) konfiguracja połączenia z bazą danych b) import danych z poprzedniej wersji faktur
Struktury danych i złożoność obliczeniowa Wykład 7. Prof. dr hab. inż. Jan Magott
Struktury danych i złożoność obliczeniowa Wykład 7 Prof. dr hab. inż. Jan Magott Problemy NP-zupełne Transformacją wielomianową problemu π 2 do problemu π 1 (π 2 π 1 ) jest funkcja f: D π2 D π1 spełniająca
Algorytmy genetyczne
Algorytmy genetyczne Motto: Zamiast pracowicie poszukiwać najlepszego rozwiązania problemu informatycznego lepiej pozwolić, żeby komputer sam sobie to rozwiązanie wyhodował! Algorytmy genetyczne służą
AUTOMATYKA INFORMATYKA
AUTOMATYKA INFORMATYKA Technologie Informacyjne Sieć Semantyczna Przetwarzanie Języka Naturalnego Internet Edytor Serii: Zdzisław Kowalczuk Inteligentne wydobywanie informacji z internetowych serwisów
KRYTERIA OCE Y RELEWA T OŚCI WY IKÓW W WYSZUKIWARKACH I TER ETOWYCH I ICH WYKORZYSTA IE DO PROMOCJI WITRY REGIO AL YCH
Ewa Białek * KRYTERIA OCE Y RELEWA T OŚCI WY IKÓW W WYSZUKIWARKACH I TER ETOWYCH I ICH WYKORZYSTA IE DO PROMOCJI WITRY REGIO AL YCH Streszczenie W pracy przedstawiono kryteria, którymi kieruje się Google
WYSZUKIWANIE INFORMACJI W INTERNECIE I ICH WYKORZYSTANIE. Filip Makowiecki filip.makowiecki@ceo.org.pl
WYSZUKIWANIE INFORMACJI W INTERNECIE I ICH WYKORZYSTANIE Filip Makowiecki filip.makowiecki@ceo.org.pl DO CZEGO WYKORZYSTUJEMY INTERNET? Aktywność Polaków w sieci (Oriaq, 2010) Własny ślad w internecie
Oferta prowadzenia kampanii reklamowej AdWords
Oferta prowadzenia reklamowej AdWords Oferta ważna 14 dni od daty otrzymania e-maila ofertę przygotował: e-mail: www: tel: fax: Bernard Piekara bernard@inetmedia.pl +48 12 681 55 57 Zawartość niniejszego
AiSD zadanie trzecie
AiSD zadanie trzecie Gliwiński Jarosław Marek Kruczyński Konrad Marek Grupa dziekańska I5 5 czerwca 2008 1 Wstęp Celem postawionym przez zadanie trzecie było tzw. sortowanie topologiczne. Jest to typ sortowania
POZYCJONOWANIE STRON INTERNETOWYCH (SEO)
POZYCJONOWANIE STRON INTERNETOWYCH (SEO) Nasza oferta różni się od ofert innych firm pozycjonujących. W Polsce firmy pozycjonujące strony przygotowują zestaw słów kluczowych pod które przygotowują pozycjonowanie.
Materiał pobrany z serwisu: http://www.sprawnymarketing.pl/materialy/ DŁUGI OGO WYSZUKIWA IA I JEGO WPŁYW A OGLĄDAL OŚĆ WITRY Y WWW
Materiał pobrany z serwisu: http://www.sprawnymarketing.pl/materialy/ Ewa Białek * Krzysztof Białek * DŁUGI OGO WYSZUKIWA IA I JEGO WPŁYW A OGLĄDAL OŚĆ WITRY Y WWW Streszczenie W artykule przedstawiono
Hierarchiczna analiza skupień
Hierarchiczna analiza skupień Cel analizy Analiza skupień ma na celu wykrycie w zbiorze obserwacji klastrów, czyli rozłącznych podzbiorów obserwacji, wewnątrz których obserwacje są sobie w jakimś określonym
Wnioskowanie bayesowskie
Wnioskowanie bayesowskie W podejściu klasycznym wnioskowanie statystyczne oparte jest wyłącznie na podstawie pobranej próby losowej. Możemy np. estymować punktowo lub przedziałowo nieznane parametry rozkładów,
Klasyfikacja informacji naukowych w Internecie na przykładzie stron poświęconych kulturze antycznej
Klasyfikacja informacji naukowych w Internecie na przykładzie stron poświęconych kulturze antycznej Katowice, 15 grudnia 2010 2 Informacja w kontekście projektu i marketingu L. Rosenfeld, P. Morville,
Księgarnia PWN: Paweł Kobis - Marketing z Google CZYNNIKI WPŁYWAJĄCE NA POZYCJĘ W WYSZUKIWARKACH
Księgarnia PWN: Paweł Kobis - Marketing z Google CZYNNIKI WPŁYWAJĄCE NA POZYCJĘ W WYSZUKIWARKACH Oto zestawienie tych czynników w tabeli. Ważność każdego z nich przedstawiona jest w skali 0 5. Poniżej
Przykłady grafów. Graf prosty, to graf bez pętli i bez krawędzi wielokrotnych.
Grafy Graf Graf (ang. graph) to zbiór wierzchołków (ang. vertices), które mogą być połączone krawędziami (ang. edges) w taki sposób, że każda krawędź kończy się i zaczyna w którymś z wierzchołków. Graf
Oferta SEO. Analiza i optymalizacja
Optymalizacja dla wyszukiwarek internetowych (ang. search engine optimization, SEO; zwana także pozycjonowaniem) są to procesy zmierzające do osiągnięcia przez dany serwis internetowy jak najwyższej pozycji
MATEMATYKA DYSKRETNA - MATERIAŁY DO WYKŁADU GRAFY
ERIAŁY DO WYKŁADU GRAFY Graf nieskierowany Grafem nieskierowanym nazywamy parę G = (V, E), gdzie V jest pewnym zbiorem skończonym (zwanym zbiorem wierzchołków grafu G), natomiast E jest zbiorem nieuporządkowanych
Zasady tworzenia podstron
Zasady tworzenia podstron Jeśli tworzysz rozbudowaną witrynę internetową z wieloma podstronami, za chwilę dowiesz się, jak dodawać nowe podstrony w kreatorze Click Web, czym kierować się przy projektowaniu
Algorytmy i str ruktury danych. Metody algorytmiczne. Bartman Jacek
Algorytmy i str ruktury danych Metody algorytmiczne Bartman Jacek jbartman@univ.rzeszow.pl Metody algorytmiczne - wprowadzenia Znamy strukturę algorytmów Trudność tkwi natomiast w podaniu metod służących
Gdzie widać rybę? Marcin Braun Autor podręczników szkolnych
FOTON 128, Wiosna 2015 35 Gdzie widać rybę? Marcin Braun Autor podręczników szkolnych Jednym z najbardziej znanych przykładów załamania światła jest fakt, że gdy znad wody patrzymy na przepływającą rybę,
Nowe spojrzenie na prawo
LEX 2 Nowe spojrzenie na prawo Od 25 lat informujemy o prawie i tworzymy narzędzia przekazujące tę wiedzę. Szybko. Intuicyjnie. Nowocześnie. Stawiamy sobie za cel sprostanie wymaganiom naszych Klientów.
S O M SELF-ORGANIZING MAPS. Przemysław Szczepańczyk Łukasz Myszor
S O M SELF-ORGANIZING MAPS Przemysław Szczepańczyk Łukasz Myszor Podstawy teoretyczne Map Samoorganizujących się stworzył prof. Teuvo Kohonen (1982 r.). SOM wywodzi się ze sztucznych sieci neuronowych.
Darmowa publikacja dostarczona przez PatBank.pl - bank banków
Powered by TCPDF (www.tcpdf.org) Ten ebook zawiera darmowy fragment publikacji "Jak zdobyć popularność i zjednać sobie wyszukiwarki?" Darmowa publikacja dostarczona przez PatBank.pl - bank banków Copyright
Zawartość. Wstęp. Moduł Rozbiórki. Wstęp Instalacja Konfiguracja Uruchomienie i praca z raportem... 6
Zawartość Wstęp... 1 Instalacja... 2 Konfiguracja... 2 Uruchomienie i praca z raportem... 6 Wstęp Rozwiązanie przygotowane z myślą o użytkownikach którzy potrzebują narzędzie do podziału, rozkładu, rozbiórki
2
1 2 3 4 5 Dużo pisze się i słyszy o projektach wdrożeń systemów zarządzania wiedzą, które nie przyniosły oczekiwanych rezultatów, bo mało kto korzystał z tych systemów. Technologia nie jest bowiem lekarstwem
OSTASZEWSKI Paweł (55566) PAWLICKI Piotr (55567) Algorytmy i Struktury Danych PIŁA
OSTASZEWSKI Paweł (55566) PAWLICKI Piotr (55567) 16.01.2003 Algorytmy i Struktury Danych PIŁA ALGORYTMY ZACHŁANNE czas [ms] Porównanie Algorytmów Rozwiązyjących problem TSP 100 000 000 000,000 10 000 000
Nie wiesz co się dzieje w Twojej Gminie? Dowiedz się z Internetu
Nie wiesz co się dzieje w Twojej Gminie? Dowiedz się z Internetu Nota Materiał powstał w ramach realizacji projektu e-kompetencje bez barier dofinansowanego z Programu Operacyjnego Polska Cyfrowa działanie
Porównywanie populacji
3 Porównywanie populacji 2 Porównywanie populacji Tendencja centralna Jednostki (w grupie) według pewnej zmiennej porównuje się w ten sposób, że dokonuje się komparacji ich wartości, osiągniętych w tej
Teoria grafów dla małolatów. Andrzej Przemysław Urbański Instytut Informatyki Politechnika Poznańska
Teoria grafów dla małolatów Andrzej Przemysław Urbański Instytut Informatyki Politechnika Poznańska Wstęp Matematyka to wiele różnych dyscyplin Bowiem świat jest bardzo skomplikowany wymaga rozważenia
INDUKOWANE REGUŁY DECYZYJNE ALORYTM APRIORI JAROSŁAW FIBICH
INDUKOWANE REGUŁY DECYZYJNE ALORYTM APRIORI JAROSŁAW FIBICH 1. Czym jest eksploracja danych Eksploracja danych definiowana jest jako zbiór technik odkrywania nietrywialnych zależności i schematów w dużych
EmotiWord, semantyczne powiązanie i podobieństwo, odległość znaczeniowa
, semantyczne powiązanie i podobieństwo, odległość Projekt przejściowy ARR Politechnika Wrocławska Wydział Elektroniki Wrocław, 22 października 2013 Spis treści 1 językowa 2, kryteria 3 Streszczenie artykułu
Ogólnopolskie Repozytorium Prac Dyplomowych
Ogólnopolskie Repozytorium Prac Dyplomowych System Informacji o Szkolnictwie Wyższym POL-on Podręcznik użytkownika Spis treści 1.Logowanie do systemu oraz role w ORPD... 3 1.1.Jak założyć konto w systemie
Pozycjonowanie i optymalizacja stron WWW. Jak się to robi. Wydanie III.
Pozycjonowanie i optymalizacja stron WWW. Jak się to robi. Wydanie III. Autorzy: Bartosz Danowski, Michał Makaruk Poznaj sposób działania mechanizmów wyszukiwania w internecie Naucz się tworzyć strony
Metody Programowania
POLITECHNIKA KRAKOWSKA - WIEiK KATEDRA AUTOMATYKI i TECHNIK INFORMACYJNYCH Metody Programowania www.pk.edu.pl/~zk/mp_hp.html Wykładowca: dr inż. Zbigniew Kokosiński zk@pk.edu.pl Wykład 8: Wyszukiwanie
WYMAGANIA EDUKACYJNE Z ZAJĘĆ KOMPUTEROWYCH DLA KLASY SZÓSTEJ W ZAKRESIE WIADOMOŚCI I UMIEJĘTNOŚCI UCZNIÓW
EDUKACYJNE Z ZAJĘĆ KOMPUTEROWYCH DLA KLASY SZÓSTEJ W ZAKRESIE I UCZNIÓW Ocena celujący bardzo dobry dobry dostateczny dopuszczający Zakres wiadomości wykraczający dopełniający rozszerzający podstawowy
2017/2018 WGGiOS AGH. LibreOffice Base
1. Baza danych LibreOffice Base Jest to zbiór danych zapisanych zgodnie z określonymi regułami. W węższym znaczeniu obejmuje dane cyfrowe gromadzone zgodnie z zasadami przyjętymi dla danego programu komputerowego,
Jak przetrwać w "wieku informacji"? [sieciowej]
II Forum Wiedzy Interdyscyplinarnej im. J. J. Śniadeckich Bydgoszcz - Żnin, 28-29.04.2004 Jak przetrwać w "wieku informacji"? [sieciowej] Żyć i działać we współczesnym świecie to znaczy korzystać z informacji
dla Klientów SuperHost.pl
Oferta usług SEO dla Klientów SuperHost.pl Spis treści Czym jest pozycjonowanie?... 3 Dlaczego SEO?... 3 Zalety SEO w skrócie... 4 Na czym polega SEO?... 4 Co wchodzi w skład usługi?... 5 Koszty SEO...
Ogłoszenia parafialne nie tylko z ambony
Ogłoszenia parafialne nie tylko z ambony Nota Materiał powstał w ramach realizacji projektu e-kompetencje bez barier dofinansowanego z Programu Operacyjnego Polska Cyfrowa działanie 3.1 Działania szkoleniowe
Metoda określania pozycji wodnicy statków na podstawie pomiarów odległości statku od głowic laserowych
inż. Marek Duczkowski Metoda określania pozycji wodnicy statków na podstawie pomiarów odległości statku od głowic laserowych słowa kluczowe: algorytm gradientowy, optymalizacja, określanie wodnicy W artykule
WYKŁAD 10. kodem pierwotnym krzywej jest ciąg par współrzędnych x, y kolejnych punktów krzywej: (x 1, y 1 ), (x 2, y 2 ),...
WYKŁAD 10 Kompresja krzywych dyskretnych Kompresja krzywych dyskretnych KP SK = KW SK - stopień kompresji krzywej. KP [bajt] - obszar pamięci zajmowany przez kod pierwotny krzywej. KW [bajt] - obszar pamięci
Spis treści. O autorce. O recenzentach. Wprowadzenie
Spis treści O autorce O recenzentach Wprowadzenie Rozdział 1. Badanie rynku i konkurencji oraz ustalanie celów Koncentracja na trafności Identyfikowanie konkurentów przy użyciu wyników wyszukiwania w Google
Pozycjonowanie stron w wyszukiwarkach internetowych. Szansa dla małych i średnich firm na konkurowanie z największymi
Pozycjonowanie stron w wyszukiwarkach internetowych Szansa dla małych i średnich firm na konkurowanie z największymi Podstawowe informacje na temat pozycjonowania Według badań Search Engine Watch 81% internautów
mgr inż. Magdalena Deckert Poznań, r. Metody przyrostowego uczenia się ze strumieni danych.
mgr inż. Magdalena Deckert Poznań, 30.11.2010r. Metody przyrostowego uczenia się ze strumieni danych. Plan prezentacji Wstęp Concept drift i typy zmian Algorytmy przyrostowego uczenia się ze strumieni
OPTYMALIZACJA SERWISÓW INTERNETOWYCH >>>WIĘCEJ<<<
INTERNETOWYCH. Wszystko O Pozycjonowaniu I Marketingu. >>>POZYCJONOWANIE STRON BYDGOSZCZ OPTYMALIZACJA SERWISÓW INTERNETOWYCH >>>WIĘCEJ
Konkurs z przedmiotu eksploracja i analiza danych: problem regresji i klasyfikacji
Konkurs z przedmiotu eksploracja i analiza danych: problem regresji i klasyfikacji Michał Witczak Data Mining 20 maja 2012 r. 1. Wstęp Dostarczone zostały nam 4 pliki, z których dwa stanowiły zbiory uczące
DOZ.PL Kupowanie przez wyszukiwanie
DOZ.PL Kupowanie przez wyszukiwanie Jak poprawić ilość i jakość ruchu w serwisie internetowym i przełożyć to na sprzedaż? Portal Dbam o Zdrowie pokazał jak tego dokonać. Właściciel serwisu www.doz.pl w
Data Mining Wykład 9. Analiza skupień (grupowanie) Grupowanie hierarchiczne O-Cluster. Plan wykładu. Sformułowanie problemu
Data Mining Wykład 9 Analiza skupień (grupowanie) Grupowanie hierarchiczne O-Cluster Plan wykładu Wprowadzanie Definicja problemu Klasyfikacja metod grupowania Grupowanie hierarchiczne Sformułowanie problemu
Budowa argumentacji bezpieczeństwa z użyciem NOR-STA Instrukcja krok po kroku
Budowa argumentacji bezpieczeństwa z użyciem NOR-STA Instrukcja krok po kroku NOR-STA jest narzędziem wspierającym budowę, ocenę oraz zarządzanie strukturą argumentacji wiarygodności (assurance case),
Ranking wyników na bazie linków
Eksploracja zasobów internetowych Wykład 4 Ranking wyników na bazie linków mgr inż. Maciej Kopczyński Białystok 2014 Wstęp Poznane do tej pory mechanizmy sortowania istotności zwróconych wyników bazowały
Dlaczego warto promować się z TreningBiegacza.pl
1 Dlaczego warto promować się z TreningBiegacza.pl Jako pierwsi w Polsce zbadaliśmy szczegółowo potrzeby firm prowadzących sklepy dla biegaczy i w odpowiedzi na to stworzyliśmy pierwszą i jedyną Wyszukiwarkę
PLAN WYNIKOWY Z INFORMATYKI DLA KLASY VI
PLAN WYNIKOWY Z INFORMATYKI DLA KLASY VI Program Informatyka 2000 DKW-4014-56/99 2 godziny tygodniowo Ok. 60 godzin lekcyjnych Lp. Zagadnienie Ilość lekcji Tematy lekcji 1. Technika 5 1. Lekcja komputerowa
Komputerowe Systemy Przemysłowe: Modelowanie - UML. Arkadiusz Banasik arkadiusz.banasik@polsl.pl
Komputerowe Systemy Przemysłowe: Modelowanie - UML Arkadiusz Banasik arkadiusz.banasik@polsl.pl Plan prezentacji Wprowadzenie UML Diagram przypadków użycia Diagram klas Podsumowanie Wprowadzenie Języki
Drzewa spinające MST dla grafów ważonych Maksymalne drzewo spinające Drzewo Steinera. Wykład 6. Drzewa cz. II
Wykład 6. Drzewa cz. II 1 / 65 drzewa spinające Drzewa spinające Zliczanie drzew spinających Drzewo T nazywamy drzewem rozpinającym (spinającym) (lub dendrytem) spójnego grafu G, jeżeli jest podgrafem
Biblioteka Wirtualnej Nauki
Biblioteka Wirtualnej Nauki BAZA EBSCO EBSCO Publishing oferuje użytkownikom w Polsce dostęp online do pakietu podstawowego baz danych w ramach projektu Electronic Information for Libraries Direct eifl
SEO / SEM PREZENTACJA OFERTY
SEO / SEM PREZENTACJA OFERTY 1CONTENT 2 Zajmujemy się marketingiem internetowym. Zdobywaliśmy doświadczenie w znanych firmach pcozycjonerskich oraz agencjach interaktywnych. Wypracowaliśmy własne metody
PODSUMOWANIE NABORU WNIOSKÓW NA ROK 2015 PROGRAM MINISTRA KULTURY I DZIEDZICTWA NARODOWEGO ROZWÓJ INFRASTRUKTURY KULTURY PRIORYTET 3
PODSUMOWANIE NABORU WNIOSKÓW NA ROK 2015 PROGRAM MINISTRA KULTURY I DZIEDZICTWA NARODOWEGO ROZWÓJ INFRASTRUKTURY KULTURY PRIORYTET 3 INFRASTRUKTURA DOMÓW KULTURY INSTYTUCJA ZARZĄDZAJĄCA NARODOWE CENTRUM
Interaktywne wyszukiwanie informacji w repozytoriach danych tekstowych
Interaktywne wyszukiwanie informacji w repozytoriach danych tekstowych Marcin Deptuła Julian Szymański, Henryk Krawczyk Politechnika Gdańska Wydział Elektroniki, Telekomunikacji i Informatyki Katedra Architektury
METODY INŻYNIERII WIEDZY ASOCJACYJNA REPREZENTACJA POWIĄZANYCH TABEL I WNIOSKOWANIE IGOR CZAJKOWSKI
METODY INŻYNIERII WIEDZY ASOCJACYJNA REPREZENTACJA POWIĄZANYCH TABEL I WNIOSKOWANIE IGOR CZAJKOWSKI CELE PROJEKTU Transformacja dowolnej bazy danych w min. 3 postaci normalnej do postaci Asocjacyjnej Grafowej
Wykład z Technologii Informacyjnych. Piotr Mika
Wykład z Technologii Informacyjnych Piotr Mika Uniwersalna forma graficznego zapisu algorytmów Schemat blokowy zbiór bloków, powiązanych ze sobą liniami zorientowanymi. Jest to rodzaj grafu, którego węzły
Laboratorium nr 4 - Badanie protokołów WWW
Data ćwiczenia: 29.03.2017 Prowadzący: dr inż. Piotr Kurowski Przedmiot: Sieci komputerowe i bazy danych Wykonawca: Klaudia Gurbiel Kierunek: Inżynieria mechatroniczna Rok III, Semestr VI Laboratorium
Wprowadzenie do reklamy w wyszukiwarkach
Wprowadzenie do reklamy w wyszukiwarkach Interruption marketing Permission Marketing Reklama a użytkownik internetu 5 tys. przekazów reklamowych dziennie na osobę (badanie DoubleClick). Człowiek buduje
Multiwyszukiwarka EBSCO Discovery Service przewodnik
Multiwyszukiwarka EBSCO Discovery Service to narzędzie zapewniające łatwy i skuteczny dostęp do wszystkich źródeł elektronicznych Biblioteki Uczelnianej (prenumerowanych i Open Access) za pośrednictwem
KRYTERIA OCENIANIA KLASA I KLASA II KLASA III
KRYTERIA OCENIANIA II ETAP EDUKACYJNY - JĘZYK ANGIELSKI KLASA I KLASA II KLASA III DOPUSZCZAJĄCY: rozumie proste polecenia nauczyciela, poparte gestem; rozumie proste zwroty grzecznościowe i proste pytania;
Zastosowanie wartości własnych macierzy
Uniwersytet Warszawski 15 maja 2008 Agenda Postawienie problemu 1 Postawienie problemu Motywacja Jak zbudować wyszukiwarkę? Dlaczego to nie jest takie trywialne? Możliwe rozwiazania Model 2 3 4 Motywacja
Heurystyczne metody przeszukiwania
Heurystyczne metody przeszukiwania Dariusz Banasiak Katedra Informatyki Technicznej W4/K9 Politechnika Wrocławska Pojęcie heurystyki Metody heurystyczne są jednym z ważniejszych narzędzi sztucznej inteligencji.