Konrad Dominas World Wide Web-technologiczny cud czy informacyjny nieład? Cyfrowa pragmatyka Sieci.



Podobne dokumenty
World Wide Web-technologiczny cud czy informacyjny nieład? Cyfrowa pragmatyka Sieci.

Klasyfikacja informacji naukowych w Internecie na przykładzie stron poświęconych kulturze antycznej

Antyk w kulturze popularnej

INTERNET - NOWOCZESNY MARKETING

Internet, jako ocean informacji. Technologia Informacyjna Lekcja 2

Pozycjonowanie. Co to takiego?

Lingwistyczny system definicyjny wykorzystujący korpusy tekstów oraz zasoby internetowe.

Sposoby wyszukiwania multimedialnych zasobów w Internecie

#1 Wartościowa treść. #2 Słowa kluczowe. #3 Adresy URL

OPTYMALIZACJA SERWISÓW INTERNETOWYCH >>>WIĘCEJ<<<

Poradnik SEO. Ilu z nich szuka Twojego produktu? Jak skutecznie to wykorzystać?

POZYCJONOWANIE STRONY SKLEPU

Oferta przygotowana przez BerMar multimedia. POZYCJONOWANIE oferta. tel.: (71)

POZYCJONOWANIE CHORZÓW >>>WIĘCEJ<<<

Jak pisać publikacje naukowe? Nie o naukowej, a technicznej stronie pisania artykułu

Bydgoskie Centrum Archiwizacji Cyfrowej sp. z o.o.

PageRank i HITS. Mikołajczyk Grzegorz

Użytkownik, Sieć i znaczenie. Podstawowe aspekty uobecniania się informacji w World Wide Web w perspektywie wyszukiwarek internetowych.

World Wide Web? rkijanka

Wyszukiwanie w czasie rzeczywistym sposób na zwiększenie widoczności zasobów bibliotek cyfrowych w wyszukiwarkach internetowych Karolina Żernicka

Tomasz Boiński: 1. Pozycjonowanie stron i zastosowanie mod_rewrite

Primo wyszukiwarka naukowa

Co to jest pozycjonowanie stron internetowych? Dlaczego warto pozycjonować strony internetowe?

Wyciśniemy z Ciebie wszystko, a potem wypełnimy Cię naszą własną treścią efektywność JHP BN w dobie społeczeństwa sieciowego

POZYCJONOWANIE I OPTYMALIZACJA STRON WWW PDF >>>WIĘCEJ<<<

POZYCJONOWANIE STRON INTERNETOWYCH (SEO)

Sposoby analizy i interpretacji statystyk strony WWW.

Biblioteka Wirtualnej Nauki

Nowe spojrzenie na prawo

POZYCJONOWANIE BIELSKO BIAŁA >>>WIĘCEJ<<<

Internet wyszukiwarki internetowe

omnia.pl, ul. Kraszewskiego 62A, Jarosław, tel

Biblioteka Wirtualnej Nauki

Multiwyszukiwarka EBSCO Discovery Service przewodnik

Wprowadzenie do reklamy w wyszukiwarkach

POZYCJONOWANIE STRON PORADY

Laboratorium Technologii Informacyjnych. Projektowanie Baz Danych

INNOWACJE NA CELOWNIKU

Jak przetrwać w "wieku informacji"? [sieciowej]

Narzędzia marketingu internetowego (1): SEO, SEM, afiliacja, kampanie banerowe, marketing, inne.

Narzędzia Informatyki w biznesie

Odkryj potencjał swojej strony internetowej

SEO / SEM PREZENTACJA OFERTY

WYSZUKIWANIE INFORMACJI W INTERNECIE I ICH WYKORZYSTANIE. Filip Makowiecki filip.makowiecki@ceo.org.pl

NAZWA PRZEDMIOTU/MODUŁU KSZTAŁCENIA: Projektowanie serwisów internetowych

Upowszechnianie dorobku naukowego w repozytoriach i bazach danych działania komplementarne czy konkurencyjne?

Multiwyszukiwarka EBSCO Discovery Service - przewodnik

Pozycjonowanie stron w wyszukiwarkach internetowych. Szansa dla małych i średnich firm na konkurowanie z największymi

Skrócona instrukcja obsługi

WYMAGANIA EDUKACYJNE Z ZAJĘĆ KOMPUTEROWYCH W KLASIE 4 SZKOŁY PODSTAWOWEJ

System automatycznego rozsyłania wiadomości

PAKIETY INTERNETOWE INDEXFIRM.PL

Rozkład materiału do zajęć z informatyki. realizowanych według podręcznika

Multiwyszukiwarka EBSCO Discovery Service - przewodnik

Wyszukiwanie. Zakładki

POLSKA BIBLIOGRAFIA LITERACKA UJĘCIE REALISTYCZNE

Dobra pozycja w Google? Dlaczego warto nam zaufać?

Wyszukiwarki stosują różne metody oceny stron i algorytmy oceniające za indeksowane strony różnią się w poszczególnych wyszukiwarkach, ale można

Technologie Informacyjne Mediów - składowa tożsamości Nauk o Mediach. Włodzimierz Gogołek Instytut Dziennikarstwa UW

Rozkład materiału nauczania. Zajęcia komputerowe z pomysłem. Szkoła podstawowa. Klasa 4

PLAN REALIZACJI MATERIAŁU NAUCZANIA Z INFORMATYKI II. Uczeń umie: Świadomie stosować się do zasad regulaminów (P).

Wirtualna tablica. Padlet: Padlet nazywany jest wirtualną tablicą, ścianą lub kartką strony internetowej.

Księgarnia internetowa Lubię to!» Nasza społeczność

SMO MEDIA I KANAŁY SPOŁECZNOŚCIOWE. Bydgoszcz, dnia r. Usługodawca

plansoft.org Zmiany w Plansoft.org Panel wyszukiwania PLANOWANIE ZAJĘĆ, REZERWOWANIE SAL I ZASOBÓW

WSKAZÓWKI DLA AUTORÓW Optymalizacja publikacji naukowych dla wyników wyszukiwarek ASEO 1

Magda Puchała Marcin Sugak Jerzy Zimowski. e-marketing / marketing elektroniczny /

maciaszczyk interaktywny wzbudzamy e-mocje

Rozkład materiału nauczania. Zajęcia komputerowe Klasa 4. Temat z podstawy programowej. Nr lekcji Temat Dział Osiągnięcia ucznia

Zakres treści Czas. 2 Określenie charakteru i tematyki strony. Rodzaje witryn. Projekt graficzny witryny. Opracowanie skryptów

Pozycjonowanie i SEO w czym jest różnica pojęć?

Nie wiesz co się dzieje w Twojej Gminie? Dowiedz się z Internetu

Jak stworzyć własny blog w kreatorze Click Web?

SZYBKOŚĆ ŁADOWANIA NAJCZĘŚCIEJ ODWIEDZANYCH SERWISÓW INTERNETOWYCH W POLSCE EDYCJA II BADANIE PRZEPROWADZONE PRZEZ

Mapa witryny - Poradnik od A do Z

3.1. Na dobry początek

Kryteria ocen zajęcia komputerowe klasa 4

REFERAT PRACY DYPLOMOWEJ Temat pracy: Projekt i realizacja serwisu ogłoszeń z inteligentną wyszukiwarką

AKADEMIA MARKETINGU CYFROWEGO SZKOLENIE DEDYKOWANE

INNOWACYJNA FORMA REKLAMY NA PORTALU 10naj.eu

Wyszukiwarka naukowa EBSCO Discovery Service - przewodnik

BIBLIOGRAFICZNA BAZA DANYCH -

Kodeks Dobrych Praktyk SEO IAB Polska

Zagadnienia: Ścieżki do informacji - wpisywanej po znaku ukośnika / Nazwy dokumentu (w szczególności strony www, czyli strony internetowej).

Po zakończeniu rozważań na temat World Wide Web, poznaniu zasad organizacji witryn WWW, przeczytaniu kilkudziesięciu stron i poznaniu wielu nowych

Przewodnik. Wprowadzenie do.

Spis treści. Analiza i modelowanie_nowicki, Chomiak_Księga1.indb :03:08

POMOC. 1. Wybór Katalogu

Proporcje podziału godzin na poszczególne bloki. Tematyka lekcji. Rok I. Liczba godzin. Blok

Semantyczne podobieństwo stron internetowych

PROGRAM NAUCZANIA DLA I I II KLASY GIMNAZJUM

Pomoc. BIP strona portalu

Pakiety podstawowe. Cena: 8750 zł netto

Wyszukiwanie informacji

PLAN WYNIKOWY Z INFORMATYKI DLA KLASY VI

Prezentacja jest dostępna na licencji. Uznanie autorstwa - użycie niekomercyjne 3.0 Polska

Ontologie, czyli o inteligentnych danych

Jak pisać dobre teksty SEO?

Projektowanie architektury informacji katalogu biblioteki w oparciu o badania użytkowników Analiza przypadku

Transkrypt:

Konrad Dominas World Wide Web-technologiczny cud czy informacyjny nieład? Cyfrowa pragmatyka Sieci. Od czasów słynnego stwierdzenia Marshalla McLuhana: the medium is the message 1, rozmaici teoretycy mediów zaczęli tworzyć dziesiątki wyznaczników charakteryzujących przekaz cyfrowy wyznaczników ukazujących, jak zmienia się rozmaite tworzywo (tekst, film, muzyka, nauka) pod wpływem oddziaływania środków masowego przekazu 2. Powstały zatem najpopularniejsze dziś terminy używane zarówno przez badaczy reprezentujących nauki humanistyczne, jak i nauki ścisłe: hipertekstualność i multimedialność, a wraz z rozwojem multimediów hipermedialność. Lev Manovich w książce Język nowych mediów wprowadził na ich miejsce takie pojęcia, jak: reprezentacja numeryczna, transkodowanie, modularność, automatyzacja, wariacyjność 3. Świat nowych mediów to zatem świat niekończących się porównań porównań między mediami tradycyjnymi, określonymi przez McLuhana i Waltera J. Onga jako galaktyka Gutenberga 4, i mediami cyfrowymi reprezentowanymi współcześnie przede wszystkim przez Internet i jego aplikacje. Skoro telefon komórkowy nie jest dziś tylko telefonem, a Sieć przestała być tylko środkiem komunikacyjnym przesyłającym zakodowane informacje w postaci zer i jedynek, to czy jest sens dokonywać rozróżnień między mediami tradycyjnymi a cyfrowymi. W 1997 roku Derrick de Kerckhove napisał o ślubie telewizji z Internetem 5, nie minęły trzy lata a użyta przez niego metafora stała się rzeczywistością w kontekście przekazów audio-wideo na żądanie. Media, wbrew temu co postulował McLuhann nie tylko zastępują siebie nawzajem ale stapiają się ze sobą, ujednolicają 6. 1 / M. McLuhan, Zrozumieć media. Przedłużenie człowieka, tłum. N. Szczucka, Warszawa 2004, s. 39. 2 / Por. Liternet. Literatura i internet, red. P. Marecki, Kraków 2002; R. W. Kluszczyński, Film. Wideo. Multimedia, Kraków 2002; tegoż, Społeczeństwo informacyjne. Cyberkultura. Sztuka multimediów, Kraków 2001. 3 / L. Manovich, Język nowych mediów, tłum. P. Cypryański, Warszawa 2006, ss. 91-118. 4 / Por. M. McLuhan, Zrozumieć media, op. cit.; W. J. Ong, The Presence of the World. Some Prolegomena for Cultural an Religius History, Minneapolis, 1981; tegoż, Oralność i piśmienność. Słowo poddane technologii, tłum. J. Japola, Lublin 1992. 5 / D. de Kerckhove, Powłoka kultury, tłum. W. Sikorski, P. Nowakowski, Warszawa 2001, s. 65. 6 / M. McLuhan, Zrozumieć media, op. cit., ss. 39-40.

Można zatem powiedzieć, że między mediami analogowymi a cyfrowymi biegnie dziś jeden z najbardziej wyrazistych podziałów. Miara cyfrowa określana jest precyzyjnie (w cyfrach), podczas gdy miara analogowa to przedstawienie przybliżone (analogiczne). Jak pisze Charles Joncher w książce Życie okablowane: Informacja w postaci analogowej może być zapisywana i przekazywana tak, aby była możliwa do wysłuchania i obejrzenia w innych miejscach i innym czasie. Na tym właśnie mniej więcej polegała rewolucja łączności analogowej na początku tego stulecia. Po ocyfrowaniu informacja wkracza w nowy świat, osieciowany kłąb połączonych ze sobą komputerów osobistych i urządzeń pamięciowych, po których przebiegają niezliczone miliony wersów oprogramowania. W tym obszarze zaledwie dwa symbole «0» i «1», występując w różnych kombinacjach, mogą zawrzeć wszystko od poematu Goethego do wojennego programu opracowanego w Pentagonie 7. Celem niniejszego artykułu jest ukazanie rozmaitych form oddziaływania World Wide Web najważniejszej dziś aplikacji Internetu na zapośredniczone przez nie informacje. Punktem wyjścia uczynię zatem przeanalizowanie wpływu, jaki na rozproszone w Sieci materiały, wywierają wyszukiwarki internetowe odpowiedzialne za ich nieustanne porządkowanie i hierarchizowanie. W drugiej części rozprawy zajmę się sposobami postrzegania serwisów, witryn i stron internetowych, skupiając się na ich architekturze i trzech głównych aspektach: marketingowym, technologicznym i merytorycznym. Z uwagi na różnorodność interpretacji to czytelnikowi chciałbym pozostawić odpowiedź na pytanie zawarte w tytule artykułu, odpowiedzi, która z natury swej dotyczy ontologii zawartych w Internecie informacji 8. Liczby mówią same za siebie. Z badań przeprowadzonych przez amerykańską organizację PEW Internet & American Life Project 9 wynika, iż 84% badanych deklaruje używanie wyszukiwarek internetowych, z tej liczby 56% używa ich codziennie. Blisko 92% użytkowników jest przekonanych o swoich wysokich umiejętnościach w zakresie uzyskiwania dostępu do informacji, 52% uważa siebie za osoby bardzo biegłe. Z badań możemy dowiedzieć się również, iż 87% wykorzystujących wyszukiwarki do znajdowania określonych materiałów jest 7 / Ch. Joncher, Życie okablowane, tłum. L. Niedzielski, Warszawa 2001, ss. 29-30. 8 / Niniejszy artykuł został oparty na mojej rozprawie doktorskiej pt. Internetowa recepcja mitu o Eneaszu, napisanej pod kierunkiem prof. dra hab. Aleksandra W. Mikoajczaka z Uniwersytetu im. Adama Mickiewicza w Poznaniu. 9 / http://www.pewinternet.org/reports.asp.

zadowolona z ich funkcjonowania, zaś 17% zawsze znajduje to, czego szuka; 68% internatów twierdzi, że wyszukiwarki internetowe są niezwykle rzetelnym źródłem informacji, nie ufa im zaledwie 17% respondentów. Co ciekawe, blisko 50% ankietowanych deklaruje powrót do alternatywnych sposobów wyszukiwania, 32% nie potrafi nawigować po Internecie bez pomocy wyszukiwarek. Blisko połowa internautów (44%) używa pojedynczych narzędzi, 48% więcej niż jednego, 7% więcej niż dwóch. I ostanie dane 47% uruchamia wyszukiwarki nie więcej niż jeden, dwa razy w tygodniu, natomiast 35% czyni to klika razy dziennie 10. Wyszukiwarki internetowe są bez wątpienia najważniejszym wyznacznikiem World Wide Web. Ich ogromne znaczenie w Sieci bierze się przede wszystkim stąd, iż są one najlepszym i najszybszym programem pozwalającym znaleźć określone treści. Ale czy tylko? Wyszukiwarki obok znajdowania materiałów pozwalają również na ich klasyfikowanie i hierarchizowanie, są niejako elementem porządkującym niezwykle rozproszoną i chaotyczną przestrzeń. Wpisując słowo bądź frazę do okna wyszukiwarki, otrzymujemy setki tysięcy, a nawet miliony rozmaitych dokumentów. Jak pokazują badania marketingowe, zazwyczaj przeglądamy zaledwie 20-50 z nich, w zależności od specyfiki rankingu, ustawień wyszukiwarki czy rozdzielczości monitora 11. Dokumenty te stają się dla nas wyznacznikiem określonego tematu, punktem wyjścia do dalszych poszukiwań, które w większości przypadków wiodą już przez hiperłącza odnalezionych witryn. Definicja wyszukiwarki jest prosta. Jest to program komputerowy przeznaczony do gromadzenia, indeksowania i udostępniania informacji w postaci adresów URL ułożonych w ranking. Za wyszukiwanie materiałów odpowiedzialny jest program-robot zwany pająkiem (spider) lub pełzakiem (crawler). Indeksowaniem zajmują się indeksery, zaś udostępnianiem witryn WWW interfejsy 12. Zatem biorąc pod uwagę uproszczony model wyszukiwarki, narzędzia te składają się z pająka, indeksu oraz interfejsu. Tylko ostania z jej części jest bezpośrednio udostępniania użytkownikom. 10 / D. Fallows, Search Engines Users, http://www.pewinternet.org/pdfs/pip_searchengine_users.pdf. Badanie przeprowadzono w USA poprzez wywiad telefoniczny (próba 2200 dorosłych) i ankietę w formie on-line (próba 1399 osób). Por. T. Frontczak, Marketing internetowy w wyszukiwarkach, Gliwice 2006, ss. 59-69. Podobne badania związane z rozmaitymi aspektami wykorzystywania mediów cyfrowych prowadzi w Polsce firma Gemius, http://www.gemius.pl/info/index_flash.php; http://www.ranking.pl/. 11 / K. Kondracka, Serwis idealny, Chip 2004, nr 2, s. 34. 12 / K. Bibliński, Szukajcie a znajdziecie, PC World Komputer 2006, nr 4, s. 122.

Mechanizmy wyszukiwarki są ściśle wyspecjalizowane w pełnieniu zaprogramowanych dla nich funkcji. Zadaniem robota jest nieustanne krążenie po Sieci i poszukiwanie nowych bądź zaktualizowanych stron. Kiedy spider je znajdzie, analizuje ich adres internetowy (URL), a następnie prosi serwer o ich przesłanie. Serwer wysyła strony pająkowi, który spisuje i indeksuje wszystkie słowa i wyrażenia. Na podstawie zawartości oraz innych czynników obliczana jest waga każdej witryny dla określonych słów i wyrażeń kluczowych. Uzyskany rezultat trafia do bazy. Znajdujący się w niej spis stron jest regularnie aktualizowany, w zależności od wyszukiwarki zwykle co 4 6 tygodni 13. Zarówno praca robotów, jak i sposób klasyfikowania i oceniania informacji dokonuje się za pomocą rozmaitych algorytmów, które stanowią tajemnicę firmy. Autorzy artykułów i publikacji poświęconych narzędziom do przeszukiwania Sieci chętnie sięgają po rozmaite metafory. Twórcy polskiej witryny Searchengines.com.pl piszą: robot jest elektronicznym bibliotekarzem, który kolekcjonuje spisy treści każdej książki we wszystkich światowych bibliotekach. Następnie sortuje je w gigantycznym zbiorze indeksów, potem buduje elektroniczną bibliografię, która zawiera informacje o odnośnikach do stron 14. Dominującym aspektem każdej wyszukiwarki jest jej syntaktyka złożony algorytm zgodnie z którym pracują roboty oraz indeksery. Aspekt semantyczny to stworzony w bazie układ poszczególnych elementów witryn WWW, który po wpisaniu przez internautę frazy ustanawia ranking. Pragmatyka wyszukiwarki skupia się przede wszystkim na interfejsie pozwalającym na wybranie odpowiedniej usługi oraz prezentacji stron rankingowych. Twórcy wyszukiwarek coraz więcej środków inwestują w prezentację wyników. Obok tradycyjnych rankingów, reprezentowanych przez takie narzędzia jak Google czy Yahoo!, mamy dziś do czynienia z mechanizmami typu visual serach engine, które zebrane wyniki udostępniają w formie graficznej 15. Przykładem w tej materii może być metawyszukiwarka Mooter, która przedstawia strony w postaci wykresów 16. Po wpisaniu określonego słowa otrzymujemy diagram połączonych ze 13 / S. Thurow, Pozycjonowanie w wyszukiwarkach internetowych, tłum. M. Samodulski, Gliwice 2004, ss. 22-25. Por. M. A. Haerst, Interfejsy użytkownika, tłum. E. Bendyk, Świat Nauki 1997, nr 5, ss. 43-47; Hiperprzeszukiwanie sieci, red. J. M. Kleinberg, tłum. A. Bartnik, Świat Nauki 1999, nr 8, ss. 52-58. 14 / http://www.searchengines.com.pl/. 15 / Por. P. Wimmer, Moje miejsce na ziemi, PC World Komputer 2006, nr 12, ss. 159-161. 16 / http://www.mooter.com/.

sobą odnośników ułożonych tematycznie. Do kolejnych wyników przechodzi się przez uruchomienie kolejnych klastrów. Podobnie działa wyszukiwarka tematyczna AmazNode 17, która analogicznie do Mooter klasyfikuje materiały jako graficzne animacje (Ilustr. nr 1). W rzeczywistości jednak jest to zaledwie nakładka na mechanizm największej księgarni internetowej Amazon.com 18. Jeszcze inaczej swoje wyniki prezentują takie narzędzia, jak: Clusty firmy Vivisimo, Ask Jeeves, czy polski projekt Carrot 2 19. Korzystają one z metody dokonującej grupowania stron WWW we względnie jednorodne klasy pod kątem podobieństwa tworzących je elementów. Po wpisaniu słowa bądź frazy do wyszukiwarki Carrot 2, po lewej stronie ukazują się grupy stron poukładanych tematycznie. Wpisując ciąg słów do okna wyszukiwarki, zazwyczaj nie zastanawiamy się nad technicznym sposobem ułożenia odpowiedniego zapytania. Większość internautów nie korzysta z operatorów logicznych czy arytmetycznych, po prostu używa określeń, które odpowiadają poszukiwanym informacjom, uruchamia przycisk search lub znajdź i przegląda uzyskane wyniki 20. Bez względu na to, do jakiego programu wpiszemy zdefiniowaną przez nas frazę, otrzymamy od kilkuset do kliku milionów linków prowadzących do rozmaitych witryn WWW. Liczba ta jest wynikiem analizy systemów wyszukiwania, które są ściśle związane ze specyfiką indeksów określonej wyszukiwarki 21. Większość systemów wyszukiwawczych, opartych na pracy spiderów, analizuje każdą stronę internetową na podstawie trzech głównych komponentów: a) tekstowego, b) łączy, c) popularności 22. Zgodnie z optymalizacją witryn WWW pod kątem wyszukiwarek, każda strona powinna zawierać wszystkie komponenty, a ich zawartość powinna być jak najlepiej dopasowana do treści. 17 / http://amaznode.fladdict.net/. 18 / Por. M. Nowak, W pajęczynie i w całej reszcie, Chip 2004, nr 11, s. 110. 19 / http://clusty.com/; http://www.ask.com/#subject:ask pg:1; http://demo.carrot2.org/demo-stable/main. 20 / K. Gienas, Nowa era szukania, Chip 2004, nr 3, ss. 120-121. 21 / L. Rosenfeld, P. Morville, Architektura informacji w serwisach internetowych, tłum. K. Masłowski, T. Jarzębowicz, Gliwice 2003, s. 163. 22 / S. Thurow, Pozycjonowanie w wyszukiwarkach internetowych, op. cit., ss. 26-27.

O pozycji komponentu tekstowego decydują przede wszystkim słowa kluczowe, które badane są przez mechanizmy wyszukiwarki na podstawie wpisów umieszczanych przez użytkowników w interfejsie narzędzia (Tab. nr 1). Słowa te mogą znajdować się w następujących elementach witryny: a) tytule, b) tekście, c) metatagach, d) opisach rysunków i tekstach zastępczych dla plików graficznych 23. Sposób, w jaki poszczególne strony są ze sobą połączone oraz jak często dana witryna jest cytowana przez inne serwisy, ma ogromne znaczenie przy analizie komponentu łączy. Natomiast liczba odnośników do określonych informacji oraz ruch internetowy i zainteresowanie treścią, składają się na ocenę ostatniego z wyznaczników komponentu popularności 24. Ilustr. nr 1 Prezentacja wyników w wyszukiwarce AmazNode autorstwa japońskiego projektanta Takayuki Fukatsu 23 / Ibidem, s. 28. 24 / Ibidem, ss. 29-32.

Co dzieje się w momencie, w którym do okna wyszukiwarki wpiszemy np. frazę literatura klasyczna? Otóż zostają uruchomiane mechanizmy działające w oparciu o określone algorytmy wyszukiwania. Jednym z najczęściej stosowanych jest algorytm dopasowywania wzorców. Zapytanie użytkownika zostaje porównane z indeksem wyszukiwarki, w którym poszukuje się takiego samego ciągu znaków na podstawie analizy elementów komponentu tekstowego 25. Gdy taki ciąg znaków zostanie znaleziony, dokument jest dodawany do wynikowego zestawu stron WWW zawierającego w tym przypadku frazy literatura klasyczna. Powyższa fraza staje się zatem ni mniej ni więcej zaledwie słowem kluczowym. Algorytm dopasowywania wzorców ustala ilość odpowiednich dokumentów w oparciu o jeden spośród dwóch sposobów: odpowiedź lub precyzję. Pierwszy z nich jest liczbą trafnie wyszukanych dokumentów przez liczbę wszystkich trafnych dokumentów w indeksie. Drugi zawęża otrzymane wyniki, ponieważ jest to liczba trafnie wyszukanych dokumentów przez liczbę wszystkich wyszukanych dokumentów 26. System odpowiedzi pozwala zatem na uzyskanie niezwykle dużej liczby materiałów internetowych o niewielkim jednak stopniu zgodności zapytania z treścią bądź tematyką, natomiast system precyzji udostępnia nieporównywalnie mniejszą porcję informacji za to lepiej odpowiadających konkretnym i sprecyzowanym życzeniom użytkownika. Tab. nr 1. Ilość wyników dla frazy literatura antyczna w zależności od modyfikatorów zapytania w wyszukiwarce Google Zapytanie Opis zapytania Wyniki literatura antyczna przeszukuje wszystkie elementu zaindeksowanych przez robota stron internetowych z frazą aeneas 103 000 anchises allintitle:literatura ogranicza wyniki do tych, które zawierają całe antyczna szukane wyrażenie w tytule 178 intitle:literatura antyczna ogranicza wyniki do zawartego w tytule słowa następującego po operatorze intitle, natomiast 1 530 resztę słów szuka w całym dokumencie allinurl:literatura pozwala wyszukać witryny, które w adresie URL antyczna zawierają określone słowa 34 inurl:literatura antyczna ogranicza wyniki do zawierającego w adresie URL następującego po operatorze inurl, natomiast resztę słów szuka w całym dokumencie 729 25 / L. Rosenfeld, P. Morville, Architektura informacji w serwisach internetowych, op. cit., s. 163. 26 / Ibidem, s. 174.

Co dzieje się dalej ze znalezionymi w indeksie wyszukiwarki dokumentami odpowiadającymi frazie literatura antyczna? W zależności od zastosowanego modelu (odpowiedź bądź precyzja) algorytm dopasowywania wzorców ustala określoną ilością dokumentów, które następnie zostają poddane procesowi porządkowania polegającemu na sortowaniu oraz układaniu stron WWW w ranking, czyli klasyfikacji i hierarchizowaniu. Twórcy wyszukiwarek internetowych stosują zazwyczaj kilka systemów rankingowych. Do najpopularniejszych należą: ranking zgodności (niemal wszystkie wyszukiwarki), ranking popularności (przede wszystkim Google), ranking według oceny użytkowników i ekspertów (serwis Slashdot) 27, ranking za opłatą (Overture Yahoo! Company) 28. Ranking zgodności powstaje na podstawie porównania wyników z zapytaniem. Opiera się on na ocenie następujących czynników: a) ile określeń z zapytania występuje w znalezionym dokumencie, b) jak często są one w tym dokumencie używane, c) jak blisko od siebie występują (np. obok siebie, w tym samym zdaniu lub akapicie), d) gdzie występują (np. występowanie w tytule może być uznane za ważniejsze niż w treści) 29. Ranking popularności porządkuje dokumenty według częstotliwości ich cytowania 30. Wyszukiwarce Google przynosi on co roku setki milionów dolarów dochodu 31. Oparty o algorytm PageRank porządkuje dokumenty zależnie od ich popularności a także ocenia jakość łącz; łącze z serwisu, który sam ma wiele łącz jest wyżej ocenianie od odnośnika z mało znanej strony. Po wpisaniu frazy literatura antyczna, Google tworzy listę dokumentów, w których została ona użyta. Sformułowanie może wystąpić w tytule, URL-u, treści strony zapisanej małą czcionką, wytłuszczoną itp. Każde z tych miejsc lub atrybutów ma przyznaną określoną wagę, co w powiązaniu 27 / http://slashdot.org/. 28 / http://www.content.overture.com/d/. 29 / L. Rosenfeld, P. Morville, Architektura informacji w serwisach internetowych, op. cit., s. 183. 30 / Ibidem, s. 185. 31 / T. Frontczak, Marketing internetowy w wyszukiwarkach, op. cit., s. 16.

z systemem PageRank daje ostateczny wynik i powoduje umieszczenie strony na odpowiednim miejscu w rezultatach szukania 32. Kolejny ranking oparty na ocenie użytkowników i ekspertów jest bardziej odpowiedni w przypadku serwisów, które, w porównaniu z indeksami wyszukiwarek globalnych, gromadzą nieporównywalnie mniejszą ilość adresów URL. Dzięki temu możliwym staje się komentowanie stron przez internautów odwiedzających dany serwis. Na ocenę ekspertów pozwolić sobie mogą tylko te firmy, których budżet pozwala na opłacenie odpowiednich specjalistów. Sposoby wyszukiwania oraz udostępniania materiałów internetowych dobrze ilustrują pewne mity, którymi bardzo często posługują się osoby korzystające z wyszukiwarek. Rozmaite nakładki, typu Carrot 2 i Mooter oraz mechanizmy tej klasy co Ask Jeeves lub Clusty pozwalają na przyjemne dla oka sortowanie i klasyfikowanie adresów WWW. Nie brakuje zatem głosów, iż narzędzia te pod kątem zgodności z wpisanym do interfejsu słowem lub frazą są po prostu niezawodne. Tymczasem wszystkie wyszukiwarki, bez względu na sposób prezentacji oraz liczbę użytych algorytmów, nadal pozostają tylko programami komputerowymi. Dla robota frazy, zdania, akapity, większe całości witryn nie mają żadnego znaczenia. Między słowem Mickiewicz a garaż jest tylko jedna różnica, wynika ona z wielkości danych układów zer i jedynek. Najlepiej ilustrują to wyszukiwarki graficzne. Po wpisaniu do Google słowa Mickiewicz obok wizerunków poety pojawiają się pliki w ogóle nie związane z wpisaną do interfejsu frazą. Wynika to z tego, iż pliki typu JPEG lub GIF są indeksowane przez wyszukiwarki na podstawie ich nazw, a w tym kontekście wyobraźnia autora bądź projektanta witryny jest nie do przewidzenia 33. Kolejnym mitem jest przekonanie o niezawodności wyszukiwarek w docieraniu i indeksowaniu niemal wszystkich sieciowych informacji. Nic bardziej mylnego. Narzędzia te gromadzą głównie adresy tzw. płytkiej sieci (około 45%), nie indeksując specjalistycznych baz danych, które z uwagi na komercyjny charakter chronione są 32 / P. Rupik, Pod maską Google a, Chip 2004, nr 7, s. 128; M. Nowak,...na tacy, Chip 2005, nr 2, ss. 122-125. Por. B. Mrożewski, Świat przez Google, Magazyn internetowy WWW 2003, nr 8, ss. 24-26; T. Kapelak, Nie tylko wyszukiwarka. Przegląd usług Google, Internet 2007, nr 1, ss. 37-41; 17. T. Calishain, R. Dornfest, 100 sposobów na Google, tłum. A. Tomaszewska, Gliwice 2003. 33 / Por. D. Forsyth, J. Malik, R. Wilensky, Koń, jaki jest, każdy widzi, tłum. A. Bartnik, Świat Nauki 1997, nr 8, ss. 46-51.

przed spiderami 34. Problemem robotów są również dynamicznie generowane adresy URL (aplikacje Flash, rozszerzenia.asp,.php,.jsp), które w nielicznych przypadkach mogą spowodować uwięzienie pająka i w efekcie jego zawieszenie poprzez nieustanne zapisywanie tych samych elementów witryn. Konkludując powyższe zastrzeżenia, należy podkreślić, iż nie istnieją takie algorytmy, które pozwalałyby pracującym w oparciu o nie narzędziom gromadzić, klasyfikować i udostępniać wiedzę tak, jak czyni to ludzki umysł. Problem ten jest nieustającym wyzwaniem dla wszystkich instytucji i organizacji odpowiedzialnych za rozwój WWW. Mówiąc o statusie ontologicznym rozmaitych treści w Sieci, nie sposób jednak pominąć w nim rolę wyszukiwarek. To one wyznaczają obszar badań, pozwalają na szybki dostęp do właściwych materiałów, pokazują jak szukać i jaką drogą podążać. Posługiwanie się takimi terminami, jak rozproszenie czy dekonstruowanie się materiału internetowego zazwyczaj pokazuje sposób, w jaki algorytmy wyszukiwarek zmieniają w postaci rankingu stron ustalone w literaturze przedmiotu pojęcia związane z określoną dziedziną wiedzy. Badanie znalezionych i określonych już witryn zawsze będzie próbą kategoryzowanie tego, co w przypadku materiału internetowego nie można, z uwagi na dynamiczność Sieci, klasyfikować. Dlaczego? Każdy, kto kiedykowiek chciał zmierzyć się z opisaniem określonej treści w WWW, powinien wziąć pod uwagę, że te same informacje objawiają się w różnych aspektach, a każdy z nich ma własne wyznaczniki, które wpływają znacząco na obecny w Internecie materiał. Problemem staje się więc nie tylko uchwycenie dynamicznych wciąż treści za pomocą wyszukiwarek internetowych, lecz także sposób ich opisania. Przypomina to sytuację, w której chcemy zrobić zdjęcie poruszającemu się z niezwykłą prędkością obiektowi. Architektura informacji Musimy zrozumieć, jakim celom biznesowym ma służyć tworzony WWW i określić, z jakich zasobów można korzystać podczas projektowania i implementacji. Musimy być świadomi natury i objętości informacji już istniejących i zmian, które mogą nastąpić w przyszłości. Musimy także poznać potrzeby i sposoby szukania informacji, charakterystyczne dla większości przyszłego audytorium. 34 / http://www.wszpwn.com.pl/wszpwn/_gallery/48/79/48797.doc.

Fragment z książki Luisa Rosenfelda i Petera Morvilla Architektura informacji w serwisach internetowych 35. Louis Rosenfeld i Peter Morville w książce Architektura informacji w serwisach internetowych podkreślają, iż każdą informację w sieci powinno się postrzegać w trzech aspektach: kontekstu, zawartości i użytkowników 36. Kontekst to cele biznesu, finansowanie, polityka, kultura, technologia, zasoby, ograniczenia. Zawartość rodzaje dokumentów i danych, obiekty, objętość, istniejąca struktura. Użytkownicy audytorium, zadania, potrzeby, metody wyszukiwania informacji, nabyte doświadczenie. W pewnym sensie przedstawione przez nich aspekty pokrywają się z podejściem semantycznym (kontekst), syntaktycznym (zawartość) i pragmatycznym (użytkownicy). Metodologia Rosenfelda i Morville jest tylko jedną z metod opisywania cyfrowego tworzywa, polegającą na zogniskowaniu wszystkich procesów do architektury informacji. Składa się ona z takich wyznaczników, jak: systemy organizacyjne (schematy i struktury), systemy etykietowania (oznaczanie poszczególnych elementów witryn), systemy nawigacyjne i systemy wyszukiwania. Marketing internetowy Istnienie serwisu internetowego jest bezcelowe, jeżeli prawdopodobieństwo jego znalezienia przez potencjalnego użytkownika (potencjalnego klienta) jest żadne lub znikome. Fragment z książki Tomasza Frontczaka Marketing internetowy w wyszukiwarkach 37 Osoby zajmujące się marketingiem internetowym przekonują, iż sposób interpretowania witryn polega przede wszystkim na poprawianiu dostępu użytkownika do serwisu poprzez zwiększenie jego widoczności. Najważniejszym zatem aspektem informacji staje się to, czy ktoś ją kupi (sukces), czy też nie (klapa). Mógłby ktoś powiedzieć, że dotyczy to jedynie tych serwisów internetowych, które nastawione są na sprzedaż swoich wyrobów za pośrednictwem Sieci. Nic bardziej mylnego. Zainteresowanie użytkowników swoim towarem, czyli stroną internetową jest podstawa egzystencji w wirtualnym świecie. Zawartość witryny nie ma znaczenia, liczy się tylko to, jak wielu internautów-klientów do niej dotrze i ją przeczyta, jak wielu 35 / L. Rosenfeld, P. Morville, Architektura informacji, op. cit., s. 41. 36 / Ibidem. 37 / T. Frontczak, Marketing internetowy w wyszukiwarkach, op. cit., s. 17.

powróci do niej powtórnie. Możemy wyobrazić sobie niezwykle wartościowy pod kątem merytorycznym serwis: bogata bibliografia, znani w literaturze przedmiotu autorzy treści. Niestety, jeśli informacje zostaną zaprojektowane w sposób niezgodny z obowiązującymi zasadami marketingowymi, strona zginie w gąszczu podobnych sobie dokumentów 38. Witryna, aby żyć w Sieci, musi mieć nie tyle autorów, ile przede wszystkim odbiorców, im większe ich grono, tym lepiej. W przytoczonym powyżej aspekcie jego najważniejszymi wyznacznikami będą: optymalizacja stron pod kątem wyszukiwarek (SEO Search Engine Optimization) 39, badanie słów kluczowych 40, użyteczność i funkcjonalność stron internetowych 41. Aspekt narzędziowy Kolejnym sposobem oceniania, definiowania i określania informacji w Sieci jest podejście kładące nacisk na aspekt narzędziowy zaprojektowanie i wykonanie serwisu bądź witryny internetowej. Osoby zajmujące się technologiami internetowymi argumentują swoje podejście dowodząc, iż np. zastosowanie poszczególnych aplikacji DHTML 42 będzie lepsze dla prostych, statycznych witryn internetowych, dla których interaktywność nie odgrywa zbyt dużej roli, natomiast dla stron internetowych, np. o tematyce związanej z ekslibrisami czy małymi formami graficznymi, korzystniejszy będzie serwis wykonany we Flashu. Najważniejszą kwestią związaną z takim podejściem jest określenie wpływu technologii na zawartość treść dokumentu, a także na stopień relacji między, nadawcą a odbiorcą (interaktywność). Warto podkreślić, iż bardzo trudno jest rozdzielić niektóre aspekty związane z marketingiem, architekturą informacji i technologią. Wyznacznikami aspektu technologicznego są rozmaite aplikacje służące do budowania witryn internetowych: HTML, XHTML, CSS, JavaScript, XML, Flash i wiele innych. 38 / Por. K. Kondracka, Serwis idealny, Chip 2004, nr 2, ss. 32-36; M. Pięta, Raport z oblężonej witryny, Chip 2005, nr 1, ss. 130-133; R. Kostka-Zawadzki, Lepkość witryny?, Magazyn internetowy WWW 2002, nr 10, ss. 52-54. 39 / J. Duke, Zostań inżynierem SEO, Internet 2007, nr 2, ss. 41-44. 40 / Por. S. Thurow, Pozycjonowanie w wyszukiwarkach internetowych, op. cit. 41 / Por. J. Nielsen, Projektowanie funkcjonalnych serwisów internetowych, tłum. A. Bulandra, Gliwice 2003; A. Phyo, Web Design. Projektowanie atrakcyjnych stron WWW, tłum. M. Binkowski, Gliwice 2003. 42 / Zbiór rozszerzeń języka HTML, języków skryptowych oraz interfejsów, za pomocą których można umieszczać na stronach WWW animacje i treści interaktywne oraz które pozwalają na dynamiczne uaktualnienie zawartości stron.

Aspekt merytoryczny Ostatni ze sposobów postrzegania tworzywa internetowego określiłem jako merytoryczny. Koncentruje się on przede wszystkim na samej zawartości serwisu, a jego celem jest sprawdzenie treści pod kątem rzeczywistej wiedzy. Dobrym przykładem ukazującym jak duże znaczenie ma to podejście jest ogromny dziś portal encyklopedii Wikipedia 43, która dla wielu internautów szukających określonych informacji stanowi zdecydowanie najlepsze, często jedyne, źródło wiedzy. Tymczasem Wikipedia jest serwisem o charakterze otwartym (open project), w którym każdy użytkownik może być potencjalnym autorem treści. Aby przekonać się, jak często jest to projekt o wątpliwych naukowo informacjach, można wykonać proste doświadczenie. Wystarczy bowiem znaleźć kilka popularnych haseł, następnie skopiować je i w części, bądź też w całości, wkleić do okna wyszukiwarki Google. W wielu przypadkach okaże się, iż otrzymamy w rankingu stron dziesiątki dokumentów z tą samą treścią. Pytanie, jakie narzuca się każdemu, kto ocenia takie witryny brzmi: kto dokonał plagiatu?, czy ktoś skopiował informacje z Wikipedii 44, czy też odwrotnie, jakiś bliżej nieznany autor wyciął fragment witryny, a następnie wkleił go do Serwisu?. Nie należy, rzecz jasna, generalizować i wszystkich materiałów Encyklopedii sprowadzać do wspólnego mianownika, jednak w przypadku takich projektów nigdy nie będziemy mieć pewności, czy przeglądana przez nas zawartość spełnia podstawowe zasady źródeł o charakterze naukowym. Wyznacznikami tego podejścia mogą być następujące czynniki: zbadanie witryny pod kątem autorów poszczególnych artykułów, haseł itp., dokładne noty bibliograficzne strony bądź też całego serwisu, przypisy. 43 / http://www.wikipedia.org/. 44 / Por. M. Zimnicki, Plagiat, czyli cienka czerwona linia pomiędzy cytowaniem a przestępstwem, Internet 2006, nr 12, ss. 62-64.