Jakość i wiarygodność informacji w perspektywie infobrokerskiej D R M A Ł G O R Z A TA K O W A L S K A I N S T Y T U T I N F O R M A C J I I B I B L I O L O G I I U N I W E R S Y T E T U M I K O Ł A J A K O P E R N I K A W T O R U N I U
Etapy pracy infobrokera identyfikacja potrzeb informacyjnych klientów, pozyskiwanie informacji, selekcja informacji, przetwarzanie informacji, gwarantowanie jej jakości, akredytacja informacji, udostępnianie informacji.
Termin jakość
Subiektywny wymiar Jakość jako wyjątkowość realizacja celów strategicznych, dążenie do budowania wyróżniającej się pozycji, przewagi. Jakość jako doskonałość podnoszenie kwalifikacji, doskonalenie metod, unowocześnianie, rozwój zasobów. Jakość jako spełnienie przypisanych funkcji zaspokojenie potrzeb zewnętrznych interesariuszy. Jakość jako korzystny stosunek efektów do nakładów racjonalne gospodarowanie nakładami materialnymi. Jakość jako transformacja zarządzanie zmianami przyczyniające się do ciągłej poprawy jakości. ISO 9000: stopień, w jakim zbiór inherentnych właściwości spełnia wymagania
Wartość informacji Każdy komunikat zawiera informację o potencjalnej wartości, która może zostać wykorzystana przez użytkownika lub nie. Trudno jest mówić o wartości czy jakości informacji, generalizując, czym jest w ogóle. Łatwiej jest mówić o jakości w odniesieniu do konkretnego przypadku, ponieważ to, co dla jednego użytkownika jest informacją wartościową, dla innego może nie stanowić żadnej wartości. Wartość każdej informacji może gwałtownie rosnąć (np. informacje technologiczne) lub gwałtownie spadać, kiedy problem został rozwiązany lub gdy termin przydatności informacji minął (np. dane rekrutacyjne). Wartość informacji nie może jednak zniknąć, ponieważ ta sama informacja może służyć innemu użytkownikowi do realizacji innych celów (informacja w ruchu). Syndrom kota w worku
Ocena wartości informacji Do najczęstszych miar należą: stopień wykorzystania informacji w procesie osiągania celu (ilość włożonej pracy do wykorzystania), ilość informacji niezbędna do osiągnięcia celu, pieniądz, kwota, jaką można osiągnąć albo zaoszczędzić dzięki danej informacji, liczba użytkowników, którzy zabiegają o daną informację, zaoszczędzony czas, stopień skuteczności podejmowanych decyzji i redukcji błędów.
Jakie własności powinny posiadać dostarczane przez infobrokera informacje? kodeks etyki infobrokerskiej, opracowany przez Stowarzyszenie Niezależnych Infobrokerów (The Association of Independent Information Professionals - AIIP): zapewnić klientom najbardziej aktualne i najbardziej dokładne (accurate) informacje, możliwe przy danym budżecie i w ramach czasowych wyznaczonych przez klientów; pomóc klientom w zrozumieniu wykorzystanych źródeł informacji i oczekiwanego stopnia ich wiarygodności. accurate relewantne: adekwatne odpowiedzi na zadane pytania, dokładne i aktualne, aktualność dostarczanych informacji jest niewątpliwie zależna od ustalonych kosztów świadczenia usługi informacyjnej, dotyczy to również jej dokładności, która w istotnym stopniu zależeć może od ustalonego czasu realizacji danej usługi.
10 wymiarów lub atrybutów informacji wg Holmesa Millera jakość informacji jest wartością nieustannie zmienną i zależną od jej odbiorcy, jakość informacji jest wyznaczana przez to, jak jest ona postrzegana przez jej odbiorcę-klienta, oszacowanie jakości odbywa się w dwóch etapach: I etap polega na wyliczeniu, które atrybuty są istotne; II etap polega na sprecyzowaniu, jak te atrybuty wpływają na odbiorców informacji. Atrybuty jakości informacji rozumiane jako własności informacji samej w sobie są ważne, lecz ważniejsze jest to, jak atrybuty te postrzega jej odbiorca jak informacja wpływa na jej odbiorcę. Odbiorca, nabywca informacji, jest centralną postacią procesu szacowania wartości informacji.
Atrybuty informacji wg Holmes a Atrybuty informacji relewancja (relevance) dokładność (accuracy) aktualność (timeliness) kompletność (completeness) koherencja (coherence) Charakterystyka Czy dostarczona informacja odpowiada na zapotrzebowanie odbiorcy-nabywcy? Jeśli tak nie jest, to odbiorca oceni informację jako nieadekwatną, niezależnie od posiadania przez informację pozostałych atrybutów. Ile danych zawiera informacja? Informacja używana w różnych celach wymagać będzie różnych stopni dokładności. Jest też możliwe, że informacja będzie zbyt dokładna, zbyt precyzyjna i będzie przekraczać zdolności pojmowania odbiorcy. Czy informacja nie jest zakurzona? Ten atrybut zależy nie tylko od tempa powstawania nowych informacji, które wypierają informacje dostępne dotychczas, ale także od szybkości przetwarzania nowych informacji i dostarczania ich do odbiorcy-nabywcy. Czy informacja zawiera odpowiednią ilość danych? Niekompletna informacja może być dla odbiorcy myląca, a stopień kompletności informacji jest również zrelatywizowany do jej nabywcy. Podobnie jak jest w przypadku zbyt dużej dokładności informacji, także nadmierna kompletność może przekraczać zdolności pojmowania odbiorcy. Czy poszczególne informacje wspierają się wzajemnie i są ze sobą spójne? Niekoherencja może być spowodowana przez występowanie elementów mylących lub formalnie niejednoznacznych, co może powodować odrzucenie informacji przez odbiorcę.
Atrybuty informacji wg Holmes a Atrybuty informacji odpowiedniość formatu (format) dostępność (accessibility) kompatybilność (compatibility) bezpieczeństwo (security) ważność, wiarygodność (validity) Charakterystyka W jaki sposób informacja jest zaprezentowana nabywcy? Dwoma czynnikami odpowiedniości formatu są forma prezentacji i kontekst interpretacji. Odpowiedniość formatu jest także zależna od odbiorcy i sposobu użycia informacji. Czy informacja jest dostępna dla odbiorcy zawsze, gdy zaistnieje taka potrzeba? Dostępność jest atrybut komplementarnym względem aktualności. Niedostępna informacja aktualna lub dostępna informacja, która straciła na aktualności, nie spełnia potrzeb informacyjnych odbiorcy-nabywcy. Czy informacja jest spójna z innymi? Jakość informacji nie zależy od informacji samej w sobie, lecz także od tego, jak może być ona powiązana z innymi informacjami i jako taka dostarczona do odbiorcy. Czy informacja jest chroniona przed dostępem dla niepowołanych osób oraz ochronę informacji oraz przed naturalnymi katastrofami? Informacja, która nie jest odpowiednio chroniona, może nie budzić zaufania i jej potencjał może nie być w pełni wykorzystany. Czy informacja jest prawdziwa i czy spełnia określone standardy dotyczące dokładności, aktualności, kompletności i bezpieczeństwa? Ważność lub wiarygodność informacji nie jest czynnikiem warunkującym jakość informacji, lecz raczej jej rezultatem. Wysoka wiarygodność przy słabej obecności pozostałych atrybutów może sprawić, że jakość tej informacji będzie nisko oceniona
Informacja prawdziwa? czy informacja relewantna zweryfikowana przez ekspertów? czy zadeklarowanie może gwarantować prawdziwość przekazanych informacji? Infopoint.pl gwarantuje wiarygodność przekazywanych danych. Infopoint.pl nie może jednak gwarantować prawdziwości tych danych etapem działalności infobrokera poprzedzającym udostępnienie informacji jest jej akredytacja, lecz nie weryfikacja, czyli wykazanie jej prawdziwości, wg Sabiny Cisek lepiej mówić o jakości niż o prawdziwości informacji.
Wiarygodność informatora Wiarygodny nadawca to osoba, która się zna na rzeczy i jest godna zaufania, lub ekspert, który kieruje się rzetelnością, tj. uczciwością i bezstronnością. Wiarygodność informatora nie jest pojęciem absolutnym, lecz jest zrelatywizowana do określonej dziedziny ten sam informator może być wiarygodny w jednej dziedzinie, lecz niewiarygodny w innej. Wiarygodność jest wyznaczona przez zbiór pytań, na które odbiorca informacji chce uzyskać odpowiedzi.
Dwa podejścia do wiarygodności informatora wg Jerzego Giedymina I. Informator jest wiarygodny w danej dziedzinie: gdy przekazał wiele informacji z tej dziedziny i rzadko popełniał błędy prawie wszystkie informacje okazały się prawdziwe to rozumienie wiarygodności zakłada znajomość przez odbiorcę informacji wartości logicznych stwierdzanych przez informatora zdań. II. Informator jest wiarygodny, jeśli: świadomie dąży do uzyskania i przekazania odpowiedniej informacji i posiada właściwe środki do realizacji tych dwóch celów, drugie rozumienie wiarygodności nie zakłada znajomości przez odbiorcę wartości logicznych stwierdzanych przez informatora zdań. Wiarygodność ocenia się na podstawie wiadomości o informatorze i sytuacji, w jakiej on działał. W tym sensie działalność wiarygodnego informatora jest celowym działaniem racjonalnym realizacją celu poznawczego i informacyjnego.
Testy informatora przypuszczenie, że informator w danej dziedzinie nie był kompetentny, np. w zakresie informacji gospodarczej; może to być założenie, że informator kierował się uprzedzeniami, dlatego skłonny był niektóre informacje (np. polityczne) zniekształcać lub przemilczać, założenie, że informator nie posiadał odpowiednich środków koniecznych do sprawdzenia niektórych stwierdzeń Niewiarygodność informatora polega nie tylko na podawaniu błędnych informacji lub kłamaniu, lecz także na licznych przemilczeniach. Dwóch odbiorców informacji może wydać podobną ocenę wiarygodności tego samego informatora tylko wtedy, gdy ich dziedziny są podobne, tj. mają prawie wszystkie elementy wspólne. Natomiast wyniki oceny wiarygodności informatora w danej dziedzinie zależą od krytycyzmu i kompetencji odbiorcy informacji. W rozszerzonej wersji wiarygodność informatora powinna spełniać cztery warunki, a są to: realizacja celu poznawczego, realizacja celu informacyjnego, posiadanie zdolności i kompetencji w danej dziedzinie, brak przymusu. Gdy wszystkie cztery warunki są spełnione, możemy stwierdzić wiarygodność informatora; niespełnienie coraz większej liczby tych warunków sprawia, że wiarygodność informatora drastycznie spada.
Koncepcja wiarygodności informatora w infobrokerstwie Koncepcja wiarygodności informatora Jerzego Giedymina, choć powstała kilkadziesiąt lat temu, do dziś zachowuje swoją wartość. Co więcej, powstanie i rozwój infobrokerstwa sprawiają, że jej wartość wzrasta. Dzięki niej możemy lepiej zrozumieć zasadę kodeksu AIIP, która zaleca pomoc odbiorcom informacji w zrozumieniu oczekiwanego stopnia wiarygodności wykorzystanych jej źródeł. Pokazuje ona także, z jednej strony, że wiarygodność nie jest bezwzględnym atrybutem nadawcy, z drugiej jednak strony, nie sprowadza wiarygodności informacji tylko do kwestii postrzegania jej przez odbiorcę. Istotne są cele i kompetencje nadawcy oraz kompetencje i krytycyzm odbiorcy. Informatorzy są wiarygodni w dziedzinach, które są wyznaczane przez zainteresowania odbiorców informacji.
Akredytacja Akredytacja informacji oznacza gwarantowanie jej jakości, zapewnienie rzetelności wyszukanych informacji. Akredytacja w zasadzie nie polega na wskazaniu prawdziwości informacji. Chodzi raczej o wskazanie informacji o wysokiej jakości. Infobroker bierze odpowiedzialność za aktualność, jakość i wiarygodność informacji. Można przyjąć, że informacja posiada ważność, jeśli może być zweryfikowana jako prawdziwa i spełnia odpowiednie standardy odnoszące się do dokładności, aktualności, kompletności i bezpieczeństwa. Dużo łatwiej jest akredytować informacje pochodzące z tzw. tradycyjnych źródeł zanim zostaną opublikowane zazwyczaj informacja w nich zawarta, jest już zweryfikowana, np. poprzez recenzję. Wysoki stopień akredytacji posiadają także informacje pochodzące ze źródeł dotyczących produktów i różnych procesów technologicznych zwłaszcza, gdy wiążą się z gwarancją producentów wzmacnianą ich odpowiedzialnością prawną.
Akredytacja (2) W procesie akredytacji można stosować m.in. metodę krzyżowej weryfikacji źródeł, tzn. sprawdzić informację w różnych źródłach, spróbować ją dzięki nim zweryfikować. Informacje można także zweryfikować poprzez kontakty z ich autorami oraz innymi specjalistami. Nade wszystko jednak, aby akredytować informację trzeba mieć orientację w danym problemie oraz zasobach informacji, umieć wartościować to, co się w nich znajduje, dokonywać selekcji i udzielać rekomendacji. Z informacją pochodzącą z Internetu sytuacja bywa odmienna. Co prawda jest wiele wartościowych materiałów, których jakość i rzetelność nie podlega dyskusji, ale zazwyczaj zasoby Internetu nie są wstępnie weryfikowane. W związku z tym akredytacja informacji wymaga od infobrokerów szerokiej wiedzy, często także wysokospecjalistycznej. Niejednokrotnie akredytacja informacji wymaga współpracy wielu specjalistów pełniących rolę konsultantów. Oceniają oni jednak raczej wyniki pracy infobrokera, a nie stanowią źródła informacji.
Ocena informacji elektronicznej Ocena informacji pochodzących ze stron WWW: wieloaspektowe przyjrzenie się informacji pod kątem jej cech formalnych i treściowych oraz określeniu, które z nich są najważniejsze w danym momencie i wobec konkretnych potrzeb (ocena merytoryczna). Ocena stron WWW: zbadanie i określenie stopnia, w jakim zasadnicze właściwości stron WWW spełniają wymagania jej użytkowników i twórców oraz standardów internetowych przyjętych zwyczajowo (np. netykieta) lub obowiązkowo (budowa adresu IP, URL) (ocena formalna, techniczna).
Ocena informacji pochodzących ze stron WWW Użytkownicy są przekonani, że Google daje im pewność, że informacja, którą rekomenduje (umieszcza na wysokich pozycjach listy odpowiedzi) jest prawdziwa, wiarygodna, aktualna itp. Wysoka pozycja w rankingu odpowiedzi wyszukiwarki Google, nawet wtedy, kiedy zupełnie nie zaspokaja ona potrzeb informacyjnych użytkowników oraz zawiera informacje, której nie potwierdzają inne źródła. Jakość rezultatów wyszukiwawczych pojmowana jest przez twórców i administratorów wyszukiwarki jako merytoryczne zasoby poświęcone dowolnemu zjawisku, dobrze opisane i umiejscowione na witrynie. Za zasoby niskojakościowe przyjmuje się tzw. webspam, czyli zasoby nie mające spójnej i ważnej treści merytorycznej - przede wszystkim takie, których główną funkcją jest sprzedaż reklam w różnej formie. Personalizacja wyników wyszukiwania i reklam ze względu na analizę zachowań wyszukiwawczych konkretnego użytkownika, anonimowego ze względu na brak profilu w usługach Google a wymagających logowania. Dane o historii wyszukiwania dla użytkowników anonimowych, Google pozyskuje analizując pliki cookies i własne pliki wyszukiwarki zostawiane w pamięci urządzenia, na którym z sieci korzysta użytkownik. Personalizacja staje się ograniczeniem, gdyż algorytmy wyszukiwarki dokonują selekcji wyświetlanych treści ich doboru ze względu na różne kryteria nie są to jednak kryteria wyszukiwawcze czy filtry wprowadzane świadomie przez użytkownika. PageRank - opiera się na analizie i punktowaniu powiązań hipertekstowych dokumentów w sieci WWW. Miernikiem prezentowanych na stronie informacji stał się jej odbiorca użytkownik Internetu, który linkując stronę internetową, oddaje na nią głos, podwyższając jej wskaźnik PageRank. W ten sposób to społeczność internetowa, budując sieć odsyłaczy, ma decydujący wpływ na kształt list rankingowych w wyszukiwarce. "white hat optimalization" ( ułatwia użytkownikom korzystanie z witryny, wspomaga tworzenie wysokiej jakości treści i przyspiesza ładowanie stron, co jest korzystne zarówno dla użytkowników, jak i dla wyszukiwarek ) i "black hat optimalization" (działania, które mają sprawić by witryna "znalazła się wyżej, niż na to zasługuje"). Działania spod znaku czarnego kapelusza to maskowanie i przekierowywanie, sztuczne zawyżanie znaczących słów kluczowych na stronie, umieszczanie słów kluczowych niezwiązanych z treścią, ukryty tekst lub odsyłacze, kopiowanie i wielokrotne publikowanie tej samej treści, tworzenie szkodliwych witryn (wyłudzających dane użytkowników, zawierających wirusy lub inne szkodliwe oprogramowanie), tworzenie systemów wymiany linków (tzw. farmy linków), które nie mają na celu nic poza zwiększeniem wskaźnika PageRank.
Ocena informacji pochodzących ze stron WWW Jakie materiały zawiera źródło informacji czy są to zestawione surowe dane, czy też zostały opatrzone komentarzem eksperckim i analizą, czy dokument jest recenzowany, czy źródło informacji poddało się jakiejś weryfikacji (np. konkurs)?, Czy informacja prezentowana jest w sposób referujący, skrótowy, a może składa się przede wszystkim z odnośników do innych źródeł internetowych?, Jakim językiem zostały podane informacje?, Czy prezentując informacje i dane strona odnosi się do ich pierwotnego pochodzenia cytuje badania, ekspertów, inne źródła? (jeśli tak to w jaki sposób to robi?), Kto jest zakładanym odbiorcą informacji i czy zasób prezentuje informacje w taki sposób, by były one dla niego zrozumiałe i satysfakcjonujące?, Czy zasób informacyjny prezentuje informacje, które można zweryfikować przy pomocy tzw. wiedzy ogólnej, czy istnieją inne źródła informacji, w których można to zweryfikować, czy nie operuje sensacją?, jak wyczerpujące i dokładne informacje zawiera?, Czy informacja ma jakiś kontekst religijny, komercyjny, ideologiczny, polityczny informacja o tym może pomóc w odpowiedzi na pytanie o obiektywizm treści?, Kto jest autorem treści i jakie kompetencje posiada?, Kto jest autorem/właścicielem strony internetowej? Czy informacja jest aktualna czy zamieszczono datę publikacji dokumentu, strony, czy jest ona zmieniana ręcznie czy automatycznym skryptem, czy informacje nie wyglądają na zdezaktualizowane czy podano, jak często aktualizowana jest strona.
Weryfikacja domeny jako element projakościowy Badania dowodzą, że u użytkowników Internetu zaufanie wzbudzają strony z domen edu i gov (strony edukacyjne i rządowe) oraz tworzone przez organizacje (org). Tymczasem stronę w domenie org może wykupić każdy. Warto sprawdzić stronę w wyszukiwarkach typu Whois (np. Whois NASK https://www.dns.pl/cgibin/whois.pl), które pozwalają na weryfikację takich danych jak: kto jest właścicielem domeny (nazwa, dane kontaktowe do właściciela, jaki jest jego status prawny, jak długo witryna funkcjonuje (trwałość vs efemeryczność). O stronie internetowej można się nieco dowiedzieć analizując dane formalne itp. domenę, w której umieszczona jest strona (np. gov, mil, edu, org, com), budowę adresu internetowego (tylda ~ to wskazówka, że strona jest prywatna, im dłuższy adres internetowy, np. ww.nazwa.pl/katalog/katalog2/katalog3/strona.html tym zasób umieszczony jest głębiej w hierarchii strony może to być witryna o mniejszym stopniu ważności, rzadziej aktualizowana; jeśli w adresie strony pojawiają się znaki szczególne np. % czy? oznacza to, że zasób jest wygenerowany automatycznie po zadaniu zapytania lub zainicjowaniu jakiejś akcji na stronie).
Badanie gęstości tekstu Istnieją różne współczynniki, stosowane do oceny czytelności tekstu. Aktualnie używa się około 100 formuł matematycznych pozwalających na ocenę czytelności tekstu. Większość tych formuł opiera się na założeniu, że łatwiejsze w zrozumieniu są krótkie wyrazy i zdania niż długie, rozbudowane wypowiedzi. Jednym ze stosowanych wskaźników jest tzw. współczynnik mglistości (Fog Index) Roberta Gunninga. Współczynnik mglistości Roberta Gunninga jest jednym z najprostszych i najbardziej efektywnych narzędzi do analizy jasności tekstu. Został on opracowany na potrzeby autorów anglojęzycznych, ale można go zastosować również do języka polskiego. Na stronie logios.pl można sprawdzić indeks mglistości - wkleić swój tekst i zaczekać na wynik, a następnie przyrównać go, do skali: przystępność na poziomie szkoły podstawowej - FOG 1-6 przystępność na poziomie gimnazjum - FOG 7-9 przystępność na poziomie szkoły średniej - FOG 10-12 przystępność na poziomie studiów licencjackich - FOG 13-15 przystępność na poziomie studiów magisterskich - FOG 16-17 przystępność na poziomie studiów doktoranckich - FOG 18-21 wymagany doktorat - FOG 22 i więcej.
Ocena stron WWW Metody techniczne, automatyczne polegające na wykorzystaniu nowych narzędzi analizujących strony WWW, weryfikujących kody źródłowe, język html i wskazujące błędy zapisów; Metody statystyczne - polegające na wyciąganiu wniosków z analizy danych zamieszczonych na stronach WWW (odnośników, ruchu użytkowników, frekwencji wyrazów). Metody te są często wspomagane technicznie przez programy takie, jak: Alexa.com, Wayback Machine, AwStats czy proste liczniki stron; Metody analityczne (eksperckie) polegające na wieloaspektowym przyjrzeniu się informacji pod kątem jej cech formalnych i treściowych oraz określeniu, które z nich są najważniejsze w danym momencie i wobec konkretnych potrzeb.
Narzędzia do sprawdzania poprawności stron WWW IE Inspector (http://www.ieinspector.com) grupa narzędzi wspomagających ocenę witryn. Jedno z nich - HTTP Analyzer - pozwala na monitorowanie, śledzenie i analizę ruchu na stronach w czasie rzeczywistym. Używane przez także przez takie firmy jak: Microsoft, Cisco, AOL i Google. Web Page Analizer (http://www.websiteoptimization.com/services/analyze) darmowe narzędzie pozwalające na sprawdzenie budowy i poprawności strony WWW. HTML Validator Pro (http://html.validator.pro) narzędzie sprawdzające poprawność strony; uwzględnia także poprawność językową i hiperłączy.
Narzędzia statystyczne Alexa (http://www.alexa.com) narzędzie opracowane w 1996 r., obecnie kontrolowane przez Amazon.com. Dostarcza informacje na temat generowanego ruchu do innych stron. Pomaga analizować witrynę, której adres URL się podaje. Przegląda ruch na stronach, podaje liczbę podlinkowań, a także wejść w określonym odcinku czasu, informuje o szybkości ładowania się stron, ewentualnie dodatkowych elementach wpływających na ocenę strony, np. recenzjach. Dzięki Alexa.com uzyskujemy także podstawowe informacje o rozwoju witryny. Google Analytics (http://www.google.pl/analytics) - narzędzie do analizy statystyk serwisów WWW dostępne dla każdej osoby posiadającej konto w Google. Jest darmowe dla użytkowników, których witryny są odwiedzane do 5 milionów razy miesięcznie. Obok podstawowych danych statystycznych udostępnia też informacje o sieci społecznościowej, wersję dla urządzeń mobilnych.
Narzędzia clicktrackingowe ClickHeat (http://www.labsmedia.com/clickheat/index.html) aplikacja oferowana przez labsmedia. Jest to oprogramowanie OpenSource, wydane na licencji GPL i udostępniane bezpłatnie. Pozwala na stworzenie wizualizacji kliknięć użytkownika na stronie WWW (stworzenie mapy kliknięć) i pokazanie gorących i zimnych stref klikania. Dostępna jest tez wersja demonstracyjna: http://www.labsmedia.com/admin/clickheat/index.php; login i hasło to: demo. CrazyEgg (http://www.crazyegg.com) odpłatne narzędzie zliczające liczbę kliknięć w określonym obszarze, dokładną listę elementów strony, które kliknął użytkownik wraz z dodatkowymi szczegółowymi informacji odnoszacymi się do nich, opcje heatmap i confetti (mapę wejść na stronę i kliknięć na niej). ClickDensity (http://www.clickdensity.com) odpłatne narzędzie do clicktrackingu wyposażone w opcję hover map (czas kliknięć), click map (pojedyncze kliknięcia) i heat map (mapa gorących miejsc). Na witrynie programu dostępna jest wersja demo.
Metody eksperckie
Inspekcje użyteczności Polegają na przeprowadzeniu formalnej kontroli, w jakim stopniu strona WWW spełnia wcześniej zdefiniowane wymagania odnośnie użyteczności czy ergonomii. Inspekcja polega na dokonaniu systematycznej kontroli według kolejnych pytań zawartych w liście kontrolnej. Lista kontrolna zwykle podzielona jest na sekcje, odpowiadające kilkunastu głównym kryteriom oceny. W ramach każdego kryterium podane jest kilka-kilkanaście wymagań, więc typowa lista składa się z ok. 100 pytań, a przeciętna inspekcja zajmuje ok. 1 2 godzin.
Testy użyteczności Metoda ta polega na tym, że użytkownicy zaproszeni do badania wykonują za pomocą systemu typowe zadania robocze. Badanie odbywa się w ściśle zaplanowany sposób pod kontrolą prowadzącego badanie i w obecności kamery. Jego celem jest zdobycie wiedzy, co użytkownikom utrudnia pracę oraz określenie, w jakich obszarach najbardziej konieczne są zmiany i udoskonalenia w sposobie obsługi produktu.
Metoda jakościowo-heurystyczna Jej twórcą jest Jakob Nielsen, pionier badań nad użytecznością WWW. Istotą tej metody jest zbadanie treści oraz jakości serwisu poprzez ocenę wcześniej wytypowanych elementów (heurystyk stosowanych w badaniach użyteczności, opracowanych przez World Wide Web Consortium). Grupa kilku ekspertów (analityków) wynotowuje wszystkie niezgodności z zasadamiheurystykami, a następnie porządkuje je w kolejności od najbardziej do najmniej uciążliwych dla użytkownika. Ocena heurystyczna może być stosowana praktycznie w dowolnym stadium projektu, jednakże preferowane jest przeprowadzanie jej po uzyskaniu informacji o kontekście użytkownika. W tej metodzie nie istnieją sztywne reguły wyboru kryteriów, które powinny być brane pod uwagę przy ocenie serwisu WWW. Nie ma reguł, jeśli chodzi o wagę i liczbę stosowanych kryteriów podczas oceny, wybór należy do oceniającego i powinien być dokonany w zależności od bieżących potrzeb i powodów, dla których dany serwis się ocenia.
10 heurystyk wg Jakoba Nielsena Pokazuj status systemu: system informacyjny powinien powiadamiać użytkowników o tym, co się z nim dzieje w rozsądnych okresach czasu (np. formularz Allegro, okruszki ). Zachowaj zgodność między systemem a rzeczywistością: system powinien komunikować się językiem użytkownika, przy pomocy słów, zwrotów, pojęć znanych użytkownikowi (nie tylko znawcy technologii). Powinien prezentować rzeczywisty obraz świata, podając informacje zgodne z naturalnym i logicznym porządkiem (systemem wiedzowym) (np. opis produktów). Daj użytkownikowi kontrolę: podgląd działań, możliwość wycofania się i ponawiania akcji (np. koszyk zakupów). Trzymaj się standardów i zachowaj spójność: konsekwencja w stosowaniu elementów i powiązań (np. logo po lewej, wyszukiwarka po prawej, identyczne formatowanie podstron). Zapobiegaj błędom: nie doprowadzaj do sytuacji, w której użytkownik, będzie miał wrażenie, że coś zadziało się nie tak (np. rezygnacja z zamówienia produktu).
10 heurystyk (2) Pozwalaj wybierać zamiast zmuszać do pamiętania: system powinien być tak skonstruowany, by użytkownik nie musiał go zapamiętywać i przypominać sobie różnych jego funkcji/opcji/części, by mógł działać intuicyjnie poprzez obiekty, formularze, dobrze umiejscowione i czytelne opcje (np. formularz wyboru koloru). Zapewnij elastyczność i efektywność: w miarę możliwości witryna powinna przyspieszać i usprawniać działanie systemu (zmiana czcionki, filtry wyszukiwawcze, wczytywanie strony na różnych urządzeniach). Dbaj o estetykę i umiar: uporządkowanie informacji, wystrzeganie się informacji i elementów nieistotnych, które dekoncentrują użytkownika, odwracając jego uwagę od właściwych treści. Zapewnij skuteczną obsługę błędów: nie atakujemy użytkowników technicznym słownictwem, nie piszemy, że błąd jest wynikiem nieodpowiednich działań użytkownika, lecz wskazujemy, co użytkownik ma zrobić dalej. Zadbaj o pomoc i dokumentację: należy zapewnić użytkownikom pomoc w obsłudze strony, poprzez stworzenie odsyłaczy do odpowiednich działów pomocy czy FAQ.
Kryteria oceny wg Helge Clausena struktura i wygląd stron (organizacja treści, racjonalne użycie grafiki), jakość informacji (instytucja sprawcza, aktualizacja, poprawność, ilość informacji), odnośniki i nawigacja (adnotacje, ilość odsyłaczy, łatwość przeglądania), wrażenie estetyczne (kolory, czcionki, format), różne (pomoc, użytkownik), ogólne (oryginalność, przyjazność serwisu).
Kryteria oceny wg Alistair Smith zakres (tematyczny, chronologiczny, formalny), zawartość treści (obiektywizm, instytucja sprawcza, aktualizacja, oryginalność, odsyłacze, pisownia), grafika i multimedia (audio, wideo, kolory, grafika), cel utworzenia serwisu (określony, jasny), użytkownik (użyteczność i przyjazność), recenzje (czy strony oceniono i jak), technika (efektywność, sprzęt, wyszukiwarki, organizacja serwisu, interaktywność, szybkość ładowania, stosowanie rozwiązań standardowych). cena (płatny czy bezpłatny serwis).
Benchmarking Dokonywanie pomiarów własnych produktów, służb i usług na tle najlepszych konkurentów lub podmiotów uważanych za przodujące w danej branży (liderów). Służy to identyfikowaniu najlepszych praktyk. W metodzie tej dokonuje się wyboru cech i obszarów badawczych podlegających ocenie. Następnie ustala się punktację, jaka będzie nadawana za te cechy. Po wystawieniu ocen, dokonuje się zestawienia wyników (dla poszczególnych cech i sumarycznie) w postaci tabel, wyodrębnia się lidera i cechy najbardziej pożądane. Dobra do badania stron WWW.
Benchmarking (2) Cechy odnoszące się do treści serwisów WWW: Informacje o bibliotece i jej działalności, Zasoby tradycyjne biblioteki w serwisie, Katalog online, Zasoby elektroniczne biblioteki, Usługi biblioteczne i informacyjne, Komunikacja z użytkownikiem, Promocja biblioteki i serwisu, Serwis biblioteczny jako element środowiska informacyjnego uczelni, Cechy odnoszące się do funkcjonalności serwisów: Przejrzystość, Komunikatywność, Spójność i konsekwencja, Prewencyjność, Narzędzia nawigacji, Sprawność, Sekwencyjność, Elastyczność, Aktualność.
Ocena jakości - podsumowanie zadanie trudne, bo zdeterminowane wieloma czynnikami (subiektywność, relatywność, przydatność), wymagające wiedzy i znajomości źródeł informacji (metod ich konstruowania, opracowania, użytkowania), wymagające zdroworozsądkowego podejścia i sceptycyzmu, realizowane jako proces ciągły. Jakość bez wyników jest bezcelowa. Wyniki bez jakości są nudne (Johan Cruyff)
Wybrana literatura Bednarek-Michalska B., Ocena jakości informacji elektronicznej. Pułapki sieci, Biuletyn EBIB [online] 5/2007. Dostępny w Internecie: http://www.ebib.info/2007/86/a.php?bednarek. Boruszewski J., Jakość i wiarygodność informacji w infobrokerstwie, Lingua ac Communitas 2012, vol. 2, s. 241-250. Cisek S., Problem prawdy w działalności informacyjnej. Zarys problematyki [online]. Dostępny w Internecie: http://www.slideshare.net/sabinacisek/problem-prawdy-w-dziaalnoci-informacyjnej-zarys-problematyki. Giedymin J., Wiarogodność informatora. Próba eksplikacji dwóch pojęć z zakresu analizy i krytyki źródeł historycznych, [w:] Pawłowski T. (red.), Logiczna teoria nauki, Warszawa 1966, s. 607-631. Miller H., The multiple dimensions of information quality, Information Systems Management 1996, no. 13(2), s. 79-82. Nielsen J., Ten Usability Heuristics [online]. Dostępny w Internecie: http://www.useit.com/papers/heuristic/heuristic_list.html. Stankiewicz K., Wpływ Internetu na percepcję wiarygodności informacji, [w:] Haber L. H. (red.), Społeczeństwo informacyjne. Wizja czy rzeczywistość?, t. 2, Kraków 2004, s. 407-415.
Kontakt: Małgorzata Kowalska Instytut Informacji i Bibliologii Uniwersytetu Mikołaja Kopernika w Toruniu http://www.inibi.umk.pl/~koma/ koma@umk.pl