Zastosowanie robota sieciowego w analizie internetowych systemów aukcyjnych



Podobne dokumenty
Zastosowanie robota sieciowego w analizie internetowych systemów aukcyjnych

Instrukcja do panelu administracyjnego. do zarządzania kontem FTP WebAs.

GEO-SYSTEM Sp. z o.o. GEO-RCiWN Rejestr Cen i Wartości Nieruchomości Podręcznik dla administratora systemu Warszawa 2007

Konfiguracja programu pocztowego Outlook Express i toŝsamości.

Instrukcja składania wniosku o dofinansowanie w systemie informatycznym IP na potrzeby konkursu nr 1/1.1.1/2015

Warszawa, lipiec 2013 r.

Bezpieczeństwo danych w internetowych sieciach społecznych na przykładzie portalu nasza-klasa.pl

ZESTAW PLATINUM. - instrukcja pobrania i instalacji certyfikatu niekwalifikowanego wersja 1.2

ZASADY KORZYSTANIA Z PLIKÓW COOKIES ORAZ POLITYKA PRYWATNOŚCI W SERWISIE INTERNETOWYM PawłowskiSPORT.pl

Internetowy moduł prezentacji WIZYT KLIENTA PUP do wykorzystania np. na stronie WWW. Wstęp

Technologie Internetowe Raport z wykonanego projektu Temat: Internetowy sklep elektroniczny

Współpraca Integry z programami zewnętrznymi

IG1: INSTALACJA KOMUNIKATORA GADU-GADU

Instrukcja składania wniosku o dofinansowanie w systemie informatycznym IP na potrzeby konkursu nr 1/1.1.1/2015

Instrukcja pobrania i instalacji. certyfikatu niekwalifikowanego na komputerze lub karcie kryptograficznej wersja 1.2


Dokumentacja programu Rejestr Informacji o Środowisku

Polityka prywatności dla strony ELCEN Sp. z o.o. z siedzibą w Gdyni

mcourser platforma edukacyjna z multimedialnymi mlibro Zestaw darmowych aplikacji do zainstalowania

REGULAMIN KORZYSTANIA Z INTERNETOWEGO SYSTEMU OBSŁUGI KLIENTÓW

REFERAT O PRACY DYPLOMOWEJ

5. Administracja kontami uŝytkowników

Certyfikat niekwalifikowany zaufany Certum Silver. Instrukcja dla uŝytkowników Windows Vista. wersja 1.1 UNIZETO TECHNOLOGIES SA

Ocena zachowania użytkowników platformy handlu C2C na podstawie eksploracji danych i ich aktywności w internetowym systemie aukcyjnym

Instrukcja uŝytkownika narzędzia Skaner SMTP TP. Uruchamianie aplikacji

Szanujemy Twoją prywatność. Zobacz nasze zasady Ochrony Prywatności Użytkowników RocketCv

1 Ochrona Danych Osobowych

Paczki przelewów w ING BankOnLine

POLITYKA PRYWATNOŚCI ORAZ POLITYKA PLIKÓW COOKIES W Sowa finanse

Strona wizytówka od 400 zł

POLITYKA PRYWATNOŚCI

Zdradzamy tajemnicę instalacji Moodle

Instytut-Mikroekologii.pl

Zasady przetwarzania danych

Polityka Prywatności Portalu Moviezer.com

POLITYKA BEZPIECZEŃSTWA INFORMACJI

Instrukcja Instalacji

Serwis nie zbiera w sposób automatyczny żadnych danych, z wyjątkiem danych zawartych w plikach cookies podczas samego korzystania z Witryny.

INSTRUKCJE WIKAMP Dotyczy wersji systemu z dnia

Memeo Instant Backup Podręcznik Szybkiego Startu

Sposoby analizy i interpretacji statystyk strony WWW.

A. Instalacja serwera www

SZKOLENIA I STUDIA PODYPLOMOWE DOFINANSOWANE Z EUROPEJSKIEGO FUNDUSZU SPOŁECZNEGO

Instrukcja składania wniosku o dofinansowanie w systemie informatycznym IP na potrzeby konkursu nr 1/4.1.4/2015

bo od managera wymaga się perfekcji

Program do obsługi ubezpieczeń minifort

II. PRZETWARZANIE DANYCH OSOBOWYCH:

Instrukcja wypełniania i rejestrowania wniosków on-line do wszystkich Akcji programu MłodzieŜ w działaniu

HOTSPOT. [ konfiguracja, rejestracja, użytkowanie ]

Instrukcja zakładania konta w portalu epuap i profilu zaufanego.


NARODOWE BIURO KONTAKTOWE

Opis systemu CitectFacilities. (nadrzędny system sterowania i kontroli procesu technologicznego)

Aby pobrać program FotoSender naleŝy na stronę lub i kliknąć na link Program do wysyłki zdjęć Internetem.

CENNIK USŁUG TELEKOMUNIKACYJNYCH

Serwis nie zbiera w sposób automatyczny żadnych informacji, z wyjątkiem informacji zawartych w plikach cookies.

Cookie Policy. 1. Informacje ogólne.

4. OGÓLNOPOLSKIE FORUM WYCHOWANIA PRZEDSZKOLNEGO ZAPISY - KROK PO KROKU

Certyfikat. 1 Jak zbieramy dane?

Instrukcja użytkownika. Aplikacja Smart Paczka DPD

Instrukcja logowania do systemu e-bank EBS

1 Jak zbieramy dane? 1/5

OPIS MODUŁU E-DORADZTWO ORAZ E-SZKOLENIA

Facebook, Nasza klasa i inne. podstawowe informacje o serwisach społeczności internetowych. Cz. 2. Facebook

POLITYKA PRYWATNOŚCI SERWIS:

Instrukcja UŜytkownika bazy ECAS

World Wide Web? rkijanka

ZAŁĄCZNIK NR 1 DO REGULAMINU SERWISU ZNANEEKSPERTKI.PL POLITYKA OCHRONY PRYWATNOŚCI

Procedura zamawiania licencji.

Przewodnik po konfiguracji Comarch ERP e-sklep z wszystko.pl

PekaoBIZNES 24 Instrukcja obsługi dla Klienta

Serwis Aukcyjny JMLnet v1.0. Specyfikacja Techniczna

Zasady Wykorzystywania Plików Cookies

Sprawozdanie Laboratorium 4

Blokowanie stron internetowych

ROBOT SIECIOWY W EKSPLORACJI INTERNETOWEGO SYSTEMU AUKCYJNEGO I OCENA HANDLU C2C W POLSCE

Serwis realizuje funkcje pozyskiwania informacji o użytkownikach i ich zachowaniach w następujący sposób:

PLAN WYNIKOWY PROGRAMOWANIE APLIKACJI INTERNETOWYCH. KL IV TI 6 godziny tygodniowo (6x15 tygodni =90 godzin ),

POLITYKA PRYWATNOŚCI

Lingwistyczny system definicyjny wykorzystujący korpusy tekstów oraz zasoby internetowe.

Instrukcja Dostawcy Platformy Zakupowej Grupy CIECH S.A.

Internet wyszukiwarki internetowe

ROZDZIAŁ 2. INTERNET. Lekcja 5. Temat: Przeglądanie stron internetowych

EXSO-CORE - specyfikacja

instrukcja INSTALACJI APi_proxy

Temat: Ułatwienia wynikające z zastosowania Frameworku CakePHP podczas budowania stron internetowych

SZCZEGÓŁOWY OPIS SPOSOBU DOSTĘPU DO INFORMACJI I DANYCH ZAWARTYCH W RAPORTACH SKŁADANYCH DO KRAJOWEJ BAZY DLA GIOŚ I WIOŚ

Dokumentacja systemu NTP rekrut. Autor: Sławomir Miller

Serwis jest dostępny w internecie pod adresem Rysunek 1: Strona startowa solidnego serwisu

Komunikator internetowy w C#

Instrukcja. Elektronicznej Skrzynki Podawczej

3. DyplomyDlaDzieci.pl dokłada szczególnej staranności do poszanowania prywatności Klientów odwiedzających Sklep. 1 Zbieranie danych

APLIKACJA SHAREPOINT

Poczta elektroniczna ( ) służy do przesyłania i odbierania listów elektronicznych np.: wiadomości tekstowych, multimedialnych itp.

Instrukcja zarządzania kontami i prawami

1.2 Prawa dostępu - Role

Podręcznik dla szkół podstawowych składających ankietę dotyczącą działań o charakterze edukacyjnym w ramach programu Owoce i warzywa w szkole w

KRÓTKI PRZEWODNIK Z ZAKRESU OBSŁUGI APLIKACJI PB ONLINE

Polityka prywatności serwisu

Transkrypt:

Zastosowanie robota sieciowego w analizie internetowych systemów aukcyjnych Artur Strzelecki, Tomasz Bacewicz, Marcin Ściański Słowa kluczowe: roboty sieciowe, aukcje internetowe Dynamiczny rozwój Internetu niesie ze sobą nowe moŝliwości, ale takŝe nowe zagroŝenia i wymagania. Oczywiste jest, Ŝe aby przemysł rozwijał się w sposób prawidłowy, dynamiczny i konkurencyjny wymagana jest jego jak najszersza automatyzacja. Korzystając dziś z najnowszych technologii pomiarowych automatyzujemy niemal kaŝdy proces produkcyjny. Dzięki temu wyraźnie zwiększamy jego efektywność, poprzez obniŝenie kosztów pracy ludzkiej oraz wyeliminowania błędów jakie człowiek moŝe popełnić w procesie decyzyjnym. Podobnie naleŝy postąpić w przypadku analizy tak ogromnego zasobu informacji jakim jest sieć Internet i wszystkich informacji zawartych na poszczególnych stronach. Dodanie duŝych zasobów informacji do Internetu lub ich pobranie i analiza wymagają pełnej automatyzacji. Manualne zebranie i opracowanie takiego ogromu informacji jest niemoŝliwe do wykonania w czasie rzeczywistym. Mechanizmy automatycznie przeszukujące Internet w celu zebrania informacji wymaganych przez ich autora nazywamy robotami sieciowymi. Roboty sieciowe Najbardziej powszechnym rodzajem tego typu aplikacji są roboty indeksujące wyszukiwarek internetowych. Doskonałym przykładem moŝe być Googlebot pracujący dla najpopularniejszej wyszukiwarki internetowej Google, który przechodzi pomiędzy poszczególnymi stronami korzystając z odnośników na nich umieszczonych. Tworzy on sieć powiązań pomiędzy stronami i na podstawie ich siły reprezentowanej wynikiem algorytmu 1

PageRank i jego późniejszych modyfikacji przedstawia rezultaty na stronie z wynikami wyszukiwania. Googlebot został zaprogramowany w dwóch wersjach. Pierwsza z nich to deepbot, która ma za zadanie zindeksować jak najwięcej informacji na uŝytek wyszukiwarki, drugi natomiast to freshbot, mający na celu odnalezienie w sieci nowo powstałych witryn internetowych, które przez pewien okres czasu są w wyszukiwarce Google promowane. Robotami tego typu moŝemy świadomie kierować wykorzystując plik robots.txt, w którym zawieramy instrukcje zezwalające na indeksowanie wybranych części serwisu i blokowanie innych. Roboty wyszukiwarek są aplikacjami uŝytecznymi dla całej internetowej społeczności. Ułatwiają nam szybkie odnalezienie wymaganych informacji. Niestety nie robią tego bezkosztowo, poniewaŝ wykorzystują zasoby transferu jakim dysponuje strona. Omówiony rodzaj programu jest robotem pobierającym informacje z sieci, ale to tylko jeden z wielu typów robotów sieciowych. Drugą bardzo duŝą i niestety szkodliwą dla twórców stron internetowych oraz administratorów for internetowych grupą robotów są spamboty. Spamboty mają za zadanie przede wszystkim umieszczanie i rozpowszechnianie informacji w sieci. Dwa najpowszechniejsze typy spam botów to email spambot i forum spambot. Pierwszy z nich przeszukuje Internet w poszukiwaniu adresów e-mail, które zostają zapisane w jego bazie danych. Wyszukiwanie zostaje przeprowadzone w tekście reprezentującym kod strony internetowej pobranym poprzez protokół HTTP, za pomocą wyraŝeń regularnych które opisują ogólny wzór składni poprawnego adresu e-mail np.: \b[a-z0-9._%+-]+@[a-z0-9.-]+\.[a-z]{2,4}\b. Następnie na zebrane adresy e-mail rozesłana zostaje wiadomość najczęściej zawierająca treści reklamowe lub niebezpieczne odnośniki prowadzące do zainstalowania niepoŝądanego oprogramowania na naszym komputerze. Problemy jakie wiąŝą się z takimi programami to tworzenie niepotrzebnego 2

ruchu w Internecie, obciąŝającego jego infrastrukturę oraz zasypanie naszych skrzynek mailowych niechcianymi wiadomościami. Forum spambot słuŝy natomiast do umieszczania informacji reklamowych na forach dyskusyjnych. Roboty tego typu są w stanie przejść poprzez proces rejestracji uŝytkownika i w losowym temacie załoŝonym uprzednio na forum dodawać swoje wiadomości. Zawierają one najczęściej teksty reklamowe wraz z odnośnikami do promowanych stron. Masowe umieszczanie odnośników do wybranej strony na wielu forach prowadzi do wzrostu wartości PageRank w wyszukiwarce Google, pozwalając wypromować w ten sposób stronę internetową, skutkując jednocześnie przekłamaniem realnej wartości strony i trafności wyszukiwania. Programami typu spambot nie moŝemy w Ŝaden sposób kierować. Wpływ jaki ma na nie uŝytkownik to próba ich zablokowania, poprzez zablokowanie adresów e-mail, z których wysyłane są wiadomości lub tych z których poszczególne roboty rejestrują się jako uŝytkownicy forum. Dodatkowo w procesie rejestracji wymaga się odczytania grafiki zawierającej ciąg znaków zapisany w sposób utrudniający podejrzenie go za pomocą systemów rozpoznających znaki. W sieci istnieją równieŝ strony tworzące masowe ilości losowych (nieistniejących) adresów e-mail, zawierających jednocześnie odnośniki do swoich kopii, skutecznie zapełniając bazę danych robotów bezuŝytecznymi informacjami. Najbardziej neutralnym typem robotów sieciowych są programy tworzące kopie stron na uŝytek off-line lub pomagające w przeniesieniu ich na serwer zapasowy. Kopiują one informacje jedynie w ramach jednej domeny nie przechodząc i nie pobierając danych z linków zewnętrznych. Aplikacje tego typu najpowszechniej stosowane były w czasach gdy dostęp do łączy szerokopasmowych i stałego dostępu do Internetu był silnie ograniczony. 3

Przyglądając się sposobowi przepływu danych w globalnej sieci oraz wykorzystaniu robotów sieciowych moŝemy intuicyjnie dokonać pewnego porównania Internetu do wielkiego rynku informacji, na którym pewne zbiory cennych danych są strzeŝone a dostęp do nich zostaje ograniczony lub staje się odpłatny. Natomiast inne informacje za pomocą organizacji marketingowych jakimi niewątpliwie stają się roboty sieciowe zostają wypromowane. Co więcej za pomocą robotów sieciowych jesteśmy w stanie zebrać interesujące nas informacje na temat wybranej grupy społecznej i skutecznie wykorzystać je w celu promowania lub rozwoju naszej strony internetowej. NaleŜy pamiętać jednak, Ŝe ocena sposobu owej promocji oraz konkurencji zawsze styka się z tematem etyki działania w Internecie. Budując aplikacje sieciowe nie zapominajmy o tym, aby ich działanie nie było uciąŝliwe dla współuŝytkowników Internetu. Nie naleŝy naruszać ich prawa do prywatności, a jeŝeli sami posiadamy waŝne informacje powinniśmy zadbać o ich poprawne zabezpieczenie. Obszary działania robota sieciowego Pierwszym napisanym i wykorzystanym przez autorów robotem sieciowym był program słuŝący do pobierania i zapisywania wybranych i powszechnie dostępnych informacji na temat transakcji dokonywanych na portalu aukcyjnym Allegro. Zamierzeniem autorów była analiza komentarzy wystawianych po zakończeniu aukcji internetowych i określenie na tej podstawie poziomu uczciwości poszczególnych sprzedawców. Realizacja zaplanowanych funkcjonalności wymagała sprzęgnięcia robota z bazą danych MySQL. Pozwoliło to zapisywać napływające dane w czasie rzeczywistym i jednocześnie je porządkować. Wystarczająca okazała się baza danych składająca się z dwóch tabel. W pierwszej mieściło się 6 kolumn, w drugiej tylko 3. Autorzy w pierwszej tabeli zapisywali kolejno: 4

- identyfikator transakcji, który przyjmował unikatowe wartości, począwszy od jedności, - identyfikator sprzedawcy, - identyfikator kupującego, - numer aukcji, - typ komentarza, przyjmujący wartość 2 dla komentarza pozytywnego, wartość 1 dla komentarza neutralnego oraz wartość 0 dla negatywnie ocenionej transakcji, - datę wystawienia komentarza. W drugiej tabeli pojawiały się następujące informacje: - numer uŝytkownika Allegro, - nazwa uŝytkownika, - stan konta (zawieszony / aktywny). Sam program napisano w języku Perl, przy wykorzystaniu bibliotek LWP::UserAgent oraz LWP::RobotUA. Początkowo autorzy przygotowali wersję działającą w oparciu o język PHP i bibliotekę curl, jednak wersja ta, przy zastosowaniu identycznego algorytmu, okazała się znacznie wolniejsza. Ponadto serwer Allegro identyfikował robota jako przeglądarkę i po wysłaniu ogromnej ilości Ŝądań z jednego komputera w sposób regularny, zostawało nakładane ograniczenie na szybkość połączenia, co w praktyce uniemoŝliwiało dalsze gromadzenie danych. Przejście na biblioteki języka Perl dało moŝliwość lepszej kontroli nad tym, jak identyfikowany jest skrypt w sieci oraz jakie ślady pozostawia na serwerach. To pozwoliło na nienaruszoną, kilkudniową pracę skryptu. Nadanie robotowi toŝsamości, inicjalizacja połączenia z bazą danych oraz ustawienie częstotliwości wysyłania zapytań do serwera odbywały się w pierwszych dwudziestu pięciu liniach kodu. 5

Rdzeniem skryptu była sekcja, składająca się z dwóch zagnieŝdŝonych pętli, w której następowała analiza zawartości strony internetowej portalu. W tej części wykorzystano mechanizm wyraŝeń regularnych, wydajnie działający w języku Perl. Właściwość ta sprawia, Ŝe język Perl jest bardzo popularnym i co najwaŝniejsze, efektywnym narzędziem do pracy z tekstem. Poprzez porównywanie zawartości pobranej strony internetowej ze specjalnie przygotowanymi wzorcami, robot był zdolny do pozyskania tylko niezbędnych treści oraz zapisania ich w odpowiednich zmiennych. Takie działanie przyniosło wiele korzyści, gdyŝ początkowo program zapisywał treść całej strony do pliku na dysku, a dopiero potem następowało parsowanie tekstu. Zmiana podejścia przyniosła znaczną oszczędność ograniczonej przestrzeni dyskowej oraz wyraźnie zauwaŝalny wzrost szybkości działania programu. Ostatnim etapem było zapisanie w bazie danych wartości przechowywanych w zmiennych. Program sprawdzał, czy pobranie danej strony powiodło się, a w razie niepowodzenia ponownie ją pobierał. Dodatkowo robot sprawdzał czy dany uŝytkownik istnieje lub czy jego konto nie zostało zablokowane. Całość zajmowała około 140 linii kodu, które umoŝliwiły pobranie informacji o transakcjach około 7 milionów uŝytkowników. W oparciu o pierwsze doświadczenia z językiem Perl autorzy przygotowali kolejny program. Tym razem robot przeszukiwał portal społecznościowy nasza-klasa.pl. Zamierzeniem autorów było sprawdzenie, czy moŝliwe jest masowe pobranie danych osobowych uŝytkowników portalu. Pomysł zrodził się w związku z kontrowersjami wokół bezpieczeństwa danych przechowywanych na serwerach portalu. Poruszono takŝe problem legalności publikowanych informacji w świetle ustawy o ochronie danych osobowych. Jak więc widać, celem robota było 6

zgromadzenie moŝliwie jak największej ilości danych, pomimo zabezpieczeń wprowadzonych w portalu. Sam mechanizm pobierania informacji działał identycznie jak w pierwszym programie. Odpowiednio przygotowane wyraŝenia regularne i połączenie z bazą danych MySQL pozwoliły skutecznie gromadzić dane takie jak: imię, nazwisko, pseudonim szkolny, nazwisko rodowe (jeśli występowało) telefon, miasto, wiek, płeć, numer w komunikatorze Gadugadu oraz nazwę uŝytkownika w komunikatorze Skype. JednakŜe aby uzyskać dostęp do poszukiwanych informacji trzeba posiadać w portalu konto i przejść proces logowania. Z pomocą przyszła kolejna biblioteka Perla WWW::Mechanize, która umoŝliwiała wypełnienie odpowiednich pól w formularzu na stronie i przesłaniu danych. Pozostawało tylko stworzyć fikcyjne konto. Niestety, po pobraniu określonej liczby stron z danymi kolejnych uŝytkowników mechanizmy zabezpieczające portal blokowały tymczasowo moŝliwość przeglądania witryny naszemu nowo stworzonemu uŝytkownikowi. W trakcie kilku prób uruchomienia robota okazało się, Ŝe portal nasza-klasa.pl nie pozwala automatycznie przeglądać większej liczby stron jednemu uŝytkownikowi. Podjęto próby zbliŝenia zachowania robota do bardziej naturalnego dla zwykłych uŝytkowników (wyciete user-agent i referer). Niestety wydłuŝyło to tylko nieznacznie moment, w którym nasz wirtualny uŝytkownik o nazwie pająk informatyczny był blokowany przez portal. W tym krótkim czasie około 15 minut robot był w stanie pobrać na łączu o prędkości 512 kbps informacje o jednym tysiącu uŝytkowników. Nie ulega wątpliwości, Ŝe to działanie zabezpieczające zostało podjęte z uwagi na liczne juŝ próby pobrania danych z portalu. Z pewnością świadczy o tym równieŝ komunikat 7

jaki zostaje wyświetlony po zablokowaniu konta z powodu nadmiaru pobranych danych: Serwery są przeciąŝone, prosimy spróbować ponownie.(wyciety RYSUNEK Z PANEM GABKA) Aby obejść to zabezpieczenie autorzy zdecydowali się na wykorzystanie wielopoziomowych serwerów proxy, co dało moŝliwość regularnej zmiany adresu IP komputera z którego wysyłano Ŝądania. Takie rozwiązanie choć skuteczne, znacznie spowolniło proces pobierania danych i było o wiele mniej stabilne zdarzało się ze robot tracił połączenie z serwerami proxy. Do bazy została pobrana próbka danych wielkości 5022 rekordów. W tej grupie ok. 10% uŝytkowników podało swój numer komunikatora Gadu-gadu, jednak juŝ tylko mniej niŝ 2% uŝytkowników podało swoją nazwę w komunikatorze Skype. Numer telefonu był dostępny u około 2% uŝytkowników. PowyŜsze wyliczenia pokazują, Ŝe uŝytkownicy pragnąc zachować pewien określony stopień prywatności, nie podają informacji umoŝliwiających bardzo łatwy, bezpośredni kontakt. Pomimo euforii panującej wokół portalu, uŝytkownicy zdają się rozumieć związane z nim zagroŝenia. Analiza transakcji w systemie aukcyjnym Stworzony mechanizm robota sieciowego pozyskuje pełną informację o wszystkich zrealizowanych transakcjach aukcyjnych oraz o uczestnikach tych transakcji. Pełna kolekcja danych trwała 9 dni i 3 godziny, kosztowała około 510GB transferu i zebrała wszystkie komentarze o zakończonych aukcjach od początku istnienia serwisu do marca 2008. Badaniom zostały poddane następujące informacje o transakcjach na aukcjach internetowych: 8

Tabela 1. Statystyka zebranej kolekcji danych Liczba transakcji 112498829 Komentarze pozytywne 111169681 Komentarze neutralne 513982 Komentarze negatywne 815166 Liczba sprzedających 1686954 Liczba kupujących 3612891 Źródło: opracowanie własne Rysunek 1 ilustruje liczbę transakcji zakończonych wystawieniem komentarza, na rysunku nie ma transakcji z lat 2000-2001, których jest znikoma liczba. Wraz z upływem czasu widać wzrost liczby realizowanych transakcji. Dynamika wzrostu utrzymuje się na średnim poziomie 109% rocznie, przy czym w ostatnim roku było to tylko 49%. Wyniki pokazują rosnące znaczenie zawieranych transakcji C2C. Grudzień i marzec kaŝdego roku cechują się silnym skokiem w górę, co związane jest ze wzmoŝonymi zakupami świątecznymi. 9

Rys 1. Dzienna liczba transakcji w latach 2002-2007 W trakcie empirycznej analizy danych autorzy wykryli bardzo niepokojącą sytuację. Przy zawieszonych kontach uŝytkowników z pierwszej dziesiątki najgorszych sprzedawców cały czas pojawiają się pozytywne komentarze. Chronologiczny numer aukcji ujawnia, Ŝe są to aukcje, które odbyły się na kilka miesięcy do kilku lat przed zablokowaniem konta sprzedawcy. Prawdopodobnie istotna część komentarzy jest wystawiana przez uczestników posiadających fałszywe toŝsamości i posługujących się nimi do manipulowania opinią sprzedawców. Przy kontach uŝytkowników, którzy nie są zawieszeni przez serwis, a posiadają ogromną liczbę przeprowadzonych transakcji, spora część komentarzy jest równieŝ wystawiana do aukcji, które odbyły się w okresie od kilku miesięcy do kilku lat wstecz. Rysunek 2 przedstawia liczbę wystawionych komentarzy do transakcji z co najmniej sześciomiesięcznym opóźnieniem od rzeczywistego końca transakcji. Takich komentarzy jest ponad 1,5% łącznej liczby transakcji. Niepokoi to, Ŝe zachowanie dotyczy sprzedających z największym wolumenem sprzedaŝy. 10

Rys 2. Liczba transakcji, do których komentarz jest opóźniony co najmniej o 6 miesięcy Rysunek 3 przedstawia dynamikę przyrostu uŝytkowników serwisu Allegro wraz z jego zagranicznymi oddziałami w Bułgarii, Czechach, Rosji, Rumunii, Słowacji, Ukrainie i na Węgrzech. Zaobserwowano stałą tendencję wzrostową, osiągającą od początku 2008 roku średni przyrost 7921 uŝytkowników dziennie. Co ciekawe, na wykresie widać, Ŝe liczba nowo rejestrowanych uŝytkowników posiada minima lokalne pod koniec grudnia oraz przez cały lipiec kaŝdego roku. Pobrano informacje o 10 054 530 kontach uŝytkowników. 12% wszystkich kont jest zawieszonych, natomiast 26% kont nigdy nie było uŝywanych. 11

Rys 3. Dzienna liczba rejestracji w latach 2000-2007 Rysunek 4 pokazuje dynamikę aktywności uŝytkowników serwisu z podziałem na pełnione funkcje sprzedających i kupujących. Na wykresie znajduje się łączna liczba kupujących i sprzedających biorących udział w transakcjach w rocznym przekroju. Z kaŝdym rokiem zwiększa się liczba kontrahentów biorących udział w transakcjach. 12

Rys 4. Aktywność uŝytkowników z podziałem na pełnione role w kolejnych latach Rys 5. Data ostatniego zalogowania się uŝytkownika do serwisu, ciemniejszy obszar dotyczy uŝytkowników z zawieszonym kontem Rysunek 5 pokazuje ostatnią datę zalogowania się do systemu Allegro wszystkich jego uŝytkowników do końca października 2007 roku 13

uwzględniając uŝytkowników z zawieszonymi kontami. Dotyczy to tylko tych uŝytkowników, którzy kiedykolwiek byli aktywni na Allegro, czyli co najmniej raz zalogowali się do serwisu po załoŝeniu konta. Od początku roku do 10 marca br. z Allegro aktywnie korzystało 3546640 uŝytkowników. Z wykresu wykluczono dwie daty, w których serwis Allegro dokonywał strategicznych decyzji rozwojowych. Dotyczy to zmiany rosyjskiej nazwy swojego odpowiednika z Aukro.ru na Motolok.ru, w ten dzień przestano monitorować ponad 700 tys rosyjskich uŝytkowników oraz wycofanie się z rynku holenderskiego, gdzie korzystało ponad 120 tysięcy uŝytkowników. Na wykresie niŝsza warstwa reprezentuje uŝytkowników z zawieszonymi kontami. Podsumowanie Analiza poszczególnych parametrów w określonych przedziałach czasowych pozwala ukazać, w jaki sposób zmienia się wolumen transakcji oraz sposób zachowania sprzedawców. Ponadto wskazuje na obecność w serwisie grupy komentarzy nienaturalnych tzn. nadmiernie opóźnionych do daty zawarcia transakcji oraz duŝej ilości komentarzy pozytywnych pojawiających się na koncie uŝytkownika, długo po jego zawieszeniu. Istotne jest, Ŝe cały proces analizy i wnioskowania został przeprowadzony w oparciu o dane największej liczby transakcji i uŝytkowników ich realizujących, jaka do tej pory brała udział od początku istnienia serwisu Allegro. Jesteśmy przekonani ze dogłębna analiza posiadanych informacji rozszerza naszą wiedzę o wzorcach zachowań uŝytkowników serwisów aukcyjnych, dzięki której moŝemy z większym zaufaniem podejść do internetowych transakcji aukcyjnych. Literatura 1. A. Strzelecki, T. Bacewicz, M. Ściański, Bezpieczeństwo danych w internetowych sieciach społecznych na przykładzie portalu naszaklasa.pl, [w:] Systemy Wspomagania Organizacji SWO 2008, pod 14

red. Małgorzaty Pańkowskiej T. Porębskiej-Miąc i H. Sroki, Wydawnictwo Akademii Ekonomicznej, Katowice 2008 2. A. Strzelecki, T.Bacewicz, M.Ściański, Ocena zachowania uŝytkowników platformy handlu C2C na podstawie eksploracji danych i ich aktywności w internetowym systemie aukcyjnym, e- mentor 2008, numer 2(24), s.76-82 3. A. Strzelecki, Transakcje na aukcjach internetowych źródłem wiedzy o jakości usług sprzedawców, Rozdział w monografii: Bazy danych: Rozwój metod i technologii, Praca zbiorowa pod redakcją: S. Kozielskiego, B. Małysiak, P. Kasprowskiego, D. Mrozka, Wydawnictwa Komunikacji i Łączności, Warszawa 2008, s. 175-184, 15