EKSPLORACJA ZASOBÓW INTERNETU - MIŁOSZ KADZIŃSKI LABORATORIUM X CRAWLOWANIE
|
|
- Dominika Kaczmarek
- 9 lat temu
- Przeglądów:
Transkrypt
1 EKSPLORACJA ZASOBÓW INTERNETU - MIŁOSZ KADZIŃSKI LABORATORIUM X CRAWLOWANIE 1. Plan laboratorium X 1.1. Podstawowe zastosowania crawlerów 1.2. Przebieg procesu crawlowania 1.3. Charakterystyka crawlera 1.4. Moduły crawlera 1.5. Omówienie zadania do realizacji w zespołach 2. Crawlowanie Skąd wyszukiwarka wie, że wszystkie te strony zawierają dany term? Wiele nazw: crawler, spider, robot (bot), web agent, wanderer,worm, itd. Gromadzenie stron z sieci w celu ich zindeksowania. Dwa główne wymagania: szybkość i efektywność (zgromadź tak wiele użytecznych (useful) stron i linków między nimi, jak to tylko możliwe) Zastosowanie: Wsparcie działania wyszukiwarek (Google, Yahoo, MSN/Windows Live, Ask, itd.). Wyszukiwarki specjalizowane dla określonego segmentu zawartości online, np. wiadomości, zakupy, przepisy, recenzje, itd. Inteligencja biznesowa (business intelligence): śledzenie działań rywali, partnerów. Monitorowanie interesujących stron. Zło :) zbieranie i dla późniejszego wysłania spamu, phishingu
2 Proces crawlowania (sekwencyjnego): a) Crawler rozpoczyna od zbioru początkowego (seed set) adresów URL do pobrania Inicjalizacja listy Q b) Crawler pobiera i parsuje strony odpowiadające adresom; potem wyciąga z nich tekst oraz linki Dopóki Q nie jest puste lub nie upłynął limit czasu: Pobierz URL, L, z początku Q Jeśli L nie jest stroną HTML (.gif,.jpeg,.ps,.pdf,.ppt ), kontynuuj Jeśli L już odwiedzono, kontynuuj Załaduj stronę P znajdującą się pod adresem L Jeśli nie można pobrać P (np. 404, polityka względem robotów), kontynuuj. Parsuj P, by otrzymać listę nowych linków N c) Dla nowych (lub zmienionych) stron, tekst jest wrzucany na wejście programu indeksującego; linki (URL) są dodawane na listę adresów URL do odwiedzenia (URL frontier, crawling agenda) Zindeksuj P (np. dodaj do ineksu odwrotnego) Dodaj N na koniec listy Q d) (ciągłe crawlowanie) Już pobrane strony są doklejone to URL frontier w celu odwiedzenia ich w późniejszym terminie Najprostszy crawler w Perlu: = read_seeds($file); while (@frontier && $tot < $max) { my $next_link = my $page = fetch($next_link); add_to_index($page); = extract_links($page, $next_link); process(@links); } - 2 -
3 Crawler musi: rozpoznawać strony, które odwiedził (sieć to graf, a nie drzewo); pobrać stronę w celu jej zindeksowanie pod względem zawartości; efektywnie indeksować odwiedzone strony; najczęściej indeksowanie stron z wykorzystaniem URL jako klucza; musi przestrzegać ograniczeń zdefiniowanych przez właścicieli stron (robot exclusion). Cechy dobrego crawlera: jakość (quality) wykrycie najbardziej użytecznych stron w celu zindeksowania ich w pierwszej kolejności; uprzejmość (politeness) odpowiednio dostosowana polityka częstości wizyt crawlera; odporność (robustness) umiejętność poradzenia sobie ze spider-traps (cykle, strony dynamiczne; nie wywalać się, jeśli pobranie strony się nie powiodło; mechanizm timeout); efektywność (efficiency) mądrość w użytkowaniu procesora, pamięci (np. tak mało uśpionych procesów jak to tylko możliwe); świeżość (freshness) ciągłość crawlowania sieci (częstotliwość odwiedzania strony powinna być bliska jej częstotliwości modyfikowania); rozszerzalność (extensibility) wspieranie nowych formatów danych (np. bazujących na XML), nowych protokołów (np. ftp), itd.; rozproszenie (distribution) jeśli to możliwe i crawlowane ma być sporo stron, to proces powinien być rozproszony na wiele maszyn; skalowalność (scalability) proces crawlowania powinien być łatwo rozszerzalny w przypadku dodania nowych maszyn i zasobów. Architektura crawlera niezbędne moduły URL frontier zarządzanie adresami URL stron do pobrania. DNS resolution określanie hosta (serwera), z którego należy pobrać stronę. Moduł pobierania pobranie strony w celu jej dalszego przetwarzania. Moduł parsowania identyfikacja tekstu i linków. Eliminacja duplikatów wykrywanie URL (i ewentualnie zawartości), które zostały przetworzone niedawno
4 URL frontier Zadanie: zarządzanie kolejnością odwiedzania URL. Strony o wysokiej jakości, które są często odświeżane powinny być częściej crawlowane (mieć wyższy priorytet) Crawler może wykorzystywać różne sposoby crawlowania breadth-first search (standardowa metoda; FIFO (dodajemy na koniec listy); jeśli zaczniemy od dobrych stron, to inne dobre strony powinny być blisko) albo depth-first search (LIFO (dodajemy na początek listy) daje depth-first search; lost in cyberspace ) Topic-Directed Spidering Preferuj strony dotyczące określonego tematu. Dany jest opis danego tematu lub próbki stron, które są przedmiotem zainteresowania Posortuj strony w kolejce wg podobieństwa stron, które do nich linkowały i/lub tekstów z linków do opisu tematu. Link-Directed Spidering Dokonaj analizy linków wchodzących i wychodzących dla każdej strony.. Posortuj kolejkę stron wg liczby linków wchodzących (strony popularne, authorities) lub liczbę linków wychodzących (strony podsumowujące, drogowskazy w sieci; hubs) Crawler może być ograniczony do działania na określonym hoście lub katalogu (usuwanie linków z kolejki stron do odwiedzenia). Sieć jest dynamiczna: wiele nowych stron, uaktualnienia, inne strony znikają, itd. Crawler okresowo musi sprawdzać uaktualniania i usunięcia: header info (META tag dot. ostatniej aktualizacji) Określ, jak często dana strona jest odświeżana i dostosuj do tego częstość crawlowania - 4 -
5 DNS resolution Domain Name System. Tłumaczenie nazwy serwera i domeny na adres IP. Działa jak książka telefoniczna. Konieczność komunikacji z serwerem DNS (które być może będzie musiał skontaktować się z innymi serwerami DNS) Wąskie gardło crawlowania. Współbieżność: Działanie crawlera jest narażone na wiele opóźnień: Przetłumaczenie host name z URL na adres IP z wykorzystaniem DNS Połączenie z serwerem i wysłanie żądania Otrzymanie żądanej strony w odpowiedzi Nowe żądania są przetwarzane dopiero, gdy aktualne żądania jest obsłużone Rozwiązanie: Nałożenie opóźnień na siebie przez pobieranie wielu stron równocześnie Wiele wątków/procesów Każdy wątek/process działa jak crawler sekwencyjny, z zastrzeżeniem, że wszystkie dzielą struktury danych: URL frontier i repozytorium danych Dostęp do dzielonych struktur danych musi być synchronizowany (blokady dla współbieżnych zapisów) Łatwo osiągnąć dzięki temu przyspieszenie rzędu 5-10 razy - 5 -
6 Parsowanie HTML ma strukturę drzewa DOM (Document Object Model) Wiele stron jest niepoprawnych pod względem składni stron Na szczęście, istnieją narzędzia, które pozwalają z tym walczyć, np. tidy.sourceforge.net Link Extraction URL Syntax <scheme>://<authority><path>?<query>#<fragm ent> authority przekłada się na <host>:<portnumber> query przekłada się na <variable>=<value>&<variable>=<value> fragment (reference, ref) wskaźnik w ramach dokumentu służący do przejścia do tekstu oznaczonego tagiem <A NAME= <fragment> > Znalezienie i wydobycie wszystkich linków na stronie <a href= > <frame src= site-index.html > Uzupełnienie adresów względnych z wykorzystaniem aktualnego adresu URL (base URL z nagłówka http lub meta tagu http) <a href= lab10 > to <a href=../wd/kolo.html > to URL canocalization Wszystkie poniższe adresy: odpowiadają: i trzeba je sprawdzić do tej formy, by uniknąć duplikacji Niektóre transformacje są trywialne:
7 Inne transformacje wymagają heurystycznych założeń co do intencji autora lub konfiguracji serwera: Usunięcie domyślnej nazwy: Rozsądne w ogólnym wypadku, ale czasem domyślną stroną może być np. default.asp Dodanie / przy założeniu o wystąpieniu katalogu: Skąd pewność, że nie ma tam pliku o nazwie fil? Spider traps: Zwrócić uwagę na wszystko, co może prowadzić do zbyt wielu żądań do jednego serwera. Nieskończona liczba stron generowanych automatycznie przez skrypty CGI. Dziwne ścieżki. Obrona: sprawdzać długość URL (próg np. 128 znaków), uważać na strony z dużą liczbą linków; eliminować URL z nietekstowymi typami danych; zabronić crawlowania dynamicznych stron (jeśli można je wykryć) Pobieranie strony Podaj swoją tożsamość: Wykorzystaj nagłówek HTTP User-Agent do identyfikacji crawlera, podania strony z jego opisem i kontaktu do twórcy ( ) Nie wolno fałszować swojej tożsamości (np. kopiować tekst podawany przez przeglądarki jako User- Agent ) Podstawowe zasady: Przestrzegania zasady uprzejmości (brak powtórnych pobrań stron z danego hosta). Tylko jedno otwarte połączenie z danym hostem w określonym momencie. Poczekaj kilka sekund pomiędzy kolejnymi żądania do hosta. Najprostszy sposób: przechowuj każdą stronę w osobnym pliku; generuje dużą liczbę plików; dla większych zastosowań nieefektywne. Lepszy sposób (dla większych zastosowań): złóż wiele stron w jeden plik i użyj znacznika XML do ich oddzielenia (konieczne mapowanie URL na {filename, page_id}) Baza danych: RDBMS; Berkeley DB Koniecznie zawsze sprawdź, czy żądanie http zakończyło się sukcesem; w przypadku błędu trzeba zidentyfikować problem (kod HTTP) i odpowiednio go zaadresować
8 Robots Exclusion Serwisy i strony określają, czy crawlery/roboty mogą/nie mogą indeksować dany obszar. Dwie możliwości: Robots Exclusion Protocol: specyfikacja katalogów wyłączonych z crawlowania dla danych robotów (useragent) poprzez umieszczenie pliku robots.txt w korzeniu hosta; zobacz np. cnn.com/robots.txt, ebay.com/robots.txt. Przykłady: Zakaz działania wszystkich robotów w całym serwisie User-agent: * Disallow: / Zakaz crawlowania określonych folderów: User-agent: * Disallow: /tmp/ Disallow: /cgi-bin/ Zakaz crawlowania dla określonych robotów: User-agent: GoogleBot Disallow: / Pozwolenie na crawlowanie określonemu robotowi: User-agent: GoogleBot Disallow: User-agent: * Disallow: / Podstawowe zasady: puste linie, by oddzielić User-agents; jeden katalog na linię Disallow; nie można wykorzystywać wyrażeń regularnych. # Robots.txt for (fragment) User-agent: Googlebot Disallow: /chl/* Disallow: /uk/* Disallow: /italy/* Disallow: /france/* User-agent: slurp Disallow: Crawl-delay: 2 User-agent: MSNBot Disallow: Crawl-delay: 2 User-agent: scooter Disallow: # all others User-agent: * Disallow: / Google może crawlować wszędzie poza tymi folderami Yahoo i MSN/Windows Live mogą crawlować wszędzie, ale muszą zwolnić AltaVista może crawlować bez ograniczeń Wszyscy pozostali: Get ouf of here! - 8 -
9 Robots META Tag Nowszy i mniej rozpowszechniony sposób niż robots.txt Uwzględnij META tag w sekcji HEAD danej strony: <meta name= robots content= none > przy czym content to para wartości dotyczących dwóch aspektów: index noindex: pozwól/zabroń indeksować stronę; follow nofollow: pozwól/zabroń na poruszanie się po linkach na stronie. Wartości specjalne: all=index,follow; none=noindex,nofollow Przykłady: <meta name= robots content= noindex,follow >, <meta name= robots content= none > Przykłady crawlerów: Reference C implementation of HTTP, HTML parsing, etc w3c-libwww package from World-Wide Web Consortium: LWP (Perl) Crawlery open source Nutch Heretrix: WIRE: Terrier: Open source topical crawlers
10 3. Zadanie do realizacji w grupach [9] Zadanie składa się z dwóch części, przy czym do realizacji drugiej konieczne jest wykonanie pierwszej. Dla uproszczenia dostępu do stron w sieci wykorzystany zostanie istniejący pakiet, który powstał dla potrzeb podobnego jak nasz kursu Information Retrieval and Web Search na University of Texas pod kierownictwem Raya Mooney i Teda Wilda. Dokumentacja kodu znajduje się pod adresem: Na oryginalny kod z UoT naniesiono kilka drobnych poprawek, które miały na celu wyeliminowanie błędów kompilacji dla nowszych wersji Java. Stąd lab10.jar, który jest do pobrania z katalogu lab10 różni się nieznacznie od ir.jar, który jest udostępniony na stronach UoT. Najważniejsza klasa, do której będziesz się odwoływał/a to Spider z pakietu ir.webutils. Użycie metody main() z odpowiednimi opcjami pozwala na rozpoczęcię procesu crawlowania od podanego URL, crawlowanie z wykorzystaniem metody breadth-first search oraz zachowanie stron/dokumentów w podanym folderze w celu ich późniejszego zindeksowania i przeszukiwania. Wywołanie funkcji main() z tej klasy przyjmuje kilka parametrów: -safe - oznacza, że przestrzegane będą zapisy plików typu robot exclusion; -u <start-url> - określa stronę, od której rozpocznie się crawlowanie; -d <save-directory> - określa folder na dysku lokalnym, w którym zachowywane będą strony (uwaga: folder należy utworzyć zanim rozpoczniesz crawlowanie); strony po zachowaniu w katalogu mają zmieniony nazwy na Pindeks.html (np. P001.html); -c <page-count-limit> - określa maksymalną liczbę stron, które zostan pobrane. Aby dokonać crawlowania kolekcji stron, na której sprawdzane będzie rozwiązanie poniższych zadań, należy użyć opcji: -u -d repository-folder -c 100 Wykonanie tego polecenia powinno skutkować pobraniem 64 stron (jeśli zaczniesz crawlowanie od dokumentu anaconda01.html, to gwarantowany jest dostęp do wszystkich dokument) i zapisaniem ich w katalogu repository-folder, który uprzednio należy utworzyć w wybranym przez Ciebie miejscu. Stworzono też specjalizacje klasy Spider: SiteSpider ogranicza crawlowanie do podanego hosta, a DirectorySpider do określonego folderu. Główne klasy wykorzystywane przez Spider przedstawiono na poniższym schemacie: String URL Link url HTMLPageRetriever gethtmlpage() LinkExtractor page extract() HTMLPage link text outlinks
11 Zadanie: Ściągnij lab10.jar, który zawiera pakiet information retrieval. Możesz go rozpakować, żeby zobaczyć kod źródłowy poszczególnych klas. Dla rozwiązania poniższych zadań nie powinieneś zmieniać kodu źródłowego, który został dostarczony (jeśli cokolwiek zmienisz co nie jest wskazane to musisz przesłać wszystkie klasy, które zmieniłeś). a) [6] Utwórz specjalizację klasy Spider o nazwie PageRankSpider, która oblicza PageRank crawlowanych stron na podstawie struktury połączeń pomiędzy nimi. Zaimplementuj (override) tylko te metody, których musisz użyć do rozwiązania zadania. W czasie crawlowania PageRankSpider powinien utworzyć graf sieci na bazie linków (wchodzących i wychodzących) między stronami. Do stworzenia grafu i manipulowania jego strukturą wykorzystaj klasy ir.webutils.graph oraz ir.webutils.node. Graph jest tworzony na podstawie danych odczytanych z pliku w formacie: w1 wierzchołek1_wskazywany_przez_w1 wierzchołek2_wskazywany_przez_w1 w2 wierzchołek1_wskazywany_przez_w2 wierzchołek2_wskazywany_przez_w2 wi lista_wierzchołków_wskazywanych_przez_wi Do grafu dodaj jako wierzchołki tylko te strony, które zachowano na dysku. Następnie uruchom algorytm PageRank dla tak utworzonego obiektu klasy Graph. Dla obliczenia miary PageRank utwórz klasę PageRankFile.java, która ostateczne wyniki działania algorytmu zapisze w pliku tekstowym pageranks, który powinien znajdować się w tym samym katalogu, co strony pobrane w procesie crawlowania (pamiętaj o wcześniejszym utworzenie tego katalogu). Format pliku powinien być następujący: nazwa_strony1.html wartość_pagerank1 nazwa_strony2.html wartość_pagerank2 Cały algorytm PageRank jest już zaimplementowany w klasie ir.webutils.pagerank, tyle że tam wyniki są wypisywane tylko na konsolę. Dla swoich obliczeń wykorzystaj parametry alpha=0.15 oraz iteration=50. Log działania PageRankSpider powinien zawierać: standardowe logi, które wypisuje Spider strukturę wierzchołkow w formacie: strona_1 -> [lista stron wskazywanych przez stronę_1], np. P1 -> [P2, P3] strona_2 -> [lista stron wskazywanych przez stronę_2] miary PageRank dla wszystkich zachowanych na dysku stron PR(strona_1) PR_strony_1 PR(strona_2) PR_strony_2 Działanie poprawności PageRankSpider programu możesz sprawdzić dla kolekcji testowej w katalogu W treści plików w tym folderze są wypisane wartości PageRank obliczone z użyciem zaimplementowanego w pakiecie algorytmu (nie przejmuj się drobnymi różnicami w sposobie obliczenia PageRank w stosunku do algorytmu omówionego w ramach naszego przedmiotu). b) [3] Koniecznie umieść plik stopwords.txt w katalogu głównym projektu (możesz go umieścić gdzie indziej pod warunkiem, że zrobisz sobie nowego jara, bo ścieżka do pliku stowords.txt jest niestety podana w kodzie). Utwórz specjalizację klasy InvertedIndex o nazwie PageRankInvertedIndex, aby w nowy sposób
12 obliczyć adekwatność stron do zapytania. PageRankInvertedIndex powinien nie tylko indeksować dokumenty i umożliwiać zadawanie zapytań jak InvertedIndex, ale również czytać wartości PageRank dokumentów, tzn. w chwili obliczenia miary podobieństwa dla danego zapytania, powinien dodać do klasycznie obliczonej miary dla danej strony wartość jej PageRanku przemnożoną przez parametr weight (podawany jako parametr z linii komend -weight value ; czyli ostatecznie new_score = score + weight * PageRank). Wywołanie klasy InvertedIndex może przyjmować trzy parametry, po czym podawany jest folder, gdzie znajduje się kolekcja stron, która ma być indeksowana. Dla uproszczenia przyjmijmy, że lista parametrów PageRankInvertedIndex ma wyglądać w następujący sposób -weight value repository-folder, a więc bez parametrów oryginalnie rozważanych w InvertedIndex. Jako rozwiązanie prześlij: klasy PageRankSpider.java, PageRankFile.java oraz PageRankInvertedIndex.java dwa trace y z działaniu programu: jeden dla crawlowania stron; drugi dla interakcji programu z użytkownikiem z zadaniem trzech zapytań (np. anaconda, programming, python ) przez użytkownika i wyświetleniem wyników opartych na uwzględnieniu miary PageRank (np. dla weight=2)
Tomasz Boiński: 1. Pozycjonowanie stron i zastosowanie mod_rewrite
Tomasz Boiński: 1 Pozycjonowanie stron i zastosowanie mod_rewrite Pozycjonowanie stron Promocja strony odbywa się poprzez umiejscowienie jej jak najwyżej w wynikach wyszukiwania Wyszukiwarki indeksują
Badanie struktury sieci WWW
Eksploracja zasobów internetowych Wykład 1 Badanie struktury sieci WWW mgr inż. Maciej Kopczyński Białystok 214 Rys historyczny Idea sieci Web stworzona została w 1989 przez Tima BernersaLee z CERN jako
Laboratorium - Używanie programu Wireshark do obserwacji mechanizmu uzgodnienia trójetapowego TCP
Laboratorium - Używanie programu Wireshark do obserwacji mechanizmu uzgodnienia trójetapowego Topologia Cele Część 1: Przygotowanie Wireshark do przechwytywania pakietów Wybór odpowiedniego interfejsu
SIP Studia Podyplomowe Ćwiczenie laboratoryjne Instrukcja
SIP Studia Podyplomowe Ćwiczenie laboratoryjne Instrukcja Instytut Telekomunikacji Wydział Elektroniki i Technik Informacyjnych Politechnika Warszawska, marzec 2015 Wprowadzenie Ćwiczenie jest wykonywane
Jarosław Kuchta Administrowanie Systemami Komputerowymi. Internetowe Usługi Informacyjne
Jarosław Kuchta Internetowe Usługi Informacyjne Komponenty IIS HTTP.SYS serwer HTTP zarządzanie połączeniami TCP/IP buforowanie odpowiedzi obsługa QoS (Quality of Service) obsługa plików dziennika IIS
Mapa witryny - Poradnik od A do Z
Mapa witryny - Poradnik od A do Z Submit URL czy mapa Google? Istnieje specjalny formularz Google do zgłaszania nowych podstron w serwisie, który potrafi błyskawicznie dodać adres URL do indeksu wyszukiwarki:
Dokumentacja wstępna TIN. Rozproszone repozytorium oparte o WebDAV
Piotr Jarosik, Kamil Jaworski, Dominik Olędzki, Anna Stępień Dokumentacja wstępna TIN Rozproszone repozytorium oparte o WebDAV 1. Wstęp Celem projektu jest zaimplementowanie rozproszonego repozytorium
Kontrola sesji w PHP HTTP jest protokołem bezstanowym (ang. stateless) nie utrzymuje stanu między dwoma transakcjami. Kontrola sesji służy do
Sesje i ciasteczka Kontrola sesji w PHP HTTP jest protokołem bezstanowym (ang. stateless) nie utrzymuje stanu między dwoma transakcjami. Kontrola sesji służy do śledzenia użytkownika podczas jednej sesji
Wyszukiwarki stosują różne metody oceny stron i algorytmy oceniające za indeksowane strony różnią się w poszczególnych wyszukiwarkach, ale można
Wyszukiwarki stosują różne metody oceny stron i algorytmy oceniające za indeksowane strony różnią się w poszczególnych wyszukiwarkach, ale można jednak wyróżnić 3 główne elementy, które brane są pod uwagę:
Generatory pomocy multimedialnych
Generatory pomocy multimedialnych Storna 1 Instalacja generatorów oraz praca z generatorem puzzli, memory oraz grupowania.* *Projekt jest całkowicie finansowany z programu Kapitał Ludzki, III Wysoka jakoś
SEM-friendly IT czyli jak codzienna praca w IT moŝe ułatwić Ŝycie innym ;)
SEM-friendly IT czyli jak codzienna praca w IT moŝe ułatwić Ŝycie innym ;) Maciej Gałecki bluerank Gdańsk, 28-29 maja 2009r. 1 Agenda SEM-friendly IT, czyli IT przyjazne wyszukiwarkom to przede wszystkim:
Dokumentacja Użytkownika Systemu
Dokumentacja Użytkownika Systemu Porównywarki cen Liquid Wersja 2016.2 Spis treści 1 WSTĘP... 3 2 OPIS OBSZARU... 4 2.1 TOWARY... 5 2.2 RELACJE... 5 2.3 EDYTUJ... 6 2.3.1 KONFIGURACJA... 6 2.3.2 KATEGORIE...
Przebudowujesz serwis lub przenosisz na nową domenę? Oto najważniejsze tematy, o które musisz zadbać!i
Przebudowujesz serwis lub przenosisz na nową domenę? Oto najważniejsze tematy, o które musisz zadbać!i Przebudowa serwisu, zwłaszcza taka która wiąże się ze zmianą adresów URL lub przeniesieniem serwisu
Instalacja i konfiguracja serwera IIS z FTP
Instalacja i konfiguracja serwera IIS z FTP IIS (Internet Information Services) jest to usługa dostępna w systemach z rodziny Windows Server, pozwalająca na obsługę i utrzymanie własnych stron WWW oraz
Laboratorium - Obserwacja procesu tłumaczenia nazw DNS
Laboratorium - Obserwacja procesu tłumaczenia nazw DNS Cele Część 1: Obserwacja konwersji DNS nazwy URL na adres IP. Część 2: Obserwacja procesu przeszukiwania nazw DNS, przy pomocy polecenia Nslookup
ZNACZNIKI META. Znacznik META
ZNACZNIKI META Znacznik META element dokumentu HTML dostarczający informacji niewidocznych dla użytkowników, lecz istotnych z punktu widzenia odbiorców dokumentu przeglądarek i serwisów wyszukiwawczych
Instrukcja użytkownika Porównywarki cen Liquid
Instrukcja użytkownika Porównywarki cen Liquid Wersja Spis treści 1 Wstęp... 3 2 Opis obszaru... 4 Towary... 5 Relacje... 6 Edytuj... 7 2.3.1 Konfiguracja... 7 2.3.2 Kategorie... 7 2.3.3 Ustawienia...
Audyt SEO. sklep-budowalny.pl. +531 525 600 biuro@semtec.pl www.semtec.pl. Biuro obsługi: al. Grunwaldzka 2/5 80-236 Gdańsk
Audyt SEO sklep-budowalny.pl Spis treści 1 WSTĘP... 3 2 ZALECENIA OGÓLNE... 5 2.1 OPTYMALIZACJA NAGŁÓWKÓW NA WSZYSTKICH PODSTRONACH... 5 2.2 KONFIGURACJA PARAMETRÓW W GOOGLE WEBMASTER TOOLS... 6 2.3 USUNIĘCIE
Podstawy technologii WWW
Podstawy technologii WWW Ćwiczenie 14 AJAX, czyli jak odświeżyć bez odświeżania, część trzecia Na dzisiejszych zajęciach będziemy kontynuować realizację serwisu do wymiany wiadomości z wykorzystaniem technologii
Laboratorium - Przechwytywanie i badanie datagramów DNS w programie Wireshark
Laboratorium - Przechwytywanie i badanie datagramów DNS w programie Wireshark Topologia Cele Część 1: Zapisanie informacji dotyczących konfiguracji IP komputerów Część 2: Użycie programu Wireshark do przechwycenia
OPTYMALIZACJA SERWISÓW INTERNETOWYCH >>>WIĘCEJ<<<
INTERNETOWYCH. Wszystko O Pozycjonowaniu I Marketingu. >>>POZYCJONOWANIE STRON BYDGOSZCZ OPTYMALIZACJA SERWISÓW INTERNETOWYCH >>>WIĘCEJ
Win Admin Monitor Instrukcja Obsługi
Win Admin Monitor Instrukcja Obsługi czerwiec 2019 wersja dokumentu 1.7 dla wersji aplikacji 2.1.1.0 Spis treści: I. Wstęp 3 II. Wymagania systemowe 4 III. Ograniczenia funkcjonalne wersji demo 5 IV. Instalacja
Jak unikąć duplikacji treści na wersjach językowych sklepu PrestaShop?
Jak unikąć duplikacji treści na wersjach językowych sklepu PrestaShop? Wstęp Dzisiaj postanowiłem zająć się rozwiązaniem problemu sklepu internetowego, który został założony na platformie PrestaShop. Wykonując
Wybrane działy Informatyki Stosowanej
Wybrane działy Informatyki Stosowanej Dr inż. Andrzej Czerepicki a.czerepicki@wt.pw.edu.pl http://www2.wt.pw.edu.pl/~a.czerepicki 2017 Globalna sieć Internet Koncepcja sieci globalnej Usługi w sieci Internet
Szczegółowa specyfikacja funkcjonalności zamawianego oprogramowania.
Szczegółowa specyfikacja funkcjonalności zamawianego oprogramowania. Założenia projektowe systemu NETDOC. część 1: założenia ogólne i funkcjonalność rdzenia systemu Założenia ogólne Celem projektu jest
Analiza możliwości złośliwego oprogramowania vjw0rm w kampanii phishingowej PayU
Warszawa, 16.03.2016 Analiza możliwości złośliwego oprogramowania vjw0rm w kampanii phishingowej PayU CERT OPL, Analiza vjw0rm; Autor: Iwo Graj Strona 1 z 14 W pierwszej połowie marca w polskim internecie
Sieci komputerowe. Wykład 8: Wyszukiwarki internetowe. Marcin Bieńkowski. Instytut Informatyki Uniwersytet Wrocławski
Sieci komputerowe Wykład 8: Wyszukiwarki internetowe Marcin Bieńkowski Instytut Informatyki Uniwersytet Wrocławski Sieci komputerowe (II UWr) Wykład 8 1 / 37 czyli jak znaleźć igłę w sieci Sieci komputerowe
Autorytatywne serwery DNS w technologii Anycast + IPv6 DNS NOVA. Dlaczego DNS jest tak ważny?
Autorytatywne serwery DNS w technologii Anycast + IPv6 DNS NOVA Dlaczego DNS jest tak ważny? DNS - System Nazw Domenowych to globalnie rozmieszczona usługa Internetowa. Zapewnia tłumaczenie nazw domen
OBSŁUGA I KONFIGURACJA SIECI W WINDOWS
OBSŁUGA I KONFIGURACJA SIECI W WINDOWS Jak skonfigurować komputer pracujący pod kontrolą systemu operacyjnego Windows 7, tak aby uzyskać dostęp do internetu? Zakładamy, że komputer pracuje w małej domowej
Aplikacje internetowe - laboratorium
Aplikacje internetowe - laboratorium Administracja serwerem aplikacji. Celem ćwiczenia jest zainstalowanie i administracja prostym serwerem aplikacji. Ćwiczenie zostanie wykonane przy użyciu popularnego
Ćwiczenia 9: Zarządzanie konfiguracją Zadania:
Ćwiczenia 9: Zarządzanie konfiguracją Zadania: Konfiguracja repozytorium CVS: 1. Ściągnij i zainstaluj serwer CVS: CVSNT (www.cvsnt.org). 2. W konfiguracji repozytoriów (Panel Sterowania -> CVSNT) wybierz
MODEL WARSTWOWY PROTOKOŁY TCP/IP
MODEL WARSTWOWY PROTOKOŁY TCP/IP TCP/IP (ang. Transmission Control Protocol/Internet Protocol) protokół kontroli transmisji. Pakiet najbardziej rozpowszechnionych protokołów komunikacyjnych współczesnych
Laboratorium 1 Wprowadzenie do PHP
Laboratorium 1 Wprowadzenie do PHP Ćwiczenie 1. Tworzenie i uruchamianie projektu PHP w Netbeans Tworzenie projektu Uruchom środowisko NetBeans. Stwórz nowy projekt typu PHP Application (File->New Project,
1 Moduł Diagnostyki Sieci
1 Moduł Diagnostyki Sieci Moduł Diagnostyki Sieci daje użytkownikowi Systemu Vision możliwość badania dostępności w sieci Ethernet komputera lub innych urządzeń wykorzystujących do połączenia protokoły
INSTRUKCJA INSTALACJI I KONFIGURACJI APLIKACJI WEBSOFT CEIDG MONITOR
INSTRUKCJA INSTALACJI I KONFIGURACJI APLIKACJI WEBSOFT CEIDG MONITOR Producent: Nazwa oprogramowania: Printec Websoft CEIDG Monitor Aktualna wersja: 1.0 Ostatnia aktualizacja: 25.01.2015 Kontakt: biuro@e-printec.com.pl,
Books. by HansaWorld. Przewodnik instalacji. wersji 6.2
Books by HansaWorld Przewodnik instalacji wersji 6.2 Instalacja Przejdź do strony: http://books.hansaworld.com/downloads/hwindex.htm i pobierz najnowszą wersję oprogramowania Books. Otwórz Books.dmg i
Instrukcja konfiguracji funkcji skanowania
Instrukcja konfiguracji funkcji skanowania WorkCentre M123/M128 WorkCentre Pro 123/128 701P42171_PL 2004. Wszystkie prawa zastrzeżone. Rozpowszechnianie bez zezwolenia przedstawionych materiałów i informacji
Polityka prywatności dla
Polityka prywatności dla http://domynawitosa.pl Aplikacja gromadzi pewne dane osobowe od swoich użytkowników. Administrator i właściciel danych NT Solutions Sp. z o.o. biuro@ntechs.pl ul Grodzka 26/26
Krótka instrukcja instalacji
Krótka instrukcja instalacji Spis treści Krok 1 Pobieranie plików instalacyjnych Krok 2 Ekran powitalny Krok 3 Umowa licencyjna Krok 4 Wybór miejsca instalacji Krok 5 Informacje rejestracyjne Krok 6 Rozpoczęcie
KONFIGURACJA SERWERA USŁUG INTERNETOWYCH
Zespół Szkół Technicznych w Suwałkach Pracownia Systemów Komputerowych Ćwiczenie Nr 23 KONFIGURACJA SERWERA USŁUG INTERNETOWYCH Opracował Sławomir Zieliński Suwałki 2013 Cel ćwiczenia Nabycie praktycznych
SIECI KOMPUTEROWE I TECHNOLOGIE INTERNETOWE
Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania SIECI KOMPUTEROWE I TECHNOLOGIE INTERNETOWE Temat: Identyfikacja właściciela domeny. Identyfikacja tras
Katalog książek cz. 3: Web Service
Katalog książek cz. 3: Web Service Przygotowanie usługi sieciowej (web service) 1) Uruchom Netbeans, otwórz projekt przygotowany w ramach poprzednich zajęć. W kolejnych krokach przerobimy klasę BookManager
ALGORYTMICZNA I STATYSTYCZNA ANALIZA DANYCH
1 ALGORYTMICZNA I STATYSTYCZNA ANALIZA DANYCH WFAiS UJ, Informatyka Stosowana II stopień studiów 2 Dane w postaci grafów Przykład: social network 3 Przykład: media network 4 Przykład: information network
Laboratorium nr 4 - Badanie protokołów WWW
Data ćwiczenia: 29.03.2017 Prowadzący: dr inż. Piotr Kurowski Przedmiot: Sieci komputerowe i bazy danych Wykonawca: Klaudia Gurbiel Kierunek: Inżynieria mechatroniczna Rok III, Semestr VI Laboratorium
INSTRUKCJA INSTALACJI I KONFIGURACJI APLIKACJI WEBSOFT SITE ANALYZER 2.7.1
INSTRUKCJA INSTALACJI I KONFIGURACJI APLIKACJI WEBSOFT SITE ANALYZER 2.7.1 Producent: Lukaszjarosinski.com Nazwa oprogramowania: Websoft Site Analyzer 2.7.1 Wersja finalna: 28.02.2013 Kontakt: lukaszjarosinski@gmail.com,
Wykaz zmian w programie SysLoger
Wykaz zmian w programie SysLoger Pierwsza wersja programu 1.0.0.1 powstała we wrześniu 2011. Funkcjonalność pierwszej wersji programu: 1. Zapis logów do pliku tekstowego, 2. Powiadamianie e-mail tylko
Specyfikacja API Runtime BAS 3.0
Specyfikacja API Runtime BAS 3.0 Spis treści Wstęp... 4 Informacja o dokumencie... 4 Opis usługi... 4 Typowy sposób wywołania usługi... 5 Udostępniane funkcje... 6 Funkcje liczące... 6 Execute... 6 SafeExecute...
Programowanie w Sieci Internet JSP ciąg dalszy. Kraków, 9 stycznia 2015 r. mgr Piotr Rytko Wydział Matematyki i Informatyki
Programowanie w Sieci Internet JSP ciąg dalszy Kraków, 9 stycznia 2015 r. mgr Piotr Rytko Wydział Matematyki i Informatyki Co dziś będziemy robić JSP tags, Używanie tagów, Custom tags, JSP objests, Obiekty
Laboratorium 7 Blog: dodawanie i edycja wpisów
Laboratorium 7 Blog: dodawanie i edycja wpisów Dodawanie nowych wpisów Tworzenie formularza Za obsługę formularzy odpowiada klasa Zend_Form. Dla każdego formularza w projekcie tworzymy klasę dziedziczącą
Hosting WWW Bezpieczeństwo hostingu WWW. Dr Michał Tanaś (http://www.amu.edu.pl/~mtanas)
Hosting WWW Bezpieczeństwo hostingu WWW Dr Michał Tanaś (http://www.amu.edu.pl/~mtanas) Apache2 dyrektywy podstawowe Zajmują zawsze jedną linię tekstu Ogólna postać: Dyrektywa opcje Ich zasięg ogranicza
Panel administracyjny serwera: admin.itl.pl
Panel administracyjny serwera: admin.itl.pl I. Ogólne dane serwera. 1. Aktualny stan serwera W Panelu Administracyjnym możesz na bieżąco monitorować stan swojego serwera. Opcja "Aktualny stan serwera"
Instrukcja użytkownika
Instrukcja użytkownika Bydgoszcz 2017 Strona: 1/12 Spis treści 1 Konfiguracja i obsługa funkcjonalności... 3-1.1 Wstęp... 3 1.2 Konfiguracja stacji klienckiej... 3 1.3 Weryfikacja istniejącego dokumentu...
Opis administracji terminali ABA-X3 v.1.5.0
Opis administracji terminali v.1.5.0 System terminalowy jest scentralizowany oznacza to, że Użytkownik stacji roboczej (terminala) jest całkowicie uzależniony od konfiguracji wprowadzonej przez Administratora.
Jak posługiwać się edytorem treści
Jak posługiwać się edytorem treści Edytor CKE jest bardzo prostym narzędziem pomagającym osobom niezaznajomionym z językiem HTML w tworzeniu interaktywnych treści stron internetowych. Razem z praktyka
Współpraca z platformą dokumentacja techniczna
Współpraca z platformą Emp@tia dokumentacja techniczna INFO-R Spółka Jawna - 2016 43-430 Pogórze, ul. Baziowa 29, tel. (33) 479 93 29, (33) 479 93 89 fax (33) 853 04 06 e-mail: admin@ops.strefa.pl Strona1
Pomoc dla systemu WordPress
Pomoc dla systemu WordPress Ten plik pomocy przeznaczony jest dla pluginu stat24 w wersji 0.2. W tym pluginie porzucono wsparcie dla starszych wersji WordPress (niższych niż 1.5) oraz zrezygnowano z opcji
Instrukcja instalacji i obsługi programu Szpieg 3
COMPUTER SERVICE CENTER 43-300 Bielsko-Biała ul. Cieszyńska 52 tel. +48 (33) 819 35 86, 819 35 87, 601 550 625 Instrukcja instalacji i obsługi programu Szpieg 3 wersja 0.0.2 123 SERWIS Sp. z o. o. ul.
Budowa i oprogramowanie komputerowych systemów sterowania. Laboratorium 4. Metody wymiany danych w systemach automatyki DDE
Budowa i oprogramowanie komputerowych systemów sterowania Laboratorium 4 Metody wymiany danych w systemach automatyki DDE 1 Wprowadzenie do DDE DDE (ang. Dynamic Data Exchange) - protokół wprowadzony w
Silent setup SAS Enterprise Guide (v 3.x)
SAS Institute TECHNICAL SUPPORT Silent setup SAS Enterprise Guide (v 3.x) Silent Setup ( cicha instalacja oprogramowania) pozwala na instalację Enterprise Guide (lub całości oprogramowania SAS) na wielu
System operacyjny Linux
Paweł Rajba pawel.rajba@continet.pl http://kursy24.eu/ Zawartość modułu 15 DHCP Rola usługi DHCP Proces generowania dzierżawy Proces odnawienia dzierżawy Konfiguracja Agent przekazywania DHCP - 1 - Rola
Migracja Business Intelligence do wersji 2013.3
Migracja Business Intelligence do wersji 2013.3 Copyright 2013 COMARCH Wszelkie prawa zastrzeżone Nieautoryzowane rozpowszechnianie całości lub fragmentu niniejszej publikacji w jakiejkolwiek postaci jest
OMNITRACKER Wersja testowa. Szybki przewodnik instalacji
OMNITRACKER Wersja testowa Szybki przewodnik instalacji 1 Krok 1:Rejestracja pobrania (jeżeli nie wykonana dotychczas) Proszę dokonać rejestracji na stronieomninet (www.omnitracker.com) pod Contact. Po
ZPKSoft WDoradca. 1. Wstęp 2. Architektura 3. Instalacja 4. Konfiguracja 5. Jak to działa 6. Licencja
ZPKSoft WDoradca 1. Wstęp 2. Architektura 3. Instalacja 4. Konfiguracja 5. Jak to działa 6. Licencja 1. Wstęp ZPKSoft WDoradca jest technologią dostępu przeglądarkowego do zasobów systemu ZPKSoft Doradca.
System kontroli dostępu ACCO NET Instrukcja instalacji
System kontroli dostępu ACCO NET Instrukcja instalacji acco_net_i_pl 12/14 SATEL sp. z o.o. ul. Budowlanych 66 80-298 Gdańsk POLSKA tel. 58 320 94 00 serwis 58 320 94 30 dz. techn. 58 320 94 20; 604 166
Ataki na serwery Domain Name System (DNS Cache Poisoning)
Ataki na serwery Domain Name System (DNS Cache Poisoning) Jacek Gawrych semestr 9 Teleinformatyka i Zarządzanie w Telekomunikacji jgawrych@elka.pw.edu.pl Plan prezentacji Pytania Phishing -> Pharming Phishing
Przewodnik użytkownika (instrukcja) AutoMagicTest
Przewodnik użytkownika (instrukcja) AutoMagicTest 0.1.21.137 1. Wprowadzenie Aplikacja AutoMagicTest to aplikacja wspierająca testerów w testowaniu i kontrolowaniu jakości stron poprzez ich analizę. Aplikacja
Qmail radość listonosza. Autorzy: Bartosz Krupowski, Marcin Landoch IVFDS
Qmail radość listonosza Autorzy: Bartosz Krupowski, Marcin Landoch IVFDS 1 STRESZCZENIE Artykuł jest przedstawieniem podstawowej konfiguracji jednego z najpopularniejszych agentów MTA (Mail Transfer Agent)
SERWER AKTUALIZACJI UpServ
upserv_pl 02/14 SERWER AKTUALIZACJI UpServ SATEL sp. z o.o. ul. Schuberta 79 80-172 Gdańsk POLSKA tel. 58 320 94 00 serwis 58 320 94 30 dz. techn. 58 320 94 20; 604 166 075 info@satel.pl www.satel.pl SATEL
I. Informacje ogólne. Jednym z takich systemów jest Mambo.
MAMBO (CMS) I. Informacje ogólne CMS, Content Management System ("system zarządzania treścią") jest to jedna lub zestaw aplikacji internetowych pozwalających na łatwe utworzenie oraz późniejszą aktualizację
Books. by HansaWorld. Przewodnik instalacji. Wersji 6.2
Books by HansaWorld Przewodnik instalacji Wersji 6.2 Instalacja Przejdź do strony: http://books.hansaworld.com/downloads/hwindex.htm i pobierz najnowszą wersję oprogramowania Books. Na następnej stronie
Marketing dla komunikatorów i skaner numerów GG z internetu. System GGBlaster. Instrukcja obsługi
Marketing dla komunikatorów i skaner numerów GG z internetu System GGBlaster Instrukcja obsługi Zawartość Oprogramowanie GGBlaster... 3 Wymagania systemowe... 3 Zawartość oprogramowania... 3 Funkcje programu
System kontroli wersji - wprowadzenie. Rzeszów,2 XII 2010
System kontroli wersji - wprowadzenie Rzeszów,2 XII 2010 System kontroli wersji System kontroli wersji (ang. version/revision control system) służy do śledzenia zmian głównie w kodzie źródłowym oraz pomocy
1. Promocja sklepu. 1.1. Wysokość pozycjonowania.
1. Promocja sklepu Według Forrester Research ponad 80 proc. użytkowników sieci wykorzystuje wyszukiwarki internetowe do dotarcia do informacji dotyczących produktów i usług. Przeciętny internauta częściej
PDF TO FTP ZADANIA PROGRAMU:
PDF TO FTP I N S T R U K C J A Wersja instrukcji 1.1 Data publikacji 2018-11-19 ZADANIA PROGRAMU: Wyciąganie określonego ciągu znaków z pliku pdf Zmiana nazwy pliku pdf w oparciu o wyciągnięty ciąg znaków.
Programowanie w Sieci Internet Blok 2 - PHP. Kraków, 09 listopada 2012 mgr Piotr Rytko Wydział Matematyki i Informatyki
Programowanie w Sieci Internet Blok 2 - PHP Kraków, 09 listopada 2012 mgr Piotr Rytko Wydział Matematyki i Informatyki Co dziś będziemy robić Podstawy podstaw, czyli małe wprowadzenie do PHP, Podstawy
INTERNETOWE BAZY DANYCH materiały pomocnicze - wykład VII
Wrocław 2006 INTERNETOWE BAZY DANYCH materiały pomocnicze - wykład VII Paweł Skrobanek C-3, pok. 323 e-mail: pawel.skrobanek@pwr.wroc.pl INTERNETOWE BAZY DANYCH PLAN NA DZIŚ : Cookies Sesje Inne możliwości
Przypadki testowe. Spis treści. Plan testów. From Sęp. Wstęp. 2 Plan testów
Przypadki testowe From Sęp Spis treści 1 Wstęp 2 Plan testów 3 Testy bazy danych 4 Testy serwera 5 Testy aplikacji klienckiej 6 Testy interfejsu webowego 7 Testy integracyjne 8 Testy wydajności 8.1 Baza
Polityka prywatności Spółdzielni Mieszkaniowej Słoneczny Stok
Polityka prywatności Spółdzielni Mieszkaniowej Słoneczny Stok Spółdzielnia Mieszkaniowa Słoneczny Stok szanuje prawo do prywatności Użytkowników serwisu sm-slonecznystok.pl. W szczególności dba o ochronę
Serwer SSH. Wprowadzenie do serwera SSH Instalacja i konfiguracja Zarządzanie kluczami
Serwer SSH Serwer SSH Wprowadzenie do serwera SSH Instalacja i konfiguracja Zarządzanie kluczami Serwer SSH - Wprowadzenie do serwera SSH Praca na odległość potrzeby w zakresie bezpieczeństwa Identyfikacja
Technologie sieciowe Sprawozdanie z labolatorium. Lista 5
Politechnika Wrocławska Wydział Podstawowych Problemów Techniki Technologie sieciowe Sprawozdanie z labolatorium Lista 5 Autor: Piotr Kosytorz IIrokInf. indeks: 166174 Prowadzący: dr inż. Łukasz Krzywiecki
Tworzenie witryn internetowych PHP/Java. (mgr inż. Marek Downar)
Tworzenie witryn internetowych PHP/Java (mgr inż. Marek Downar) Rodzaje zawartości Zawartość statyczna Treść statyczna (np. nagłówek, stopka) Layout, pliki multimedialne, obrazki, elementy typograficzne,
Wprowadzenie do Doctrine ORM
Wprowadzenie do Doctrine ORM Przygotowanie środowiska Do wykonania ćwiczenia konieczne będzie zainstalowanie narzędzia Composer i odpowiednie skonfigurowanie Netbeans (Tools->Options->Framework & Tools->Composer,
Migracja Business Intelligence do wersji
Migracja Business Intelligence do wersji 2016.1 Copyright 2015 COMARCH Wszelkie prawa zastrzeżone Nieautoryzowane rozpowszechnianie całości lub fragmentu niniejszej publikacji w jakiejkolwiek postaci jest
Typy przetwarzania. Przetwarzanie zcentralizowane. Przetwarzanie rozproszone
Typy przetwarzania Przetwarzanie zcentralizowane Systemy typu mainfame Przetwarzanie rozproszone Architektura klient serwer Architektura jednowarstwowa Architektura dwuwarstwowa Architektura trójwarstwowa
Tworzenie Stron Internetowych. odcinek 5
Tworzenie Stron Internetowych odcinek 5 Nagłówek zawiera podstawowe informacje o dokumencie, takie jak: tytuł strony (obowiązkowy) metainformacje/metadane (obowiązkowa deklaracja
Referat z przedmiotu Technologie Internetowe SPIS TREŚCI
SPIS TREŚCI 1.Dwie metody przekazu danych do serwera 2 2.Metoda GET przykład 3 3.Metoda POST przykład 4 4.Kiedy GET a kiedy POST 5 5.Szablony po co je stosować 7 6.Realizacja szablonu własną funkcją 8
Laboratorium - Poznawanie FTP
Cele Część 1: Korzystanie z usługi FTP z wiersza poleceń. Część 2: Pobranie pliku z serwera FTP za pomocą WS_FTP LE Część 3: Korzystanie z usługi FTP w przeglądarce Scenariusz File Transfer Protocol (FTP)
Podstawy technologii WWW
Podstawy technologii WWW Ćwiczenie 8 PHP, czyli poczatki nowej, dynamicznej znajomosci Na dzisiejszych zajęciach rozpoczniemy programowanie po stronie serwera w języku PHP. Po otrzymaniu żądania serwer
OMNITRACKER Wersja testowa. Szybki przewodnik instalacji
OMNITRACKER Wersja testowa Szybki przewodnik instalacji 1 Krok 1:Rejestracja pobrania (jeżeli nie wykonana dotychczas) Proszę dokonać rejestracji na stronieomninet (www.omnitracker.com) pod Contact. Po
Instrukcja do programu Przypominacz 1.5
Instrukcja do programu Przypominacz 1.5 Program Przypominacz 1.5 pozwala w prosty sposób wykorzystać dane z systemu sprzedaży Subiekt GT do prowadzenia tzw. miękkiej windykacji poprzez wysyłanie kontrahentom
Programowanie Multimediów. Programowanie Multimediów JAVA. wprowadzenie do programowania (3/3) [1]
JAVA wprowadzenie do programowania (3/3) [1] Czym jest aplikacja Java Web Start? Aplikacje JAWS są formą pośrednią pomiędzy apletami a aplikacjami Javy. Nie wymagają do pracy przeglądarki WWW, jednak mogą
XML i nowoczesne technologie zarządzania treścią 2007/08
Zadanie 3 Poprawkowe XML i nowoczesne technologie zarządzania treścią 2007/08 Wprowadzenie Należy napisać program w Javie, który czytając w trybie SAX plik z listą operacji, wykonuje zadane operacje na
POZYCJONOWANIE STRON PORADY
. Wszystko O Pozycjonowaniu I Marketingu. >>>OPTYMALIZACJA STRONY POD SEO POZYCJONOWANIE STRON PORADY >>>WIĘCEJ
Protokoły sieciowe - TCP/IP
Protokoły sieciowe Protokoły sieciowe - TCP/IP TCP/IP TCP/IP (Transmission Control Protocol / Internet Protocol) działa na sprzęcie rożnych producentów może współpracować z rożnymi protokołami warstwy
Spring Web MVC, Spring DI
Państwowa Wyższa Szkoła Zawodowa w Tarnowie Zakład Informatyki Laboratorium 5 Spring Web MVC, Spring DI Prowadzący: Kierunek: Semestr: Rok: Informatyka Zimowy 2 Technologie Technologie / narzędzia będące
NS-2. Krzysztof Rusek. 26 kwietnia 2010
NS-2 Krzysztof Rusek 26 kwietnia 2010 1 Opis ćwiczenia Symulator ns-2 jest potężnym narzędziem, szeroko stosowanym w telekomunikacji. Ćwiczenie ma na cele przedstawić podstawy symulatora oraz symulacji
Współpraca z platformą Emp@tia. dokumentacja techniczna
Współpraca z platformą Emp@tia dokumentacja techniczna INFO-R Spółka Jawna - 2013 43-430 Pogórze, ul. Baziowa 29, tel. (33) 479 93 29, (33) 479 93 89 fax (33) 853 04 06 e-mail: admin@ops.strefa.pl Strona1
Skanowanie podsieci oraz wykrywanie terminali ABA-X3
Skanowanie podsieci oraz wykrywanie terminali ABA-X3 Terminale ABA-X3 od dostarczane od połowy listopada 2010 r. są wyposażane w oprogramowanie umożliwiające skanowanie podsieci w poszukiwaniu aktywnych
13. Konfiguracja proxy http, smtp, pop3, ftp, ssl
13. Konfiguracja proxy http, smtp, pop3, ftp, ssl Każdy z mechanizmów proxy w urządzeniach NETASQ może działać w sposób transparentny dla użytkownika, tzn. nie wymagać konfiguracji przeglądarki czy innego