Streszczenie rozprawy doktorskiej Wojciecha Frohmberga pt. GRASShopPER - wydajna metoda asemblacji
|
|
- Natalia Smolińska
- 6 lat temu
- Przeglądów:
Transkrypt
1 Streszczenie rozprawy doktorskiej Wojciecha Frohmberga pt. GRASShopPER - wydajna metoda asemblacji de novo wykorzystująca strategię Overlap-Layout-Consensus 1. Wstęp Asemblacja DNA stanowi jeden z kluczowych elementów złożonego procesu sekwencjonowania materiału genetycznego. Istotą procesu asemblacji jest rekonstrukcja możliwie długiej sekwencji nukleotydów materiału genetycznego przy wykorzystaniu jego krótkich lecz silnie, przy tym nierównomiernie, nakładających się fragmentów. Fragmenty podlegające takiej rekonstrukcji, określane mianem odczytów (ang. reads ), z powodu ograniczeń technologicznych nie mogą być wydłużone na etapie mechanicznego odczytu, a ich długość jest nieporównywalnie mniejsza od długości rekonstruowanej sekwencji. Proces asemblacji, przy obecnym stanie techniki stanowi zatem jedyny możliwy automatyczny sposób uzyskania sekwencji odczytywanych genomów w postaci ciągłej. Z algorytmicznego punktu widzenia asemblacja stanowi uogólnienie problemu znajdowania minimalnego superciągu nad zadanym zbiorem sekwencji. Problem ten, nawet przy ograniczeniu do alfabetu binarnego, jest trudny obliczeniowo. Co więcej, jak dowiedziono w pracy [1], przy założeniu możliwych błędów w odczytach problem asemblacji jest silnie NP-trudny, a co za tym idzie opiera się możliwości utworzenia w pełni wielomianowego schematu aproksymacji (ang. fully polynomial-time approximation scheme, FPTAS ). Stąd jedyne dostępne efektywne metody rozwiązujące problem bazują na założeniach heurystycznych bez oszacowania pesymistycznego błędu wartości rozwiązania. Sytuację dodatkowo pogarszają rozmiary realnych instancji problemu liczone w setkach milionów lub nawet miliardach odczytów. Żeby rozwiązać tak duże instancje problemu większość dostępnych na rynku metod asemblacji korzysta z heurystycznej strategii grafów dekompozycji (DG, często nadużywając nazwy grafów de Bruijna). Strategia ta
2 efektywność działania zawdzięcza wykorzystywanej strukturze danych kompresującej niejako odczyty, a właściwie ich krótkie fragmenty zwane k-merami, stanowiące podciągi sekwencji odczytów o zadanej długości. Proces tworzenia k-merów z sekwencji odczytów, zwany dekompozycją, jest stratny i nieodwracalny. Dzięki niemu jednak otrzymujemy efektywną strukturę grafową, która pomimo utraty części informacji jest w stanie, przy pewnych założeniach posłużyć do efektywnego odtworzenia dłuższych podciągów sekwencji wyjściowej. Istotne z punktu widzenia jakości otrzymanego rozwiązania jest to, iż uzyskaną efektywność uzyskuje się kosztem utraty części informacji na temat ciągłości odczytów. W przypadku krótkich odczytów będących wynikiem sekwencjonowania maszynami pierwszej generacji nie stanowiło to znaczącego ubytku informacji przekładającego się na stratę na jakości wyników, jednak wraz z rozwojem technologiii i wzrostem długości odczytów tracona informacja nt. ciągłości jest coraz większa i mniej akceptowalna. Nowy potencjał rozwiązania problemu niesie strategia będąca poprzednikiem DG zwana Overlap-Layout-Consensus (OLC). Strategia ta sprowadza problem asemblacji do problemu komiwojażera nadając wierzchołkom etykiety sekwencji odczytów, łukom zaś przypisując tak zwane nałożenia (ang. overlap) między tymi sekwencjami. Wykorzystuje ona przy tym dość naturalne spostrzeżenie, iż koszty wynikające z nałożeń optymalnego uszeregowania (ang. layout) odczytów rozwiązania problemu asemblacji powinny być najmniejsze spośród wszystkich możliwych uszeregowań i wynikają jedynie z błędów sekwencjonowania. Jako że nie interesuje nas wynik w postaci sekwencji odczytów, ale raczej w postaci ciągu nukleotydów znalezione uszeregowanie odczytów musi być jeszcze spłaszczone poprzez ustalenie kompromisowych nukleotydów (ang. consensus). 2. Cel i zakres pracy Głównym celem pracy jest stworzenie heurystycznego algorytmu asemblacji de novo o jak najlepszych właściwościach jakościowych dostarczającego aproksymację rozwiązania problemu asemblacji w akceptowalnym czasie. Naturalnym zatem wydaje się skorzystanie ze strategii Overlap-Layout-Consensus, która nie dopuszcza błędów wynikających z zaniedbania ciągłości sekwencji odczytów w trakcie ich
3 dekompozycji do struktury grafowej. Celem pochodnym jest również implementacja metody zwanej dalej GRASShopPER (ang. GPU overlap GRaph ASSembler using Paired End Reads information for de novo assembly ) na podstawie zaproponowanego algorytmu oraz przeprowadzenie testów na zróżnicowanych zestawach danych włącznie z porównaniem wyników jakościowych oraz efektywnościowych z innymi metodami asemblacji będącymi aktualnym standardem. Głównym wkładem doktoranta wykazywanym w dysertacji jest trzon nowej metody GRASShopPER. W tym również dwa algorytmy rozwiązujące podetapy procesu asemblacji. We wspomnianym kontekście pracę można podzielić na cztery główne części: 1. Formalna definicja problemu wraz z przedstawieniem tła badań 2. Omówienie aktualnego stanu wiedzy w tym użytych zewnętrznych metod niezbędnych w realizacji projektu 3. Określenie wprowadzonych przez doktoranta algorytmów z omówieniem ich złożoności i oczekiwanego wpływu na wynik asemblacji 4. Przeprowadzenie eksperymentów obliczeniowych oraz zebranie i omówienie wyników W przedstawianej pracy autor skupił się na swoich autorskich pomysłach z przedstawieniem szerszego kontekstu ich aplikacji. 3. Podstawy teoretyczne oraz omówienie problemu Na początku pracy doktorant wprowadza najistotniejsze, użyte w późniejszej części pracy, pojęcia, zarówno z zakresu terminologii biologicznej, jak i z pogranicza matematyki i informatyki (np. teorii grafów, ciągi czy rząd funkcji). Dokonuje również wprowadzenia w tematykę złożoności obliczeniowej niezbędnej do określenia klasy trudności rozwiązywanego przez niego problemu. W kolejnych podrozdziałach znajdziemy również niezbędne do opisu problemu asemblacji uściślenie pojęć dopasowania i złożenia sekwencji. Po wspomnianym wstępie następuje przybliżenie problemu asemblacji. Dokonane zestawienie pojęcia asemblacji z
4 sekwencjonowaniem płynnie przechodzi w zarys kontekstu problemu asemblacji. Można tutaj odnaleźć uściślenie terminów związanych z sekwencjonowaniem, ale także parametrami charakteryzującymi dane wejściowe problemu. Zwieńczeniem opisu problemu jest jego formalna definicja stanowiąca próbę jego obrazowego przedstawienia. Formalizacji dokonano poprzez sprowadzenie asemblacji do postaci optymalizacyjnego problemu kombinatorycznego. Obok definicji znajdziemy tutaj dyskusję na temat możliwych strategii rozwiązania problemu jak również określenie i charakterystykę konkurencyjnych metod asemblacji. Po analizie wspomnianych metod doktorant dochodzi do wniosku, iż w miejscu efektywnych metod wykorzystujących strategię OLC istnieje nisza w rynku asemblerów, co prowadzi go dalej do konkluzji, iż praca nad tym tematem może stanowić wartościowy przedmiot badawczy. 4. Metoda GRASShopPER Wspomniane wnioskowanie stanowi podwaliny projektu GRASShopPER. W swojej dysertacji doktorant poświęcił obszerną, składającą się z trzech rozdziałów, część opisowi tej nowej metody asemblacji. Ze względu na rozległość przedsięwzięcia, projekt stworzony był etapami przez wielu autorów. Niezbędne zatem było precyzyjne ustalenie wkładu intelektualnego doktoranta w samą metodę ale także w poszczególne fazy metody. Pierwszy ze wspomnianych rozdziałów skupia się właśnie na precyzyjnym ustaleniu autorstwa poszczególnych fragmentów metody, stąd też poświęcona jest tu również spora uwaga na przedstawieniu ogólnego schematu działania metody ze szkicem działania podprocedur oraz przepływem danych. W dalszej części rozdziału następuje wnikliwy opis poszczególnych części metody, jednak z wyłączeniem tych części, które stanowią wkład autora. Kolejne dwa rozdziały przedstawiają dwa algorytmy zaproponowane przez doktoranta: 1. Algorytm znajdowania znaczących rozwidleń grafu nałożeń 2. Algorytm progresywnego dopasowania sekwencji do znajdowania kompromisowej sekwencji wynikowej
5 Żeby przybliżyć pierwszy z wymienionych algorytmów warto najpierw umotywować potrzebę jego stosowania. Specyfika grafu nałożeń, w tym w szczególności sam koncept nałożeń, które łączą wszystkie możliwe wierzchołki/odczyty o podobnej podsekwencji, wywołuje redundancję możliwych ścieżek formujących identyczne sekwencje wynikowe. Z drugiej strony, dobrej jakości wyniki asemblacji powinny cechować się minimalną niepewnością użytych fragmentów. Wraz ze wzrostem ilości repetytywnych fragmentów genomu źródłowego przy braku możliwości automatycznej metody potwierdzania poprawności tworzonej sekwencji wzrasta ryzyko złożenia niepoprawnego wyniku. Stąd też jedynym sposobem radzenia sobie z niepewnością jest przerywanie dołączania odczytów w momencie pojawienia się alternatywnych ścieżek. Jednakowoż szukanie początków alternatywnych ścieżek, nazwane dalej szukaniem rozwidleń znaczącymi grafu nałożeń, przy możliwych błędach w odczytach jest nietrywialnym problemem. Trudność jest tym większa że realne instancje problemu posiadają gigantyczny graf nałożeń. Z punktu widzenia kwestii efektywnościowych najlepszym rozwiązaniem mogłaby być zatem heurystyka dokonująca optymalizacji jeszcze na etapie przechodzenia grafu, dla przykładu algorytm zachłanny, wyłaniający do wyniku sekwencje odczytów o najmniejszym aktualnym nałożeniu. Algorytm ten byłby jednak obarczony możliwością nieprawidłowego złożenia sekwencji, co wynika ze wspomnianej własności grafów nałożeń. Stąd zaproponowany algorytm wykorzystuje zachłanne podejście przechodzenia grafu obudowując je dodatkowo mechanizmem stanu zabezpieczającym przed zagłębianiem się w ścieżkę odpowiadającej sekwencji nukleotydowej niosącej ryzyko występowania w alternatywnej lokalizacji. Mechanizm ten wzbogacony o dobór następnika w ważonym głosowaniu, filtruje ślepe ścieżki wynikające z błędów sekwencjonowania. Warto zwrócić uwagę, iż przechodząc po grafie nałożeń w poszukiwaniu znaczących rozwidleń znajdujemy sekwencję odczytów a nie nukleotydów sekwencjonowanego genomu, czego oczekuje się od algorytmu asemblacji. Stąd też w przypadku wszystkich metod z rodziny OLC niezbędne jest przeprowadzenie dodatkowego kroku spłaszczającego sekwencję odczytów do konsensusowego ciągu nukleotydów. Innymi słowy do uzyskania finalnego wyniku niezbędny będzie
6 algorytm rozwiązujący problem dopasowania sekwencji. Dopasowanie to musi jednak uwzględnić dość specyficzne warunki - znana jest zgrubna pozycja sekwencji odczytów, z których składamy nadsekwencję. Ta właściwość nie trywializuje jednak problemu, gdyż wciąż sekwencje odczytów mogą posiadać błędy, które efektywnie można zniwelować (oczywiście pod warunkiem odpowiednio dużej duplikacji informacji w odczytach) jedynie za pomocą algorytmu dynamicznego programowania. Warto zwrócić uwagę, że standardowe algorytmy dopasowania nie uwzględniają porządku wplatania kolejnych sekwencji do wyniku. Stąd też niezbędnym było zaproponowanie nowego algorytmu dopasowania zwanego w pracy dopasowaniem progresywnym. W skrócie działanie algorytmu opiera się o zasadę skoro znamy zgrubną pozycję sekwencji w rozwiązaniu wymuśmy umieszczenie sekwencji w pobliżu tej pozycji. Można tego dokonać poprzez ograniczenie przestrzeni przeszukiwanych komórek macierzy dynamicznego programowania określających punkt startowy wynikowej sekwencji. Powyższa technika wspomagana profilami nukleotydów zapewnia heurystykę budowy konsensusu rozwiązania, która jest odporna na zaburzenia w jakości odczytów instancji problemu asemblacji. 5. Eksperymenty obliczeniowe Ostatni przed podsumowaniem, lecz nie najmniej istotny, rozdział doktoratu poświęcony jest eksperymentom obliczeniowym przeprowadzonym w celu ewaluacji jakości wyników metody GRASShopPER. Rozdział można podzielić na dwie zasadnicze części: 1. Zestawienie wyników jakościowych metody GRASShopPER z innymi wiodącymi metodami asemblacji. 2. Określenie wpływu wartości parametrów na jakość wyników działania metody GRASShopPER. Nieodzownym elementem rzetelnej analizy wyników w przypadku każdych eksperymentów obliczeniowych jest precyzyjne określenie zbiorów danych testowych lub ewentualnie sposobu ich wygenerowania. W przypadku problemu
7 asemblacji de novo pojedyncza instancja zbioru testowego składa się z informacji na temat zestawu odczytów sparowanych oraz genomu referencyjnego służącego do porównania wyników działania algorytmu asemblacji. Notę na temat tego aspektu eksperymentów jak również informację na temat użytych miar oceny, środowiska uruchomieniowego i zużywanych przez program zasobów można znaleźć na początku wspomnianej części pracy Porównanie z wiodącymi metodami asemblacji Eksperymenty porównawcze GRASShopPERa rozpoczyna uzasadnienie doboru konkurencyjnych metod asemblacji. Wybór ten będzie miał oczywisty wpływ na sprawiedliwość osądu jakości metody. Doktorant postanowił się tutaj oprzeć na obiektywnej wartości wskaźnika cytowalności artykułów, w których opublikowano poszczególne metody asemblacji. Korzystając z powyższego klucza wyłoniono sześć metod asemblacji: Velvet SPAdes SOAPdenovo2 Celera SGA Platanus Każdy z programów ze wspomnianego powyżej zestawu posłużył do uruchomienia eksperymentów obliczeniowe na zadeklarowanych trzech rzeczywistych zbiorach testowych. Jednocześnie starano się dobrać parametry programów (jeśli to było możliwe) tak by uzyskać jak najwyższe jakości wyników. Otrzymane wyniki zebrano w postaci tabelarycznej i opatrzono komentarzem. Głównym wnioskiem z zaprezentowanych wyników jest to, iż spośród wymienionych metod podlegających porównaniu można wyróżnić trzy, które dominują nad pozostałymi. Są to GRASShopPER, SGA oraz SOAPdenovo2. Ciekawymi właściwościami (w stosunku do pozostałych metod) charakteryzuje się również program SPAdes tworząc bardzo długie kontigi pokrywające dużą część genomu
8 referencyjnego. Oprócz tego wyniki cechują się jednak dużym współczynnikiem błędów złożenia stąd nie zostały uwzględnione w fazie scaffolding u Wpływ parametrów odczytów na jakość wyników W tym kontekście doktorant postanowił zweryfikować wpływ zmienności parametrów odczytów takich jak pokrycie genomu referencyjnego oraz odsetek błędów sekwencjonowania na wyniki asemblacji metodą GRASShopPER. Niestety, co oczywiste, nie było dostępnych rzeczywistych danych obejmujących wspomniany zakres zmienności charakterystyki odczytów. Jednakowoż istnieją programy symulujące działanie sekwenatorów cechujące się bardzo zbliżonymi właściwościami produkowanych odczytów. Doktorant postanowił wykorzystać jeden z dostępnych programów do celu generowania odczytów rzeczywistego genomu referencyjnego organizmu modelując pożądaną cechę instancji za pomocą parametrów tegoż generatora. Zmienność parametrów jakościowych wyników programu GRASShopPER przedstawiono w postaci wykresów. Główne wnioski ze wskazanych eksperymentów wskazują na istnienie dodatniego wpływu zwiększania pokrycia na długości kontigów generowanych przez metodę asemblacji. Począwszy jednak od pewnej wartości tegoż parametru (pokrycie powyżej 30x) pogarszają się niektóre wartości wskaźników jakości takie jak poziom duplikacji czy sumaryczna długość błędów złożeń. Jeśli chodzi z kolei o wpływ odsetka błędów w odczytach na wyniki jakościowe, wyniki wskazują dość naturalną negatywną zależność przyrostu błędów w danych na długości kontigów ale i pozostałe wskaźniki jakościowe wyników. Optymalna z punktu widzenia jakości danych wyjściowych miara jakości odczytów to przynajmniej phred Dobór parametrów wejściowych programu GRASShopPER Wyznaczenie najlepszych wartości dla niektórych parametrów metody GRASShopPER w sposób automatyczny może być bardzo trudne lub wręcz niemożliwe. W zależności od charakterystyki zbioru danych może okazać się więc konieczne dobranie innych niż domyślne wartości parametrów. Ostatni podrozdział eksperymentów obliczeniowych ma na celu opis najważniejszych parametrów
9 metody oraz ukazanie wpływu zmiany ich wartości na wyniki jakościowe kontigów, tak by użytkownik metody mógł wyrobić sobie pogląd jak dostosować wartości parametrów do swoich potrzeb. Parametry ilościowe, których wpływ na jakości wyników postanowiono przetestować to: wielkość okna sąsiedztwa charakterystyk k-merowych, długość podsekwencji minimalnego indeksu leksykograficznego, liczba dopuszczonych błędów w dopasowaniu, poziom tolerancji na zmniejszenie listy kandydatów. Wyniki, podobnie jak w poprzednim zestawie eksperymentów, postanowiono zebrać w postaci wykresów zależności poszczególnych parametrów na wskaźniki jakościowe. Jednym z ciekawszych wniosków, które można było wysnuć ze wspomnianych eksperymentów jest odporność metody na zmniejszanie okna sąsiedztwa charakterystyk k-merowych oraz zwiększanie długości podsekwencji minimalnego indeksu leksykograficznego w kontekście jakości kontigów. Warto zwrócić uwagę, że parametry te mają znaczący wpływ na efektywność działania metody. Innym ciekawym spostrzeżeniem może być to że metoda zwraca najlepsze wyniki w wypadku dopuszczenia dokładnie jednego błędu w nałożeniu dwóch odczytów. Jeśli chodzi o wpływ poziomu tolerancji zmniejszenia listy kandydatów na wartości jakościowe to parametr ten pozwala na wyważenie kompromisu pomiędzy długością kontigów a możliwymi błędami złożenia kontigów. 6. Podsumowanie W czasach, gdy niemała część gatunków ma już całkiem dobrze poznane genomy mogłoby się nasunąć pytanie - Czy na pewno wciąż potrzebujemy metody asemblacji de novo, skoro istnieje alternatywne podejście asemblacji przez mapowanie?. Otóż warto przypomnieć, iż każdy organizm ma unikalny genom - różniący się w sposób mniej lub bardziej znaczący nawet od innych przedstawicieli tego samego gatunku. Różnice, które mogą tu występować to zarówno polimorfizmy pojedynczego nukleotydu (SNP), ale przybierają również postać różnych całych
10 podsekwencji genomu (ang. polymorphic variants ). W tym drugim przypadku zdarza się, iż odczyty danego organizmu nie mają swoich odpowiedników lub są odnajdywane w niewłaściwych pozycjach genomu wynikiem polimorfizmu translokacji. Jako że znany genom referencyjny jest silnym bodźcem sugestywnym, wynik metody asemblacji może być tu tendencyjny (ang. biased ). Powyższe rozumowanie przybliża nas do stwierdzenia, iż ze względu na swą brak wykorzystania genomu referencyjnego metody asemblacji de novo mogą lepiej nadawać się do odnajdywania polimorficznych wariacji w genomie organizmu. Tematem streszczanej pracy jest GRASShopPER, tj. nowatorska metoda asemblacji de novo wykorzystująca w sposób hybrydowy technologię kart graficznych. Atutem metody jest przywrócenie do życia strategii Overlap-Layout-Consensus w swojej (na ile było to możliwe) pierwotnej formule. Strategia ta ma bez wątpienia wielki potencjał wraz z nowo-powstającymi technologiami sekwenatorów trzeciej generacji produkującymi coraz dłuższe odczyty. Konkurencyjna strategia grafów dekompozycji w tym wypadku traciłaby informację o ciągłości sekwencji zawartej w takich odczytach a w wypadku długich sekwencji byłaby to dość dokuczliwa strata. W tym miejscu warto zaznaczyć, iż opisana metoda nie odnosi się w żaden sposób do wspomnianych powyżej technologii a jedynie stanowi próbę dowodu, iż jesteśmy w stanie wykorzystać efektywnie strategię OLC, podwyższając przy tym jakość asemblacji. Warto zaznaczyć, iż mimo zakończenia pewnego etapu, zwieńczonego publikacją [2], proces prac nad metodą GRASShopPER jeszcze się nie zakończył. Wraz z kolejnymi projektami planowane jest wykorzystanie GRASShopPERa do asemblacji de novo całego człowieka, co bez wątpienia na obecnym etapie stanowi duże wyzwanie. Do osiągnięcia tego celu niezbędne będą bez wątpienia dalsze optymalizacje metody.
11 Literatura [1] Jacek Blazewicz and Marta Kasprzak. "Reduced-by-matching graphs: toward simplifying Hamiltonian circuit problem." Fundamenta Informaticae (2012): [2] Aleksandra Swiercz, Wojciech Frohmberg, Michal Kierzynka, Pawel Wojciechowski, Piotr Zurkowski, Jan Badura, Artur Laskowski, Marta Kasprzak, and Jacek Blazewicz. "GRASShopPER An algorithm for de novo assembly based on GPU alignments. PLOS ONE, 13(8):e , 2018.
Sekwencjonowanie, przewidywanie genów
Instytut Informatyki i Matematyki Komputerowej UJ, opracowanie: mgr Ewa Matczyńska, dr Jacek Śmietański Sekwencjonowanie, przewidywanie genów 1. Technologie sekwencjonowania Genomem nazywamy sekwencję
OSTASZEWSKI Paweł (55566) PAWLICKI Piotr (55567) Algorytmy i Struktury Danych PIŁA
OSTASZEWSKI Paweł (55566) PAWLICKI Piotr (55567) 16.01.2003 Algorytmy i Struktury Danych PIŁA ALGORYTMY ZACHŁANNE czas [ms] Porównanie Algorytmów Rozwiązyjących problem TSP 100 000 000 000,000 10 000 000
Reswkwencjonowanie vs asemblacja de novo
ALEKSANDRA ŚWIERCZ Reswkwencjonowanie vs asemblacja de novo Resekwencjonowanie to odtworzenie badanej sekwencji poprzez mapowanie odczytów do genomu/transkryptomu referencyjnego (tego samego gatunku lub
Algorytmy kombinatoryczne w bioinformatyce
Algorytmy kombinatoryczne w bioinformatyce wykład 2: sekwencjonowanie cz. 1 prof. dr hab. inż. Marta Kasprzak Instytut Informatyki, Politechnika Poznańska Poznawanie sekwencji genomowej Poznawanie sekwencji
OPTYMALIZACJA HARMONOGRAMOWANIA MONTAŻU SAMOCHODÓW Z ZASTOSOWANIEM PROGRAMOWANIA W LOGICE Z OGRANICZENIAMI
Autoreferat do rozprawy doktorskiej OPTYMALIZACJA HARMONOGRAMOWANIA MONTAŻU SAMOCHODÓW Z ZASTOSOWANIEM PROGRAMOWANIA W LOGICE Z OGRANICZENIAMI Michał Mazur Gliwice 2016 1 2 Montaż samochodów na linii w
Programowanie dynamiczne cz. 2
Programowanie dynamiczne cz. 2 Wykład 7 16 kwietnia 2019 (Wykład 7) Programowanie dynamiczne cz. 2 16 kwietnia 2019 1 / 19 Outline 1 Mnożenie ciągu macierzy Konstruowanie optymalnego rozwiązania 2 Podstawy
Grafy i sieci wybrane zagadnienia wykład 2: modele służące rekonstrukcji sekwencji
Grafy i sieci wybrane zagadnienia wykład 2: modele służące rekonstrukcji sekwencji prof. dr hab. inż. Marta Kasprzak Instytut Informatyki, Politechnika Poznańska Plan wykładu. Modele grafowe problemu sekwencjonowania
Algorytmika Problemów Trudnych
Algorytmika Problemów Trudnych Wykład 9 Tomasz Krawczyk krawczyk@tcs.uj.edu.pl Kraków, semestr letni 2016/17 plan wykładu Algorytmy aproksymacyjne: Pojęcie algorytmu aproksymacyjnego i współczynnika aproksymowalności.
Badania operacyjne: Wykład Zastosowanie kolorowania grafów w planowaniu produkcji typu no-idle
Badania operacyjne: Wykład Zastosowanie kolorowania grafów w planowaniu produkcji typu no-idle Paweł Szołtysek 12 czerwca 2008 Streszczenie Planowanie produkcji jest jednym z problemów optymalizacji dyskretnej,
Aproksymacja funkcji a regresja symboliczna
Aproksymacja funkcji a regresja symboliczna Problem aproksymacji funkcji polega na tym, że funkcję F(x), znaną lub określoną tablicą wartości, należy zastąpić inną funkcją, f(x), zwaną funkcją aproksymującą
Wybrane podstawowe rodzaje algorytmów
Wybrane podstawowe rodzaje algorytmów Tomasz Głowacki tglowacki@cs.put.poznan.pl Zajęcia finansowane z projektu "Rozwój i doskonalenie kształcenia na Politechnice Poznańskiej w zakresie technologii informatycznych
znalezienia elementu w zbiorze, gdy w nim jest; dołączenia nowego elementu w odpowiednie miejsce, aby zbiór pozostał nadal uporządkowany.
Przedstawiamy algorytmy porządkowania dowolnej liczby elementów, którymi mogą być liczby, jak również elementy o bardziej złożonej postaci (takie jak słowa i daty). Porządkowanie, nazywane również często
w analizie wyników badań eksperymentalnych, w problemach modelowania zjawisk fizycznych, w analizie obserwacji statystycznych.
Aproksymacja funkcji a regresja symboliczna Problem aproksymacji funkcji polega na tym, że funkcję F(), znaną lub określoną tablicą wartości, należy zastąpić inną funkcją, f(), zwaną funkcją aproksymującą
prof. dr hab. inż. Marta Kasprzak Instytut Informatyki, Politechnika Poznańska Dopasowanie sekwencji
Bioinformatyka wykład 5: dopasowanie sekwencji prof. dr hab. inż. Marta Kasprzak Instytut Informatyk Politechnika Poznańska Dopasowanie sekwencji Badanie podobieństwa sekwencji stanowi podstawę wielu gałęzi
Automatyczne tworzenie trójwymiarowego planu pomieszczenia z zastosowaniem metod stereowizyjnych
Automatyczne tworzenie trójwymiarowego planu pomieszczenia z zastosowaniem metod stereowizyjnych autor: Robert Drab opiekun naukowy: dr inż. Paweł Rotter 1. Wstęp Zagadnienie generowania trójwymiarowego
Inżynieria oprogramowania. Część 8: Metoda szacowania ryzyka - PERT
UNIWERSYTET RZESZOWSKI KATEDRA INFORMATYKI Opracował: mgr inż. Przemysław Pardel v1.01 2010 Inżynieria oprogramowania Część 8: Metoda szacowania ryzyka - PERT ZAGADNIENIA DO ZREALIZOWANIA (3H) PERT...
AiSD zadanie trzecie
AiSD zadanie trzecie Gliwiński Jarosław Marek Kruczyński Konrad Marek Grupa dziekańska I5 5 czerwca 2008 1 Wstęp Celem postawionym przez zadanie trzecie było tzw. sortowanie topologiczne. Jest to typ sortowania
Porównanie algorytmów wyszukiwania najkrótszych ścieżek międz. grafu. Daniel Golubiewski. 22 listopada Instytut Informatyki
Porównanie algorytmów wyszukiwania najkrótszych ścieżek między wierzchołkami grafu. Instytut Informatyki 22 listopada 2015 Algorytm DFS w głąb Algorytm przejścia/przeszukiwania w głąb (ang. Depth First
Metody przeszukiwania
Metody przeszukiwania Co to jest przeszukiwanie Przeszukiwanie polega na odnajdywaniu rozwiązania w dyskretnej przestrzeni rozwiązao. Zwykle przeszukiwanie polega na znalezieniu określonego rozwiązania
Maciej Piotr Jankowski
Reduced Adder Graph Implementacja algorytmu RAG Maciej Piotr Jankowski 2005.12.22 Maciej Piotr Jankowski 1 Plan prezentacji 1. Wstęp 2. Implementacja 3. Usprawnienia optymalizacyjne 3.1. Tablica ekspansji
Algorytmy i str ruktury danych. Metody algorytmiczne. Bartman Jacek
Algorytmy i str ruktury danych Metody algorytmiczne Bartman Jacek jbartman@univ.rzeszow.pl Metody algorytmiczne - wprowadzenia Znamy strukturę algorytmów Trudność tkwi natomiast w podaniu metod służących
prof. dr hab. inż. Marta Kasprzak Instytut Informatyki, Politechnika Poznańska Poznawanie sekwencji genomowej
Bioinformatyka wykład 2: sekwencjonowanie cz. 1 prof. dr hab. inż. Marta Kasprzak Instytut Informatyki, Politechnika Poznańska Poznawanie sekwencji genomowej Poznawanie sekwencji genomów na trzech poziomach
Algorytmy wyznaczania centralności w sieci Szymon Szylko
Algorytmy wyznaczania centralności w sieci Szymon Szylko Zakład systemów Informacyjnych Wrocław 10.01.2008 Agenda prezentacji Cechy sieci Algorytmy grafowe Badanie centralności Algorytmy wyznaczania centralności
Algorytm genetyczny (genetic algorithm)-
Optymalizacja W praktyce inżynierskiej często zachodzi potrzeba znalezienia parametrów, dla których system/urządzenie będzie działać w sposób optymalny. Klasyczne podejście do optymalizacji: sformułowanie
Programowanie dynamiczne
Programowanie dynamiczne Ciąg Fibonacciego fib(0)=1 fib(1)=1 fib(n)=fib(n-1)+fib(n-2), gdzie n 2 Elementy tego ciągu stanowią liczby naturalne tworzące ciąg o takiej własności, że kolejny wyraz (z wyjątkiem
OCENA EFEKTYWNOŚCI INWESTYCJI. Jerzy T. Skrzypek
OCENA EFEKTYWNOŚCI INWESTYCJI Jerzy T. Skrzypek 1 2 3 4 5 6 7 8 Analiza płynności Analiza rentowności Analiza zadłużenia Analiza sprawności działania Analiza majątku i źródeł finansowania Ocena efektywności
Optymalizacja. Wybrane algorytmy
dr hab. inż. Instytut Informatyki Politechnika Poznańska www.cs.put.poznan.pl/mkomosinski, Andrzej Jaszkiewicz Problem optymalizacji kombinatorycznej Problem optymalizacji kombinatorycznej jest problemem
Heurystyki. Strategie poszukiwań
Sztuczna inteligencja Heurystyki. Strategie poszukiwań Jacek Bartman Zakład Elektrotechniki i Informatyki Instytut Techniki Uniwersytet Rzeszowski DLACZEGO METODY PRZESZUKIWANIA? Sztuczna Inteligencja
ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH
Transport, studia I stopnia Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Postać ogólna równania nieliniowego Często występującym, ważnym problemem obliczeniowym
PRZEWODNIK PO PRZEDMIOCIE
Nazwa przedmiotu: I KARTA PRZEDMIOTU CEL PRZEDMIOTU PRZEWODNIK PO PRZEDMIOCIE C1. Podniesienie poziomu wiedzy studentów z zagadnień dotyczących analizy i syntezy algorytmów z uwzględnieniem efektywności
Zofia Kruczkiewicz, Algorytmu i struktury danych, Wykład 14, 1
Wykład Algorytmy grafowe metoda zachłanna. Właściwości algorytmu zachłannego:. W przeciwieństwie do metody programowania dynamicznego nie występuje etap dzielenia na mniejsze realizacje z wykorzystaniem
Opis efektów kształcenia dla programu kształcenia (kierunkowe efekty kształcenia) WIEDZA. rozumie cywilizacyjne znaczenie matematyki i jej zastosowań
TABELA ODNIESIEŃ EFEKTÓW KSZTAŁCENIA OKREŚLONYCH DLA PROGRAMU KSZTAŁCENIA DO EFEKTÓW KSZTAŁCENIA OKREŚLONYCH DLA OBSZARU KSZTAŁCENIA I PROFILU STUDIÓW PROGRAM KSZTAŁCENIA: POZIOM KSZTAŁCENIA: PROFIL KSZTAŁCENIA:
Zadanie 1: Piętnastka
Informatyka, studia dzienne, inż. I st. semestr VI Sztuczna Inteligencja i Systemy Ekspertowe 2010/2011 Prowadzący: mgr Michał Pryczek piątek, 12:00 Data oddania: Ocena: Grzegorz Graczyk 150875 Marek Rogalski
XQTav - reprezentacja diagramów przepływu prac w formacie SCUFL przy pomocy XQuery
http://xqtav.sourceforge.net XQTav - reprezentacja diagramów przepływu prac w formacie SCUFL przy pomocy XQuery dr hab. Jerzy Tyszkiewicz dr Andrzej Kierzek mgr Jacek Sroka Grzegorz Kaczor praca mgr pod
Zaawansowane programowanie
Zaawansowane programowanie wykład 3: inne heurystyki prof. dr hab. inż. Marta Kasprzak Instytut Informatyki, Politechnika Poznańska Heurystyką nazywamy algorytm (metodę) zwracający rozwiązanie przybliżone.
Struktury danych i złożoność obliczeniowa Wykład 7. Prof. dr hab. inż. Jan Magott
Struktury danych i złożoność obliczeniowa Wykład 7 Prof. dr hab. inż. Jan Magott Problemy NP-zupełne Transformacją wielomianową problemu π 2 do problemu π 1 (π 2 π 1 ) jest funkcja f: D π2 D π1 spełniająca
Modelowanie jako sposób opisu rzeczywistości. Katedra Mikroelektroniki i Technik Informatycznych Politechnika Łódzka
Modelowanie jako sposób opisu rzeczywistości Katedra Mikroelektroniki i Technik Informatycznych Politechnika Łódzka 2015 Wprowadzenie: Modelowanie i symulacja PROBLEM: Podstawowy problem z opisem otaczającej
NIFIED M L ODELLING ANGUAGE. Diagramy czynności
U M L NIFIED ODELLING ANGUAGE Diagramy czynności 1 Czym jest diagram czynności? Jeden z pięciu rodzajów diagramów UML służących do modelowania dynamicznych aspektów systemu. Przedstawia przepływ sterowania
a) 7 b) 19 c) 21 d) 34
Zadanie 1. Pytania testowe dotyczące podstawowych własności grafów. Zadanie 2. Przy każdym z zadań może się pojawić polecenie krótkiej charakterystyki algorytmu. Zadanie 3. W zadanym grafie sprawdzenie
Wersja pliku: v.10, 13 kwietnia 2019 zmiany: dodany punkt na temat testów do sprawozdania. Biologia, bioinformatyka:
Wersja pliku: v.10, 13 kwietnia 2019 zmiany: - 13.04 dodany punkt na temat testów do sprawozdania Biologia, bioinformatyka: 1. DNA kwas deoksyrybonukleinowy. Zbudowany z 4 rodzajów nukleotydów: adeniny,
Porównanie czasów działania algorytmów sortowania przez wstawianie i scalanie
Więcej o sprawności algorytmów Porównanie czasów działania algorytmów sortowania przez wstawianie i scalanie Załóżmy, że możemy wykonać dane zadanie przy użyciu dwóch algorytmów: jednego o złożoności czasowej
Marcel Stankowski Wrocław, 23 czerwca 2009 INFORMATYKA SYSTEMÓW AUTONOMICZNYCH
Marcel Stankowski Wrocław, 23 czerwca 2009 INFORMATYKA SYSTEMÓW AUTONOMICZNYCH Przeszukiwanie przestrzeni rozwiązań, szukanie na ślepo, wszerz, w głąb. Spis treści: 1. Wprowadzenie 3. str. 1.1 Krótki Wstęp
3a. Wstęp: Elementarne równania i nierówności
3a. Wstęp: Elementarne równania i nierówności Grzegorz Kosiorowski Uniwersytet Ekonomiczny w Krakowie zima 2017/2018 Grzegorz Kosiorowski (Uniwersytet Ekonomiczny 3a. Wstęp: w Krakowie) Elementarne równania
Załącznik 2a: Autoreferat
Załącznik 2a: Autoreferat [1] Imię i nazwisko Aleksandra Świercz [2] Posiadane stopnie i tytuły naukowe 1. Tytuł inżyniera informatyki uzyskany w 2000 roku na Wydziale Elektrycznym Politechniki Poznańskiej
Kombinatoryczna analiza widm 2D-NOESY w spektroskopii Magnetycznego Rezonansu Jądrowego cząsteczek RNA. Marta Szachniuk
Kombinatoryczna analiza widm 2D-NOESY w spektroskopii Magnetycznego Rezonansu Jądrowego cząsteczek RNA Marta Szachniuk Plan prezentacji Wprowadzenie do tematyki badań Teoretyczny model problemu Złożoność
Ocena kondycji finansowej organizacji
Ocena kondycji finansowej organizacji 1 2 3 4 5 6 7 8 Analiza płynności Analiza rentowności Analiza zadłużenia Analiza sprawności działania Analiza majątku i źródeł finansowania Ocena efektywności projektów
R E C E N Z J A. rozprawy doktorskiej mgr Wojciecha Bury nt. Wielokryterialne, mrowiskowe algorytmy optymalizacji w nawigacji samochodowej
Prof. dr hab. inż. Franciszek Seredyński Warszawa, 25.02.2015 Uniwersytet Kardynała Stefana Wyszyńskiego w Warszawie Wydział Matematyczno Przyrodniczy Szkoła Nauk Ścisłych ul. Wóycickiego 1/3, 01-938 Warszawa
Co to jest transkryptom? A. Świercz ANALIZA DANYCH WYSOKOPRZEPUSTOWYCH 2
ALEKSANDRA ŚWIERCZ Co to jest transkryptom? A. Świercz ANALIZA DANYCH WYSOKOPRZEPUSTOWYCH 2 Ekspresja genów http://genome.wellcome.ac.uk/doc_wtd020757.html A. Świercz ANALIZA DANYCH WYSOKOPRZEPUSTOWYCH
Przypadki bez przypadków. Jak dobierać scenariusze testowe.
Przypadki bez przypadków. Jak dobierać scenariusze testowe. Konferencja SQAM 2008 Warszawa, 29. kwietnia Wojciech Pająk 29 kwietnia 2008 Warszawa Zagadnienia prezentacji 1. Wprowadzenie 2. Definicje przypadków
operacje porównania, a jeśli jest to konieczne ze względu na złe uporządkowanie porównywanych liczb zmieniamy ich kolejność, czyli przestawiamy je.
Problem porządkowania zwanego również sortowaniem jest jednym z najważniejszych i najpopularniejszych zagadnień informatycznych. Dane: Liczba naturalna n i ciąg n liczb x 1, x 2,, x n. Wynik: Uporządkowanie
Metody numeryczne. materiały do wykładu dla studentów. 1. Teoria błędów, notacja O
Metody numeryczne materiały do wykładu dla studentów 1. Teoria błędów, notacja O 1.1. Błąd bezwzględny, błąd względny 1.2. Ogólna postać błędu 1.3. Problem odwrotny teorii błędów - zasada równego wpływu
Załącznik 2. Symbol efektu obszarowego. Kierunkowe efekty uczenia się (wiedza, umiejętności, kompetencje) dla całego programu kształcenia
Załącznik 2 Opis kierunkowych efektów kształcenia w odniesieniu do efektów w obszarze kształcenia nauk ścisłych profil ogólnoakademicki Kierunek informatyka, II stopień. Oznaczenia efektów obszarowych
Informacja w perspektywie obliczeniowej. Informacje, liczby i obliczenia
Informacja w perspektywie obliczeniowej Informacje, liczby i obliczenia Cztery punkty odniesienia (dla pojęcia informacji) ŚWIAT ontologia fizyka UMYSŁ psychologia epistemologia JĘZYK lingwistyka nauki
Załącznik 2. Symbol efektu obszarowego. Kierunkowe efekty uczenia się (wiedza, umiejętności, kompetencje) dla całego programu kształcenia
Załącznik 2 Opis kierunkowych efektów kształcenia w odniesieniu do efektów w obszarze kształcenia nauk ścisłych profil ogólnoakademicki Kierunek informatyka, II stopień, tryb niestacjonarny. Oznaczenia
Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania
Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania KOMPUTEROWE SYSTEMY STEROWANIA I WSPOMAGANIA DECYZJI Rozproszone programowanie produkcji z wykorzystaniem
Summary in Polish. Fatimah Mohammed Furaiji. Application of Multi-Agent Based Simulation in Consumer Behaviour Modeling
Summary in Polish Fatimah Mohammed Furaiji Application of Multi-Agent Based Simulation in Consumer Behaviour Modeling Zastosowanie symulacji wieloagentowej w modelowaniu zachowania konsumentów Streszczenie
TEORETYCZNE PODSTAWY INFORMATYKI
1 TEORETYCZNE PODSTAWY INFORMATYKI WFAiS UJ, Informatyka Stosowana I rok studiów, I stopień Wykład 14c 2 Definicje indukcyjne Twierdzenia dowodzone przez indukcje Definicje indukcyjne Definicja drzewa
Algorytm Genetyczny. zastosowanie do procesów rozmieszczenia stacji raportujących w sieciach komórkowych
Algorytm Genetyczny zastosowanie do procesów rozmieszczenia stacji raportujących w sieciach komórkowych Dlaczego Algorytmy Inspirowane Naturą? Rozwój nowych technologii: złożone problemy obliczeniowe w
Wykład VII. Kryptografia Kierunek Informatyka - semestr V. dr inż. Janusz Słupik. Gliwice, 2014. Wydział Matematyki Stosowanej Politechniki Śląskiej
Wykład VII Kierunek Informatyka - semestr V Wydział Matematyki Stosowanej Politechniki Śląskiej Gliwice, 2014 c Copyright 2014 Janusz Słupik Problem pakowania plecaka System kryptograficzny Merklego-Hellmana
Spis treści. Przedmowa... XI. Rozdział 1. Pomiar: jednostki miar... 1. Rozdział 2. Pomiar: liczby i obliczenia liczbowe... 16
Spis treści Przedmowa.......................... XI Rozdział 1. Pomiar: jednostki miar................. 1 1.1. Wielkości fizyczne i pozafizyczne.................. 1 1.2. Spójne układy miar. Układ SI i jego
Dopasowywanie modelu do danych
Tematyka wykładu dopasowanie modelu trendu do danych; wybrane rodzaje modeli trendu i ich właściwości; dopasowanie modeli do danych za pomocą narzędzi wykresów liniowych (wykresów rozrzutu) programu STATISTICA;
WYKŁAD 10. kodem pierwotnym krzywej jest ciąg par współrzędnych x, y kolejnych punktów krzywej: (x 1, y 1 ), (x 2, y 2 ),...
WYKŁAD 10 Kompresja krzywych dyskretnych Kompresja krzywych dyskretnych KP SK = KW SK - stopień kompresji krzywej. KP [bajt] - obszar pamięci zajmowany przez kod pierwotny krzywej. KW [bajt] - obszar pamięci
Algorytm grupowania danych typu kwantyzacji wektorów
Algorytm grupowania danych typu kwantyzacji wektorów Wstęp Definicja problemu: Typowe, problemem często spotykanym w zagadnieniach eksploracji danych (ang. data mining) jest zagadnienie grupowania danych
Generowanie i optymalizacja harmonogramu za pomoca
Generowanie i optymalizacja harmonogramu za pomoca na przykładzie generatora planu zajęć Matematyka Stosowana i Informatyka Stosowana Wydział Fizyki Technicznej i Matematyki Stosowanej Politechnika Gdańska
Strojenie systemu Linux pod k¹tem serwera bazy danych Oracle 9i
VI Seminarium PLOUG Warszawa Styczeñ 2003 Strojenie systemu Linux pod k¹tem serwera bazy danych Oracle 9i Marcin Przepiórowski Strojenie systemu Linux pod kątem serwera bazy danych Oracle 9i 7 1. Wstęp
Ćwiczenie 12. Diagnostyka molekularna. Poszukiwanie SNPs Odczytywanie danych z sekwencjonowania. Prof. dr hab. Roman Zieliński
Ćwiczenie 12 Diagnostyka molekularna. Poszukiwanie SNPs Odczytywanie danych z sekwencjonowania Prof. dr hab. Roman Zieliński 1. Diagnostyka molekularna 1.1. Pytania i zagadnienia 1.1.1. Jak definiujemy
Różnorodność osobników gatunku
ALEKSANDRA ŚWIERCZ Różnorodność osobników gatunku Single Nucleotide Polymorphism (SNP) Różnica na jednej pozycji, małe delecje, insercje (INDELs) SNP pojawia się ~1/1000 pozycji Można je znaleźć porównując
1 Moduł Modbus ASCII/RTU 3
Spis treści 1 Moduł Modbus ASCII/RTU 3 1.1 Konfigurowanie Modułu Modbus ASCII/RTU............. 3 1.1.1 Lista elementów Modułu Modbus ASCII/RTU......... 3 1.1.2 Konfiguracja Modułu Modbus ASCII/RTU...........
Efektywność algorytmów
Efektywność algorytmów Algorytmika Algorytmika to dział informatyki zajmujący się poszukiwaniem, konstruowaniem i badaniem własności algorytmów, w kontekście ich przydatności do rozwiązywania problemów
Politechnika Krakowska im. Tadeusza Kościuszki. Karta przedmiotu. obowiązuje w roku akademickim 2012/2013. Algorytmy i struktury danych
Politechnika Krakowska im. Tadeusza Kościuszki Karta przedmiotu Wydział Inżynierii Elektrycznej i Komputerowej obowiązuje w roku akademickim 2012/2013 Kierunek studiów: Elektrotechnika Forma studiów: Niestacjonarne
ĆWICZENIE 1: Przeszukiwanie grafów cz. 1 strategie ślepe
Instytut Mechaniki i Inżynierii Obliczeniowej Wydział Mechaniczny Technologiczny, Politechnika Śląska www.imio.polsl.pl METODY HEURYSTYCZNE ĆWICZENIE 1: Przeszukiwanie grafów cz. 1 strategie ślepe opracował:
PROBLEM ROZMIESZCZENIA MASZYN LICZĄCYCH W DUŻYCH SYSTEMACH PRZEMYSŁOWYCH AUTOMATYCZNIE STEROWANYCH
CZESŁAW KULIK PROBLEM ROZMIESZCZENIA MASZYN LICZĄCYCH W DUŻYCH SYSTEMACH PRZEMYSŁOWYCH AUTOMATYCZNIE STEROWANYCH Duże systemy przemysłowe, jak kopalnie, kombinaty metalurgiczne, chemiczne itp., mają złożoną
Algorytmy decyzyjne będące alternatywą dla sieci neuronowych
Algorytmy decyzyjne będące alternatywą dla sieci neuronowych Piotr Dalka Przykładowe algorytmy decyzyjne Sztuczne sieci neuronowe Algorytm k najbliższych sąsiadów Kaskada klasyfikatorów AdaBoost Naiwny
Działanie algorytmu oparte jest na minimalizacji funkcji celu jako suma funkcji kosztu ( ) oraz funkcji heurystycznej ( ).
Algorytm A* Opracowanie: Joanna Raczyńska 1.Wstęp Algorytm A* jest heurystycznym algorytmem służącym do znajdowania najkrótszej ścieżki w grafie. Jest to algorytm zupełny i optymalny, co oznacza, że zawsze
Teoria grafów - Teoria rewersali - Teoria śladów
17 maja 2012 1 Planarność Wzór Eulera Kryterium Kuratowskiego Algorytmy testujące planarność 2 Genom i jego przekształcenia Grafy złamań Sortowanie przez odwrócenia Inne rodzaje sortowania Algorytmy sortujące
Gdańsk, 10 czerwca 2016
( Katedra Chemii Analitycznej Katedra Chemii Analitycznej Wydział Chemiczny Politechnika Gdańska e-mail: piotr.konieczka@pg.gda.pl Gdańsk, 10 czerwca 2016 RECENZJA rozprawy doktorskiej mgr inż. Michała
Optymalizacja wież stalowych
Optymalizacja wież stalowych W przypadku wież stalowych jednym z najistotniejszych elementów jest ustalenie obciążenia wiatrem. Generalnie jest to zagadnienie skomplikowane, gdyż wiąże się z koniecznością
Algorytmy metaheurystyczne podsumowanie
dr hab. inż. Instytut Informatyki Politechnika Poznańska www.cs.put.poznan.pl/mkomosinski, Andrzej Jaszkiewicz Problem optymalizacji kombinatorycznej Problem optymalizacji kombinatorycznej jest problemem
Raport Hurtownie Danych
Raport Hurtownie Danych Algorytm Apriori na indeksie bitmapowym oraz OpenCL Mikołaj Dobski, Mateusz Jarus, Piotr Jessa, Jarosław Szymczak Cel projektu: Implementacja algorytmu Apriori oraz jego optymalizacja.
Przetarg nieograniczony na zakup specjalistycznej aparatury laboratoryjnej Znak sprawy: DZ-2501/6/17
Część nr 2: SEKWENATOR NASTĘPNEJ GENERACJI Z ZESTAWEM DEDYKOWANYCH ODCZYNNIKÓW Określenie przedmiotu zamówienia zgodnie ze Wspólnym Słownikiem Zamówień (CPV): 38500000-0 aparatura kontrolna i badawcza
Uniwersytet Zielonogórski Wydział Elektrotechniki, Informatyki i Telekomunikacji Instytut Sterowania i Systemów Informatycznych
Uniwersytet Zielonogórski Wydział Elektrotechniki, Informatyki i Telekomunikacji Instytut Sterowania i Systemów Informatycznych ELEMENTY SZTUCZNEJ INTELIGENCJI Laboratorium nr 9 PRZESZUKIWANIE GRAFÓW Z
Wprowadzenie do złożoności obliczeniowej
problemów Katedra Informatyki Politechniki Świętokrzyskiej Kielce, 16 stycznia 2007 problemów Plan wykładu 1 2 algorytmów 3 4 5 6 problemów problemów Plan wykładu 1 2 algorytmów 3 4 5 6 problemów problemów
Weryfikacja hipotez statystycznych. KG (CC) Statystyka 26 V / 1
Weryfikacja hipotez statystycznych KG (CC) Statystyka 26 V 2009 1 / 1 Sformułowanie problemu Weryfikacja hipotez statystycznych jest drugą (po estymacji) metodą uogólniania wyników uzyskanych w próbie
Klasyfikacja publikacji biomedycznych w konkursie JRS 2012 Data Mining Competition - Szkic koncepcji
Kierunek: Informatyka Zastosowania Informatyki w Medycynie Klasyfikacja publikacji biomedycznych w konkursie JRS 2012 Data Mining Competition - Szkic koncepcji 1. WSTĘP AUTORZY Joanna Binczewska gr. I3.1
STRESZCZENIE. rozprawy doktorskiej pt. Zmienne jakościowe w procesie wyceny wartości rynkowej nieruchomości. Ujęcie statystyczne.
STRESZCZENIE rozprawy doktorskiej pt. Zmienne jakościowe w procesie wyceny wartości rynkowej nieruchomości. Ujęcie statystyczne. Zasadniczym czynnikiem stanowiącym motywację dla podjętych w pracy rozważań
TABELA ZGODNOŚCI OBSZAROWYCH EFEKTÓW KSZTAŁCENIA (EK0) Z KIERUNKOWYMI EFEKTAMI KSZTAŁCENIA (EKK) NAUK ŚCISŁYCH. Wiedza
TABELA ZGODNOŚCI OBSZAROWYCH EFEKTÓW KSZTAŁCENIA (EK0) Z KIERUNKOWYMI EFEKTAMI KSZTAŁCENIA (EKK) Nazwa Wydziału: Wydział Inżynierii Nazwa kierunku studiów: chemia kosmetyczna Poziom kształcenia: studia
Techniki optymalizacji
Techniki optymalizacji Dokładne algorytmy optymalizacji Maciej Hapke maciej.hapke at put.poznan.pl Problem optymalizacji kombinatorycznej Problem optymalizacji kombinatorycznej jest problemem minimalizacji
!!!!!!!!!!! PORTFOLIO: Analiza zachowań użytkowników serwisów internetowych. Autorzy: Marek Zachara
PORTFOLIO: Analiza zachowań użytkowników serwisów internetowych Autorzy: Marek Zachara Opis merytoryczny Cel naukowy (jaki problem wnioskodawca podejmuje się rozwiązać, co jest jego istotą, co uzasadnia
Struktury danych i złozoność obliczeniowa. Prof. dr hab. inż. Jan Magott
Struktury danych i złozoność obliczeniowa Prof. dr hab. inż. Jan Magott Formy zajęć: Wykład 1 godz., Ćwiczenia 1 godz., Projekt 2 godz.. Adres strony z materiałami do wykładu: http://www.zio.iiar.pwr.wroc.pl/sdizo.html
Klasyczne zagadnienie przydziału
Klasyczne zagadnienie przydziału Można wyodrębnić kilka grup problemów, w których zadaniem jest odpowiednie rozmieszczenie posiadanych zasobów. Najprostszy problem tej grupy nazywamy klasycznym zagadnieniem
Darmowy fragment www.bezkartek.pl
Wszelkie prawa zastrzeżone. Rozpowszechnianie całości lub fragmentów niniejszej publikacji w jakiejkolwiek postaci bez zgody wydawcy zabronione. Autor oraz wydawca dołożyli wszelkich starań aby zawarte
Automatyzacja testowania oprogramowania. Automatyzacja testowania oprogramowania 1/36
Automatyzacja testowania oprogramowania Automatyzacja testowania oprogramowania 1/36 Automatyzacja testowania oprogramowania 2/36 Potrzeba szybkich rozwiązań Testowanie oprogramowania powinno być: efektywne
SCENARIUSZ LEKCJI. TEMAT LEKCJI: Zastosowanie średnich w statystyce i matematyce. Podstawowe pojęcia statystyczne. Streszczenie.
SCENARIUSZ LEKCJI OPRACOWANY W RAMACH PROJEKTU: INFORMATYKA MÓJ SPOSÓB NA POZNANIE I OPISANIE ŚWIATA. PROGRAM NAUCZANIA INFORMATYKI Z ELEMENTAMI PRZEDMIOTÓW MATEMATYCZNO-PRZYRODNICZYCH Autorzy scenariusza:
Kodowanie i kompresja Streszczenie Studia Licencjackie Wykład 11,
1 Kwantyzacja skalarna Kodowanie i kompresja Streszczenie Studia Licencjackie Wykład 11, 10.05.005 Kwantyzacja polega na reprezentowaniu dużego zbioru wartości (być może nieskończonego) za pomocą wartości
Spis treści. Analiza i modelowanie_nowicki, Chomiak_Księga1.indb :03:08
Spis treści Wstęp.............................................................. 7 Część I Podstawy analizy i modelowania systemów 1. Charakterystyka systemów informacyjnych....................... 13 1.1.
Programowanie dynamiczne i algorytmy zachłanne
Programowanie dynamiczne i algorytmy zachłanne Tomasz Głowacki tglowacki@cs.put.poznan.pl Zajęcia finansowane z projektu "Rozwój i doskonalenie kształcenia na Politechnice Poznańskiej w zakresie technologii
Definicja testu psychologicznego
Definicja testu psychologicznego Badanie testowe to taka sytuacja, w której osoba badana uczestniczy dobrowolnie, świadoma celu jakim jest jej ocena. Jest to sytuacja tworzona specjalnie dla celów diagnostycznych,
Nowoczesne systemy ekspresji genów
Nowoczesne systemy ekspresji genów Ekspresja genów w organizmach żywych GEN - pojęcia podstawowe promotor sekwencja kodująca RNA terminator gen Gen - odcinek DNA zawierający zakodowaną informację wystarczającą
LOGISTYKA. Zapas: definicja. Zapasy: podział
LOGISTYKA Zapasy Zapas: definicja Zapas to określona ilość dóbr znajdująca się w rozpatrywanym systemie logistycznym, bieżąco nie wykorzystywana, a przeznaczona do późniejszego przetworzenia lub sprzedaży.