Wydajność otwartych implementacji metody sieciowej Boltzmanna na CPU i GPU
|
|
- Teodor Domański
- 9 lat temu
- Przeglądów:
Transkrypt
1 Maciej Matyka Zbigniew Koza Wydział Fizyki i Astronomii Wydział Fizyki i Astronomii Instytut Fizyki Teoretycznej Instytut Fizyki Teoretycznej Uniwersytet Wrocławski Uniwersytet Wrocławski oraz Vratis Sp. z o. o. oraz Vratis Sp. z o. o. Łukasz Mirosław Instytut Informatyki Politechnika Wrocławska oraz Vratis Sp. z o. o. Wydajność otwartych implementacji metody sieciowej Boltzmanna na CPU i GPU STRESZCZENIE Metoda sieciowa Boltzmanna (LBM) służy do symulacji dynamiki płynów. Celem pracy jest zbadanie wydajności jej dwóch otwartych implementacji równoległych: Palabos i Sailfish. Pierwsza uruchamia się na klasycznym procesorze wielordzeniowym (multi-cpu), druga na pojedynczym układzie graficznym (GPU). Dyskutujemy, w jaki sposób na ich wydajność wpływają takie czynniki, jak zastosowana precyzja obliczeń, rodzaj zagadnienia, warunki fizyczne oraz architektura procesora. W każdym zbadanym przypadku kod uruchomiony na karcie graficznej jest szybszy od kodu uruchomionego na wielordzeniowym CPU. Uzyskane przyspieszenia wynoszą od 3x do 12x dla podwójnej i od 24x do 42x dla pojedynczej precyzji obliczeń. WSTĘP Symulacje zjawisk fizycznych należą do jednych z najciekawszych i zarazem najbardziej wymagających obliczeniowo zastosowań współczesnych komputerów. Dzięki szybkiemu postępowi zarówno w dziedzinie algorytmiki, jaki i projektowania sprzętu, metody symulacji są obecnie jedną z najdynamiczniej rozwijających się dziedzin nauki, a zakres ich zastosowań jest już tak szeroki, iż w praktyce osiągnęły one status trzeciego filaru nauki obok eksperymentu i teorii. Jedną z najważniejszych gałęzi metod symulacji jest obliczeniowa dynamika płynów (ang. Computational Fluid Dynamics CFD) mająca liczne zastosowania w takich dziedzinach, jak inżynieria lotnicza i kosmiczna, przewidywanie pogody, ocena zabezpieczenia przeciwpożarowego budynków, sport czy medycyna. W ostatnich latach pojawiły się liczne prace wykorzystujące CFD w diagnostyce różnego rodzaju chorób w kardiologii, kardiochirurgii czy też pulmonologii. Przykładem zastosowania CFD w kardiologii jest symulacja przepływu krwi przez lewą komorę serca, którą można znaleźć u Longa [1, 2], gdzie wykorzystano skany MRI do rekonstrukcji geometrii komory. W tego typu zagadnieniach często trzeba uwzględnić zarówno elastyczność naczynia krwionośnego, które ulega deformacji pod wpływem przepływu krwi, jak i sam przepływ. Dlatego też modele hydrodynamiki np. serca muszą jednocześnie wyznaczać zarówno przepływ krwi, jak i odkształcenia samego naczynia [3]. Więcej informacji na temat modelowania przepływu krwi przez serce można znaleźć np. w [4]. Przykładem zagadnienia medycznego, w którym symulacje mogą mieć w przyszłości znaczenie krytyczne, są badania nad przepływem krwi w naczyniach krwionośnych narażonych na ryzyko wystąpienia tętniaków, np. w aorcie brzusznej [5, 6]. W tych przypadkach dąży się do opracowania wiarygodnych procedur szacowania prawdopodobieństwa, z jakim może dojść do pęknięcia tętniaka tego naczynia. Z kolei w dziedzinie pulmonologii pojawiły się prace dotyczące symulacji przepływu powietrza przez dolne drogi
2 oddechowe [7] bazujące na obrazach uzyskanych metodą tomografii komputerowej. W ramach tych prac zbadano m.in. wpływ przepływu krwi na deformację ściany naczynia (ang. Fluid-Structure Interaction), jak również możliwość deformacji geometrii w czasie oddychania. Modele takie mają zastosowanie głównie w diagnostyce pacjentów podłączonych do respiratorów jak i przy poważnych schorzeniach płuc. Analiza przepływu powietrza w płucach i związanego z tym przepływu leków w postaci aerozolu ma też duże znaczenie dla przemysłu farmaceutycznego [7]. Symulacje CFD wykorzystuje się też do symulacji procesu angiogenezy, czyli procesu tworzenia się nowych naczyń pod wpływem progresji tkanki nowotworowej. Badania takie mogą być bardzo pomocne jako dodatkowe narzędzie ułatwiające zarówno zaplanowanie odpowiedniej terapii, jak i dokonanie oceny potencjalnego jej wpływu na stan pacjenta. W ostatnich latach pojawiła się też seria artykułów na temat dynamiki chemioterapii [8] i symulacji przebiegu radioterapii [9, 10]. Modelowany był m.in. wpływ kinetyki farmakologicznej na rozwój nowotworu [11]. Zastosowania medyczne stanowią szczególne wyzwanie dla metod obliczeniowych, gdyż wymagają znalezienia równowagi między dokładnością rozwiązania, jego praktyczną użytecznością, nakładem pracy ze strony personelu medycznego i czasem potrzebnym do uzyskania wyników [5, 12]. Tylko symulacje o dostatecznej dokładności dające wyniki weryfikowalne doświadczalnie i otrzymywane w czasie akceptowalnym z medycznego punktu widzenia mogą być obiektem zainteresowania lekarzy. W praktyce klinicznej zapewne preferowane będą obliczenia wykonywane na komputerach osobistych rozwiązanie na pewno wygodniejsze i tańsze od symulacji uruchamianych na klastrze czy superkomputerze. Osiągnięcie tego celu wymaga jednak zastosowania sprzętu o ogromnej mocy obliczeniowej i nowoczesnych, szybkich algorytmów. Obiecującą platformą sprzętową, która może podołać wymaganiom stawianym wielu symulacjom medycznym, są współczesne karty graficzne (Graphics Processing Unit, GPU). Dzięki masowo równoległej architekturze, układy te charakteryzują się znacznie większą teoretyczną mocą obliczeniową oraz wyraźnie większą przepustowością zintegrowanej pamięci operacyjnej w porównaniu do nawet najszybszych klasycznych procesorów wielordzeniowych (CPU). Z kolei w dziedzinie algorytmiki jedną z najbardziej obiecujących metod symulacji transportu płynów w układach o złożonej geometrii jest metoda gazu sieciowego Boltzmanna (ang. Lattice Boltzmann Method, LBM). Dzięki względnej prostocie implementacji skomplikowanych warunków brzegowych oraz ich lokalności metoda ta dość dobrze skaluje się w implementacjach współbieżnych. Metoda LBM znalazła już zastosowanie w symulacjach przepływów w układach o znaczeniu biologicznym i medycznym (np. [13, 14]). Głównym celem niniejszego artykułu jest analiza porównawcza wydajności dwóch pakietów otwartego oprogramowania do symulacji przepływów metodą LBM: Palabos i Sailfish. Pierwszy z nich przeznaczony jest do uruchamiania na klasycznym procesorze wielordzeniowym (lub klastrze utworzonym z takich komputerów), druga na karcie graficznej. W szczególności chcemy odpowiedzieć na pytanie, czy przy założeniu, że symulacja uruchamiana jest na pojedynczym komputerze osobistym, implementacja wykonywana na GPU może być istotnie szybsza od implementacji uruchomionej na wielordzeniowym CPU. METODA SIECIOWA BOLTZMANNA Metoda sieciowa Boltzmanna (LBM) jest jedną z najnowszych metod komputerowych używanych do rozwiązywania zagadnienia transportu płynów. Historycznie metoda ta wywodzi się z automatu komórkowego FHP [15, 16], w którym płyn przybliża się cząstkami, których wektory prędkości w dowolnej chwili mogą przyjmować jedną z zaledwie siedmiu prędkości. W metodzie LBM zmienne dyskretne określające prędkości cząstek zostały zastąpione siedmioma zmiennymi ciągłymi interpretowanymi jako prawdopodobieństwa, że cząstki podążają w określonym kierunku na sieci. Znając te funkcje, można wyznaczyć parametry makroskopowe przepływu takie jak
3 lokalna prędkość i gęstość płynu. Istotą metody Boltzmanna jest prosty algorytm (typu automatu komórkowego), w którym ewolucję funkcji rozkładu wykonuje się w dwóch krokach: przesunięcia i kolizji. Człon przesunięcia jest trywialny (cząsteczki płynu przesuwa się do sąsiednich węzłów siatki obliczeniowej), a człon kolizji w podstawowej wersji (tzw. metoda BGK) przybliża się, zakładając liniową relaksację funkcji rozkładu prawdopodobieństwa do wartości równowagowych. Funkcję równowagową wyznacza się metodami fizyki statystycznej z rozkładu Maxwella- Boltzmanna. W celu polepszenia własności numerycznych modelu LBM powstało wiele jego wariantów, np. model nieściśliwy [17], model zachowawczy dla mikroprzepływów [18] czy model entropowy [19]. Dodatkowo opracowane zostały wielo-relaksacyjne modele kolizji (ang. Multi Relaxation Time MRT) [20], które dodatkowo zwiększają dokładność i stabilność metody. Podstawowe wiadomości o modelach LBM, ich implementacjach, zastosowaniach w problemach technicznych i naukowych oraz przegląd najnowszych osiągnięć znaleźć można w bogatej literaturze (np. [21, 22, 23, 24]). PALABOS Istnieje kilka otwartych implementacji metody LBM w wersji na procesory klasyczne. Najbardziej znanymi są OpenLB [25] i Palabos [26]. Obie biblioteki napisano obiektowo w języku C++, obie mają porównywalne możliwości. Do testów wydajności wybrany został Palabos. Jest to otwarta, darmowa (dostarczana na licencji GPLv3) implementacja wysokiego poziomu (kod C++ intensywnie wykorzystujący szablony). Palabos posiada zaimplementowane podstawowe siatki obliczeniowe LBM (przepływy dwuwymiarowe: d2q9; trójwymiarowe: d3q13/15/19/27), w tym sieci z różnym stopniem podziału, modele przepływów (termalny, nienewtonowski) oraz operatory kolizji (BGK, MRT). W Palabos obliczenia równoległe realizowane są za pomocą technologii MPI (ang. Message Passing Interface), co pozwala na uruchamianie symulacji na klastrach obliczeniowych z pamięcią rozproszoną. Obliczenia można też prowadzić w mniejszej skali na komputerze osobistym (architektura wielordzeniowa z pamięcią współdzieloną). Testy poprawności i efektywności kodu tej biblioteki zostały opublikowane w artykułach dotyczących m.in. wyznaczania przepływu krwi przez naczynia krwionośne [14] czy przepuszczalności w ośrodkach porowatych [27]. SAILFISH Biblioteka Sailfish [28] jest to implementacja metody LBM dla kart graficznych (GPU) opracowana w Instytucie Fizyki Uniwersytetu Śląskiego w Katowicach. Napisano ją z użyciem kilku języków i technik programistycznych (Python, C++, szablony Mako), dzięki czemu możliwe jest generowanie w locie programów dla GPU w technologiach CUDA lub OpenCL. Podobnie jak Palabos, Sailfish zawiera implementację podstawowych siatek obliczeniowych metody LBM oraz kilka modeli przepływów i operatorów kolizji (BGK, MRT), jednak nie zaimplementowano w nim jeszcze możliwości zagęszczenia sieci. Mimo że Sailfish jest projektem bardzo młodym, posiadającym wciąż status kodu eksperymentalnego, jest on już znany w środowisku zajmującym się rozwojem i zastosowaniami modelu LBM [29, 30]. W dalszej części artykułu wszędzie, gdzie będzie mowa o CPU, będziemy mieli na myśli kod Palabos uruchomiony na pojedynczym procesorze wielordzeniowym. Wszędzie, gdzie będzie mowa o GPU, będziemy mieli na myśli kod biblioteki Sailfish pracujący w środowisku nvidia CUDA na jednej karcie graficznej. SPRZĘT Do badania wydajności kodu CPU wykorzystaliśmy węzeł Sun Fire X2200 z procesorem Quad-Core AMD Opteron 2384 taktowanym zegarem 2.7 Ghz i wyposażonym w 15 GB pamięci.
4 Kod GPU testowaliśmy na na dwóch kartach: a) GTX 460 (2 GB pamięci DDR5, GB/s; 336 rdzeni CUDA taktowanych zegarem 675 MHz); b) Tesla C 2070 (6 GB pamięci DDR5, 144 GB/s, ECC off; 448 rdzeni CUDA, zegar 1.15 GHz). Teoretyczna moc obliczeniowa użytego procesora Tesla wynosi 1.03 Teraflop/s w pojedynczej i 515 Gigaflop/s w podwójnej precyzji. Ryc. 1. Wizualizacja przepływu przez trójwymiarową komorę wyznaczonego kodem Sailfish dla liczby Reynoldsa Re=100. Jasność koloru odpowiada wartości prędkości (im jaśniejszy, tym większa prędkość). Na biało zaznaczyliśmy linie prądu w okolicy wiru centralnego. (rycina kolorowa). WYNIKI Do testowania wydajności implementacji metody LBM wybraliśmy przepływ przez trójwymiarową, prostopadłościenną komorę (ang. cavity) o szerokości L, w której pięć ścian jest nieruchomych, natomiast górna ściana (pokrywa) porusza się ruchem jednostajnym w kierunku osi x. W tych warunkach na brzegach nieruchomych ścian płyn jest nieruchomy, natomiast na brzegu pokrywy posiada stałą, niezerową prędkość skierowaną wzdłuż pokrywy (sytuacja analogiczna jak np. w [31]). Na ryc. 1 przedstawiamy wizualizację linii prądu dla danych otrzymanych przy pomocy kodu GPU. Na ryc. 2 przedstawiamy porównanie wyników przepływu przez tę komorę Ryc. 2. Przepływ przez trójwymiarową komorę wykonany kodem Sailfish (lewy) i Palabos (prawy) dla L=33. Wyniki porównane do [31] dla Re=100 (linia przerywana) i Re=400 (linia ciągła).
5 otrzymanych metodą LBM na GPU oraz na CPU ( iteracji). Wyniki metody LBM porównujemy ze standardową metodą spektralną opartą na wielomianach Czebyszewa [31, 32]. W obu przypadkach (CPU i GPU) rozdzielczość siatki obliczeniowej była porównywalna (około 32 3 komórek). Widać wyraźnie, że zgodność wyników obu kodów LBM z wynikiem wzorcowym jest najlepsza w środku układu. Lepsze dopasowania uzyskuje się dla też dla niższych liczb Reynoldsa. Aby sprawdzić, jak zachowuje się metoda LBM dla różnej liczby iteracji wyrysowaliśmy różnice między składową x prędkości up w punkcie (0, 0.853) i wyznaczoną w [31] wartością wzorcową u = (ryc. 3) dla różnej liczby iteracji i różnych rozmiarów siatki obliczeniowej. Ryc. 3. Porównanie tempa zbieżności wybranych implementacji metody LBM. Błąd względny został wyrażony w procentach w funkcji liczby iteracji dla wersji CPU oraz GPU dla trzech rozmiarów sieci. Dodatkowo dla rozmiaru L=33 zaznaczone zostały wyniki osobno dla pojedynczej (sp) i podwójnej (dp) precyzji obliczeń. Widać, że minimalna liczba iteracji potrzebna do osiągnięcia stanu stacjonarnego to około dla L=33, dla L=65 i co najmniej dla L=129. Obliczenia kodem Palabos wykazują nieco wolniejszą zbieżność od obliczeń wykonanych kodem Sailfish (wymagają około iteracji dla L=33). Widać wyraźną zależność asymptotycznego błędu rozwiązania w funkcji L: błąd jest rzędu 10% dla L=33 i zmniejsza się do 4% dla L=65 i ok. 2% dla L = 129. Na wykresie 4 wyrysowaliśmy zależność czasu wykonania 5000 iteracji algorytmu LBM w problemie komory trójwymiarowej na GPU i CPU. Przyspieszenia wyrysowane we wstawce do wykresu pokazują wyraźną przewagę rozwiązania GPU z najszybszą kartą Tesla. Dodatkowo porównaliśmy (ryc. 4 prawa) wydajność kodów w wersjach uruchomionych w pojedynczej i podwójnej precyzji. O ile w kodzie uruchomionym na CPU nie ma istotnych różnic, to na GPU wersja działająca w pojedynczej precyzji jest kilkukrotnie szybsza od wersji uruchomionej w podwójnej precyzji obiczeń. DYSKUSJA Przeprowadzone obliczenia weryfikacyjne potwierdziły zgodność otrzymanych rozwiązań z wynikami metod spektralnych. Jedną z cech algorytmu LBM jest wolna zbieżność do rozwiązań stacjonarnych [33], drugą wysokie wymagania odnośnie rozdzielczości sieci obliczeniowej (LBM potrzebuje minimum 4 jednostek sieci do rozwiązania na nich równań Naviera Stokesa) [21]. Dlatego sprawdziliśmy, czy obserwowane niedokładności w okolicach ścian komory można przypisać niedostatecznej liczbie iteracji użytych w trakcie obliczeń czy też może niewielkiej
6 rozdzielczości układu. Na ryc. 3. widać wyraźnie, że dla przyjętej wielkości sieci (L=33) liczba iteracji (30 000) jest wystarczająca. Okazało się jednak, że bardzo istotny wpływ na jakość rozwiązania ma rozdzielczość sieci obliczeniowej. Ryc. 4. (lewa) Czas wykonania algorytmu na CPU i na GPU (w podwójnej precyzji). Linie reprezentują funkcję f(x) L 2.7, gdzie stałe proporcjonalności zostały wzięte z dofitowania. (prawa) Przyspieszenie obliczeń w pojedynczej precyzji względem precyzji podwójnej. Pozycje linii poziomych wybrane zostały odgórnie dla lepszej orientacji. Błąd względem rozwiązania wzorcowego wynosił około 10%, gdy rozdzielczości były porównywalne (rzędu 32 3 ). To bardzo podobny wynik do szacowania błędu między rozwiązaniem LBM a komercyjnym pakietem CFD Ansys zaprezentowanego niedawno w kontekście przepływów biomedycznych [14]. Dla badanego punktu Sailfish i Palabos dają takie same wyniki końcowe, ale dość nieoczekiwanie wynik tego pierwszego dla L=33 (ryc. 3) zbiega szybciej do rozwiązania wzorcowego: Sailfish potrzebował około iteracji, aby osiągnąć poziom 10% błędu, Palabos wymagał zaś aż kroków. Wyniki zebrane na wykresie 4 potwierdziły wyraźną przewagę prędkości wykonania kodu pracującego na GPU. Pokazane we wstawce przyspieszenia wynoszą: 4 6 razy dla karty GTX460 i 8 12 razy dla karty Tesla. Dzisiejsze karty graficzne pracują dużo wydajniej w obliczeniach pojedynczej precyzji. Wynik dla karty GeForce wykazuje tu największe przyspieszenie: 12x, natomiast dla CPU przyspieszenia praktycznie nie ma. Maksymalne przyspieszenie GPU względem 4 rdzeni CPU wynosi do 40x dla obliczeń pojedynczej precyzji na karcie Tesla. Wyniki naszych eksperymentów numerycznych, w połączeniu z wynikami dostępnymi w literaturze, pozwalają oszacować spodziewane przyspieszenie obliczeń biomedycznych po przeniesieniu ich na platformę GPU. Na przykład w [34] autorzy wyznaczyli przepływ przez aortę brzuszną przy pomocy metody LBM pracującej na klasycznym CPU i uzyskali czasy symulacji niestacjonarnej wynoszące 2 godziny na pojedynczym procesorze i 40 minut na czterech węzłach klastra typu Beowulf (złożonego z procesorów AMD 450 Mhz). Biorąc pod uwagę otrzymane przez nas wyniki dla komory o długości L=55 stałych sieci (co z grubsza odpowiada ilości węzłów sieci użytej w [34]) można się spodziewać, że Sailfish wykona podobną symulację w czasie około 100 sekund w pojedynczej i 13 minut w podwójnej precyzji na karcie graficznej GTX460. Analogiczne czasy dla karty Tesla wyniosłyby odpowiednio ok. 57 sekund i 3 minuty. Szacowanie to może być niedokładne (problem, o którym mowa, jest niestacjonarny i charakteryzuje się bardziej skomplikowaną geometrią niż przepływ analizowany w niniejszym opracowaniu, w obu przypadkach zastosowano też inne warunki brzegowe, ponadto symulacje uruchamiane były na węzłach klastra typu Beowulf a nie na pojedynczym procesorze wielordzeniowym), jednak daje ono
7 pewne wyobrażenie o spodziewanych przyspieszeniach i możliwych aplikacjach tego typu symulacji po przeniesieniu ich na GPU. Jest to szczególnie istotne w kontekście czasów wykonania, o których donoszą autorzy prac badających przepływy medyczne klasycznymi metodami, np. w [5] pojedyncza symulacja przepływu w aorcie brzusznej na CPU trwała od 17 godzin (obliczenia metodą elementów skończonych) do ponad 300 godzin (obliczenia metodą objętości skończonych). Skrócenie tych czasów do maksymalnie kilku-kilkunastu godzin otworzyłoby zupełnie nowe perspektywy zastosowań CFD w diagnostyce medycznej. PODSUMOWANIE Przedstawiliśmy wyniki weryfikacyjne oraz czasy wykonania algorytmu LBM w dwóch różnych implementacjach (Sailfish, Palabos). Oba pakiety oprogramowania oferują podobną dokładność obliczeń, różnią się jednak platformą, na której są uruchamiane. Najbardziej zaskakująca jest przewaga wydajności kodu opartego o GPU nad kodem uruchomionym na 4- rdzeniowym procesorze we wszystkich testowanych konfiguracjach (wielkości sieci, rodzaje kart graficznych, precyzja obliczeń). Przewaga ta jest najbardziej wyraźna w pojedynczej precyzji, ale widoczna jest również w obliczeniach w precyzji podwójnej. Warto pamiętać, że oba pakiety mają pewne unikalne cechy. Dzięki użyciu protokołu MPI Palabos pozwoli na uruchomienie symulacji o dowolnej wielkości (ograniczonej w zasadzie tylko sumaryczną pamięcią klastra obliczeniowego). Z drugiej strony kod Sailfish przeliczy dany problem kilkadziesiąt razy szybciej nawet na komputerze osobistym. Dlatego można się spodziewać, że rozwiązania oparte na procesorach graficznych (lub ogólnie: procesorach tego typu) znajdą zastosowania wszędzie tam, gdzie potrzeba dużej mocy obliczeniowej bez możliwości lub potrzeby instalacji i obsługi ogromnych klastrów obliczeniowych lub superkomputerów (np. w szpitalach). Wyobraźmy sobie lekarza, który siedząc w swoim gabinecie, pobiera z serwera dane (np. skany tomograficzne) swojego pacjenta, wybiera interesujący organ, a następnie uruchamia symulację, np. przepływu krwi, w interesujących go warunkach. Po odczekaniu godziny może obejrzeć charakterystykę transportu i np. rozkład naprężeń na ściankach naczyniowych wybranego organu (gdyby uruchamiał tę samą symulację na, CPU na wyniki musiałby czekać więcej niż dzień). Należy pamiętać, że użycie metody LBM w praktyce wymaga jeszcze przezwyciężenia szeregu trudności takich jak: poprawne zdefiniowanie problemu i znaczenia rozwiązania numerycznego dla lekarzy, efektywne wygenerowanie danych (siatek) do symulacji, wybór modelu przepływu i warunków brzegowych, implementacja, uruchomienie, a na koniec weryfikacja otrzymanych wyników. PODZIĘKOWANIA Publikacja jest efektem realizacji stażu w projekcie Zielony Transfer współfinansowanego ze środków Unii Europejskiej w ramach Europejskiego Funduszu Społecznego. BIBLIOGRAFIA [1] Q. Long, R. Merrifield, G. Yang, X. Y. Xu, P. Kilner, and D. Firmin, The influence of inflow boundary conditions on intra left ventricle flow predictions, J Biomech Eng., vol. 125, pp , [2] Q. Long, R. Merrifield, X. Y. Xu, P. Kilner, D. Firmin, and G. Yang, Specific computational simulation of left ventricular flow based on magnetic resonance imaging, J Eng Med., vol. 222, pp , [3] D. M. McQueen and C. Peskin, A three-dimensional computer model of the human heart for studying cardiac fluid dynamics, Comput Graph., vol. 34, no , [4] S. Khalafvand, E. Ng, and L. Zhong, CFD simulation of flow through heart: a perspective review, Computer Methods in Biomechanics and Biomedical Engineering, vol. 14, no. 1, pp , [5] T. Gohil, R. McGregor, D. Szczerba, K. Burckhardt, K. Muralidhar, and G. Székely, Simulation of oscillatory flow in an aortic bifurcation using fvm and fem: a comparative study of implementation strategies,international Journal for Numerical Methods in Fluids, vol. 66, no. 8, pp , 2011.
8 [6] R. McGregor, D. Szczerba, and G. Székely, A multiphysics simulation of a healthy and a diseased abdominal aorta, in Proceedings of Medical Image Computing and Computer-Assisted Intervention, pp , [7] W. A. Wall and T. Rabczuk, Fluid structure interaction in lower airways of CT-based lung geometries, International Journal for Numerical Methods in Fluids, vol. 57, no. 5, pp , [8] G. Stamatakos, V. Antipas, and N. Uzunoglu, A spatiotemporal, patient individualized simulation model of solid tumor response to chemotherapy in vivo: the paradigm of glioblastoma multiforme treated by temozolomide, IEEE Trans Biomed Eng., vol. 53, no. 8, pp , [9] K. Borkenstein, S. Levegrun, and P. Peschke, Modeling and computer simulations of tumor growth and tumor response to modeling and computer simulations of tumor growth and tumor response to modeling and computer simulations of tumor growth and tumor response to radiotherapy, Radiation Research, vol. 162, no. 1, pp , [10] G. S. Stamatakos, E. I. Zacharaki, N. K. Uzunoglu, and K. S. Nikita, Tumor growth and response to irradiation in vitro: A tumor growth and response to irradiation in vitro: A technologically advanced simulation model, Int. J. Radiat. Oncol. Biol. Phys., vol. 51, no. 3, pp , [11] J. P. Sinek, S. Sanga, X. Zheng, H. B. Frieboes, M. Ferrari, and V. Cristini, Predicting drug pharmacokinetics and effect in vascularized tumors using computer simulation, J. Math. Biol., vol. 58, no. 4-5, pp , [12] Z. Malecha, Ł. Mirosław, T. Tomczak, Z. Koza, M. Matyka, W. Tarnawski, and D. Szczerba, Gpu-based simulation of 3d blood flow in abdominal aorta using openfoam, Archives of Mechanics, vol. 63, no. 2, pp , [13] J. Bernsdorf and D. Wang, Non-Newtonian blood flow simulation in cerebral aneurysms, Computers & Mathematics with Applications, vol. 58, pp , Sept [14] B. Chopard, D. Lagrava, O. Malaspinas, R. Ouared, J. Latt, K.-O. Lovblad, and V. Pereira-Mendes, A lattice boltzmann modelling of blood flow in cerebral aneurysm in V European Conference on Computational Fluid Dynamics (J. C. F. Pereira and A. Sequeira, eds.), pp , June [15] U. Frisch, B. Hasslacher, and Y. Pomeau, Lattice-gas automata for the Navier-Stokes equation, Phys. Rev. Lett., vol. 56, pp , Apr [16] G. R. McNamara and G. Zanetti, Use of the Boltzmann equation to simulate lattice-gas automata, Phys. Rev. Lett., vol. 61, pp , Nov [17] X. He and L.-S. Luo, Lattice boltzmann model for the incompressible Navier Stokes equation, Journal of Statistical Physics, vol. 88, pp , Aug [18] S. Ansumali and I. V. Karlin, Consistent lattice Boltzmann method, Phys. Rev. Lett., vol. 95, p , Dec [19] S. S. Chikatamarla, S. Ansumali, and I. V. Karlin, Entropic Lattice Boltzmann models for hydrodynamics in three dimensions, Phys. Rev. Lett., vol. 97, p , Jul [20] D. d Humieres, I. Ginzburg, M. Krafczyk, P. Lallemand, and L. S. Luo, Multiple-relaxation-time lattice Boltzmann models in three dimensions, Philosophical Transactions: Mathematical, Physical and Engineering Sciences, vol. 360, no. 1792, pp. 437+, [21] S. Succi, The Lattice Boltzmann Equation for Fluid Dynamics and Beyond (Numerical Mathematics and Scientific Computation). Numerical mathematics and scientific computation, Oxford University Press, USA, [22] J. Latt, Hydrodynamic limit of lattice Boltzmann equations. PhD thesis, Univ. Genève, [23] C. K. Aidun and J. R. Clausen, Lattice-Boltzmann Method for Complex Flows, Annual Review of Fluid Mechanics, vol. 42, no. 1, pp. Annual Reviews 472, [24] J. Bernsdorf, Simulation of Complex Flows and Multi-Physics with the Lattice-Boltzmann Method. PhD thesis, University of Amsterdam, [25] internet: [26] internet: [27] O. B. W. Degruyter, A. Burgisser and O. Malaspinas, Synchrotron X-ray microtomography and lattice boltzmann simulations of gas flow through volcanic pumices, Geosphere, vol. 6, no. 5, pp , [28] internet: [29] C. Feichtinger, S. Donath, H. Kötler, J. Götz, and U. Rüde, Walberla: HPC software design for computational engineering simulations, Tech. Rep., Friedrich-Alexander-Universität Erlagen-Nürnberg, [30] B. Chareyre, A. Cortis, E. Catalano, and E. Barthélemy, Pore-scale modeling of viscous flow and induced forces in dense sphere packings, 2011: arxiv: v2 [31] S. Albensoeder and H. C. Kuhlmann, Accurate three-dimensional lid- driven cavity flow, Journal of Computational Physics, vol. 206, pp , July [32] O. Botella and R. Peyret, Benchmark spectral results on the lid-driven cavity flow, Computers & Fluids, vol. 27, no. 4, pp , [33] M. Bernaschi, S. Succi, and H. Chen, Accelerated lattice boltzmann schemes for steady-state flow simulations J. Sci. Comput., vol. 16, no. 2, pp , [34] Artoli, A. and Hoekstra, A. and Sloot, P., Mesoscopic simulations of systolic flow in the human abdominal aorta, J. Biomech., vol. 39, pp. 873+, 2006.
9 SUMMARY PERFORMANCE OF OPEN-SOURCE IMPLEMENTATIONS OF THE LATTICE BOLTZMANN METHODS ON CPU AND GPU The Lattice Boltzmann Method (LBM) is a simulation method in the field of computational fluid dynamics. The goal of this work is to investigate two open source implementations of the LBM: Palabos and Sailfish. The former runs on the classical multicore CPU and the latter runs on a single Graphical Processing Unit (GPU). We discuss how the precision, type of an application, physical conditions and processor architecture influence the performance of both codes. In each case the code run on GPU is faster than its counterpart running on a multicore CPU. We report GPU versus CPU speedup of 3x-12x in double precision and 24x-42x in single precision computer arithmetic.
Katarzyna Jesionek Zastosowanie symulacji dynamiki cieczy oraz ośrodków sprężystych w symulatorach operacji chirurgicznych.
Katarzyna Jesionek Zastosowanie symulacji dynamiki cieczy oraz ośrodków sprężystych w symulatorach operacji chirurgicznych. Jedną z metod symulacji dynamiki cieczy jest zastosowanie metody siatkowej Boltzmanna.
Modelowanie przepływu krwi przez aortę brzuszną człowieka
Modelowanie przepływu krwi przez aortę brzuszną człowieka Maciej Matyka1, Zbigniew Koza1 Łukasz Mirosław2 1 Uniwersytet Wrocławski Instytut Fizyki Teoretycznej we współpracy z 2 Fizyka komputerowa we Wrocławiu
Numeryczna symulacja rozpływu płynu w węźle
231 Prace Instytutu Mechaniki Górotworu PAN Tom 7, nr 3-4, (2005), s. 231-236 Instytut Mechaniki Górotworu PAN Numeryczna symulacja rozpływu płynu w węźle JERZY CYGAN Instytut Mechaniki Górotworu PAN,
Od wielkoskalowych obliczeń równoległych do innowacyjnej diagnostyki w kardiologii.
Od wielkoskalowych obliczeń równoległych do innowacyjnej diagnostyki w kardiologii. Opiekun naukowy: dr hab. prof. UŚ Marcin Kostur Celem tych badań jest zastosowanie symulacji układu krwionośnego do diagnostyki
Wielkoskalowe obliczenia komputerowej dynamiki płynów na procesorach graficznych -- pakiet Sailfish
Michał Januszewski Materialy do broszury końcowej TWING. Wielkoskalowe obliczenia komputerowej dynamiki płynów na procesorach graficznych -- pakiet Sailfish Od około 5 lat procesory graficzne (GPU) znajdują
i3: internet - infrastruktury - innowacje
i3: internet - infrastruktury - innowacje Wykorzystanie procesorów graficznych do akceleracji obliczeń w modelu geofizycznym EULAG Roman Wyrzykowski Krzysztof Rojek Łukasz Szustak [roman, krojek, lszustak]@icis.pcz.pl
CUDA część 1. platforma GPGPU w obliczeniach naukowych. Maciej Matyka
CUDA część 1 platforma GPGPU w obliczeniach naukowych Maciej Matyka Bariery sprzętowe (procesory) ok na. 1 10 00 la raz t y Gdzie jesteśmy? a ok. 2 razy n 10 lat (ZK) Rozwój 1985-2004 i dalej? O roku ów
Sieci obliczeniowe poprawny dobór i modelowanie
Sieci obliczeniowe poprawny dobór i modelowanie 1. Wstęp. Jednym z pierwszych, a zarazem najważniejszym krokiem podczas tworzenia symulacji CFD jest poprawne określenie rozdzielczości, wymiarów oraz ilości
CUDA Median Filter filtr medianowy wykorzystujący bibliotekę CUDA sprawozdanie z projektu
CUDA Median Filter filtr medianowy wykorzystujący bibliotekę CUDA sprawozdanie z projektu inż. Daniel Solarz Wydział Fizyki i Informatyki Stosowanej AGH 1. Cel projektu. Celem projektu było napisanie wtyczki
Porównanie wydajności CUDA i OpenCL na przykładzie równoległego algorytmu wyznaczania wartości funkcji celu dla problemu gniazdowego
Porównanie wydajności CUDA i OpenCL na przykładzie równoległego algorytmu wyznaczania wartości funkcji celu dla problemu gniazdowego Mariusz Uchroński 3 grudnia 2010 Plan prezentacji 1. Wprowadzenie 2.
Programowanie Równoległe wykład 13. Symulacje komputerowe cieczy LBM w CUDA. Maciej Matyka Instytut Fizyki Teoretycznej
Programowanie Równoległe wykład 13 Symulacje komputerowe cieczy LBM w CUDA Maciej Matyka Instytut Fizyki Teoretycznej Transport cieczy i gazów W wielu dziedzinach trzeba rozwiązać zagadnienie transportu
Zastosowanie technologii GPU do rozpoznawania i analizy (np. rezonansu magnetycznego) I. Prowadzone badania naukowe oraz uzyskane wyniki
Zastosowanie technologii GPU do rozpoznawania i analizy (np. rezonansu magnetycznego) Karol Miszalski-Jamka Opiekun naukowy: dr hab. prof. UŚ Marcin Kostur I. Prowadzone badania naukowe oraz uzyskane wyniki
Matematyka Stosowana na Politechnice Wrocławskiej. Komitet Matematyki PAN, luty 2017 r.
Matematyka Stosowana na Politechnice Wrocławskiej Komitet Matematyki PAN, luty 2017 r. Historia kierunku Matematyka Stosowana utworzona w 2012 r. na WPPT (zespół z Centrum im. Hugona Steinhausa) studia
CUDA jako platforma GPGPU w obliczeniach naukowych
CUDA jako platforma GPGPU w obliczeniach naukowych Seminarium Grupy Neutrinowej, 12.12.2011 Maciej Matyka, Zbigniew Koza Instytut Fizyki Teoretycznej Uniwersytet Wrocławski Bariery sprzętowe (procesory)
Rola superkomputerów i modelowania numerycznego we współczesnej fzyce. Gabriel Wlazłowski
Rola superkomputerów i modelowania numerycznego we współczesnej fzyce Gabriel Wlazłowski Podział fizyki historyczny Fizyka teoretyczna Fizyka eksperymentalna Podział fizyki historyczny Ogólne równania
Implementacja modelu FHP w technologii NVIDIA CUDA
Uniwersytet Wrocławski Wydział Fizyki i Astronomii Instytut Fizyki Teoretycznej Sebastian Szkoda Implementacja modelu FHP w technologii NVIDIA CUDA Opiekun: dr hab. Zbigniew Koza, prof. UWr. 1 Model 1.1
Zapoznanie z technikami i narzędziami programistycznymi służącymi do tworzenia programów współbieżnych i obsługi współbieżności przez system.
Wstęp Zapoznanie z technikami i narzędziami programistycznymi służącymi do tworzenia programów współbieżnych i obsługi współbieżności przez system. Przedstawienie architektur sprzętu wykorzystywanych do
MESco. Testy skalowalności obliczeń mechanicznych w oparciu o licencje HPC oraz kartę GPU nvidia Tesla c2075. Stanisław Wowra
MESco Testy skalowalności obliczeń mechanicznych w oparciu o licencje HPC oraz kartę GPU nvidia Tesla c2075 Stanisław Wowra swowra@mesco.com.pl Lider w dziedzinie symulacji na rynku od 1994 roku. MESco
Porównanie generatorów liczb losowych wykorzystywanych w arkuszach kalkulacyjnych
dr Piotr Sulewski POMORSKA AKADEMIA PEDAGOGICZNA W SŁUPSKU KATEDRA INFORMATYKI I STATYSTYKI Porównanie generatorów liczb losowych wykorzystywanych w arkuszach kalkulacyjnych Wprowadzenie Obecnie bardzo
INŻYNIERIA OPROGRAMOWANIA
INSTYTUT INFORMATYKI STOSOWANEJ 2013 INŻYNIERIA OPROGRAMOWANIA Inżynieria Oprogramowania Proces ukierunkowany na wytworzenie oprogramowania Jak? Kto? Kiedy? Co? W jaki sposób? Metodyka Zespół Narzędzia
Projektowanie nowoczesnych mieszadeł elektromagnetycznych dla pieców łukowych z wykorzystaniem HPC. Mirosław Kupczyk (PCSS) Poznań
Projektowanie nowoczesnych mieszadeł elektromagnetycznych dla pieców łukowych z wykorzystaniem HPC Mirosław Kupczyk (PCSS) Poznań 13.09.2016 Projektowanie nowoczesnych mieszadeł elektromagnetycznych dla
Równoległy algorytm wyznaczania bloków dla cyklicznego problemu przepływowego z przezbrojeniami
Równoległy algorytm wyznaczania bloków dla cyklicznego problemu przepływowego z przezbrojeniami dr inż. Mariusz Uchroński Wrocławskie Centrum Sieciowo-Superkomputerowe Agenda Cykliczny problem przepływowy
Zagadnienia egzaminacyjne INFORMATYKA. Stacjonarne. I-go stopnia. (INT) Inżynieria internetowa STOPIEŃ STUDIÓW TYP STUDIÓW SPECJALNOŚĆ
(INT) Inżynieria internetowa 1. Tryby komunikacji między procesami w standardzie Message Passing Interface 2. HTML DOM i XHTML cel i charakterystyka 3. Asynchroniczna komunikacja serwerem HTTP w technologii
Nowoczesne narzędzia obliczeniowe do projektowania i optymalizacji kotłów
Nowoczesne narzędzia obliczeniowe do projektowania i optymalizacji kotłów Mateusz Szubel, Mariusz Filipowicz Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie AGH University of Science and
Algorytmy i Struktury Danych
POLITECHNIKA KRAKOWSKA - WIEiK KATEDRA AUTOMATYKI i TECHNIK INFORMACYJNYCH Algorytmy i Struktury Danych www.pk.edu.pl/~zk/aisd_hp.html Wykładowca: dr inż. Zbigniew Kokosiński zk@pk.edu.pl Wykład 12: Wstęp
MODELOWANIE NUMERYCZNE POLA PRZEPŁYWU WOKÓŁ BUDYNKÓW
1. WSTĘP MODELOWANIE NUMERYCZNE POLA PRZEPŁYWU WOKÓŁ BUDYNKÓW mgr inż. Michał FOLUSIAK Instytut Lotnictwa W artykule przedstawiono wyniki dwu- i trójwymiarowych symulacji numerycznych opływu budynków wykonanych
Nowoczesne technologie przetwarzania informacji
Projekt Nowe metody nauczania w matematyce Nr POKL.09.04.00-14-133/11 Nowoczesne technologie przetwarzania informacji Mgr Maciej Cytowski (ICM UW) Lekcja 2: Podstawowe mechanizmy programowania równoległego
Wydajność obliczeń równoległych. Krzysztof Banaś Obliczenia Wysokiej Wydajności 1
Wydajność obliczeń równoległych Krzysztof Banaś Obliczenia Wysokiej Wydajności 1 Wydajność obliczeń równoległych Podobnie jak w obliczeniach sekwencyjnych, gdzie celem optymalizacji wydajności było maksymalne
Modelowanie komputerowe dynamiki płynów Maciej Matyka Instytut Fizyki Teoretycznej
Modelowanie komputerowe dynamiki płynów 2011-12-05 Maciej Matyka Instytut Fizyki Teoretycznej Hydrodynamika http://www.realflow.com/ Konkursy na wydziale fizyki Lata 1999-2011 Oprogramowanie popularyzujące
Modelowanie i symulacja zagadnień biomedycznych PROJEKT BARTŁOMIEJ GRZEBYTA, JAKUB OTWOROWSKI
Modelowanie i symulacja zagadnień biomedycznych PROJEKT BARTŁOMIEJ GRZEBYTA, JAKUB OTWOROWSKI Spis treści Wstęp... 2 Opis problemu... 3 Metoda... 3 Opis modelu... 4 Warunki brzegowe... 5 Wyniki symulacji...
PROGRAMOWANIE WSPÓŁCZESNYCH ARCHITEKTUR KOMPUTEROWYCH DR INŻ. KRZYSZTOF ROJEK
1 PROGRAMOWANIE WSPÓŁCZESNYCH ARCHITEKTUR KOMPUTEROWYCH DR INŻ. KRZYSZTOF ROJEK POLITECHNIKA CZĘSTOCHOWSKA 2 Trendy rozwoju współczesnych procesorów Budowa procesora CPU na przykładzie Intel Kaby Lake
Przygotowanie kilku wersji kodu zgodnie z wymogami wersji zadania,
Przetwarzanie równoległe PROJEKT OMP i CUDA Temat projektu dotyczy analizy efektywności przetwarzania równoległego realizowanego przy użyciu komputera równoległego z procesorem wielordzeniowym z pamięcią
PROGRAMOWANIE WSPÓŁCZESNYCH ARCHITEKTUR KOMPUTEROWYCH DR INŻ. KRZYSZTOF ROJEK
1 PROGRAMOWANIE WSPÓŁCZESNYCH ARCHITEKTUR KOMPUTEROWYCH DR INŻ. KRZYSZTOF ROJEK POLITECHNIKA CZĘSTOCHOWSKA 2 Część teoretyczna Informacje i wstępne wymagania Cel przedmiotu i zakres materiału Zasady wydajnego
NOWOCZESNE TECHNOLOGIE ENERGETYCZNE Rola modelowania fizycznego i numerycznego
Politechnika Częstochowska Katedra Inżynierii Energii NOWOCZESNE TECHNOLOGIE ENERGETYCZNE Rola modelowania fizycznego i numerycznego dr hab. inż. Zbigniew BIS, prof P.Cz. dr inż. Robert ZARZYCKI Wstęp
POLITECHNIKA POZNAŃSKA
POLITECHNIKA POZNAŃSKA WYDZIAŁ BUDOWY MASZYN I ZARZĄDZANIA Metoda Elementów Skończonych PROJEKT COMSOL Multiphysics 3.4 Prowadzący: dr hab. inż. Tomasz Stręk prof. PP Wykonali: Maciej Bogusławski Mateusz
Welcome to the waitless world. Inteligentna infrastruktura systemów Power S812LC i S822LC
Inteligentna infrastruktura systemów Power S812LC i S822LC Przedstawiamy nową linię serwerów dla Linux Clouds & Clasters IBM Power Systems LC Kluczowa wartość dla klienta Specyfikacje S822LC Technical
zna metody matematyczne w zakresie niezbędnym do formalnego i ilościowego opisu, zrozumienia i modelowania problemów z różnych
Grupa efektów kierunkowych: Matematyka stosowana I stopnia - profil praktyczny (od 17 października 2014) Matematyka Stosowana I stopień spec. Matematyka nowoczesnych technologii stacjonarne 2015/2016Z
OPIS PRZEDMIOTU/MODUŁU KSZTAŁCENIA (SYLABUS)
Załącznik nr 2 do zarządzenia Nr 33/2012 z dnia 25 kwietnia 2012 r. OPIS PRZEDMIOTU/MODUŁU KSZTAŁCENIA (SYLABUS) 1. Nazwa przedmiotu/modułu w języku polskim Symulacje komputerowe dynamiki płynów 2. Nazwa
Raport Hurtownie Danych
Raport Hurtownie Danych Algorytm Apriori na indeksie bitmapowym oraz OpenCL Mikołaj Dobski, Mateusz Jarus, Piotr Jessa, Jarosław Szymczak Cel projektu: Implementacja algorytmu Apriori oraz jego optymalizacja.
IDENTYFIKACJA I ANALIZA PARAMETRÓW GEOMETRYCZNYCH I MECHANICZNYCH KOŚCI MIEDNICZNEJ CZŁOWIEKA
POLITECHNIKA ŚLĄSKA ZESZYTY NAUKOWE Nr 1651 Antoni JOHN SUB Gottingen 7 217 780 458 2005 A 3012 IDENTYFIKACJA I ANALIZA PARAMETRÓW GEOMETRYCZNYCH I MECHANICZNYCH KOŚCI MIEDNICZNEJ CZŁOWIEKA Gliwice 2004
Programowanie procesorów graficznych GPGPU
Programowanie procesorów graficznych GPGPU 1 GPGPU Historia: lata 80 te popularyzacja systemów i programów z graficznym interfejsem specjalistyczne układy do przetwarzania grafiki 2D lata 90 te standaryzacja
Podczas wykonywania analizy w programie COMSOL, wykorzystywane jest poniższe równanie: 1.2. Dane wejściowe.
Politechnika Poznańska Wydział Budowy Maszyn i Zarządzania Mechanika i Budowa Maszyn Grupa M3 Metoda Elementów Skończonych Prowadzący: dr hab. Tomasz Stręk, prof. nadzw. Wykonali: Marcin Rybiński Grzegorz
Teraz bajty. Informatyka dla szkół ponadpodstawowych. Zakres rozszerzony. Część 1.
Teraz bajty. Informatyka dla szkół ponadpodstawowych. Zakres rozszerzony. Część 1. Grażyna Koba MIGRA 2019 Spis treści (propozycja na 2*32 = 64 godziny lekcyjne) Moduł A. Wokół komputera i sieci komputerowych
Politechnika Łódzka Wydział Mechaniczny Instytut obrabiarek i technologii budowy maszyn. Praca Magisterska
Politechnika Łódzka Wydział Mechaniczny Instytut obrabiarek i technologii budowy maszyn Adam Wijata 193709 Praca Magisterska na kierunku Automatyka i Robotyka Studia stacjonarne TEMAT Modyfikacje charakterystyk
Bezpieczne stadiony systemy wspomagające projektowanie obiektów użyteczności publicznej. dr inż. Jarosław Wąs mgr inż.
Bezpieczne stadiony systemy wspomagające projektowanie obiektów użyteczności publicznej dr inż. Jarosław Wąs mgr inż. Robert Lubaś Plan prezentacji Kilka słów o autorach Cel naukowy Istniejący stan wiedzy
Modelowanie i Animacja
Maciej Matyka Uniwersytet Wrocławski Maciej Matyka Plan wykładu Dlaczego animujemy używając komputera? Dlaczego animujemy używając komputera? Wyciąg z minimum programowego fizyki w liceum... Kinematyka
DWUTEOWA BELKA STALOWA W POŻARZE - ANALIZA PRZESTRZENNA PROGRAMAMI FDS ORAZ ANSYS
Proceedings of the 5 th International Conference on New Trends in Statics and Dynamics of Buildings October 19-20, 2006 Bratislava, Slovakia Faculty of Civil Engineering STU Bratislava Slovak Society of
Instrukcja do wykonania symulacji numerycznych CFD w programie PolyFlow 14.0 przepływu płynów nienewtonowskich o właściwościach lepkosprężystych
Instrukcja do wykonania symulacji numerycznych CFD w programie PolyFlow 14.0 przepływu płynów nienewtonowskich o właściwościach lepkosprężystych 1. Uruchamianie programu PolyFlow W ramach projektu symulacje
Parametry wydajnościowe systemów internetowych. Tomasz Rak, KIA
Parametry wydajnościowe systemów internetowych Tomasz Rak, KIA 1 Agenda ISIROSO System internetowy (rodzaje badań, konstrukcja) Parametry wydajnościowe Testy środowiska eksperymentalnego Podsumowanie i
Zagadnienia egzaminacyjne INFORMATYKA. stacjonarne. I-go stopnia. (INT) Inżynieria internetowa STOPIEŃ STUDIÓW TYP STUDIÓW SPECJALNOŚĆ
(INT) Inżynieria internetowa 1.Tryby komunikacji między procesami w standardzie Message Passing Interface. 2. HTML DOM i XHTML cel i charakterystyka. 3. Asynchroniczna komunikacja serwerem HTTP w technologii
ANALIZA BELKI DREWNIANEJ W POŻARZE
Proceedings of the 5 th International Conference on New Trends in Statics and Dynamics of Buildings October 19-20, 2006 Bratislava, Slovakia Faculty of Civil Engineering STU Bratislava Slovak Society of
Julia 4D - raytracing
i przykładowa implementacja w asemblerze Politechnika Śląska Instytut Informatyki 27 sierpnia 2009 A teraz... 1 Fraktale Julia Przykłady Wstęp teoretyczny Rendering za pomocą śledzenia promieni 2 Implementacja
WYKORZYSTANIE MES DO WYZNACZANIA WPŁYWU PĘKNIĘCIA W STOPIE ZĘBA KOŁA NA ZMIANĘ SZTYWNOŚCI ZAZĘBIENIA
ZESZYTY NAUKOWE POLITECHNIKI ŚLĄSKIEJ 2009 Seria: TRANSPORT z. 65 Nr kol. 1807 Tomasz FIGLUS, Piotr FOLĘGA, Piotr CZECH, Grzegorz WOJNAR WYKORZYSTANIE MES DO WYZNACZANIA WPŁYWU PĘKNIĘCIA W STOPIE ZĘBA
10/14/2013 Przetwarzanie równoległe - wstęp 1. Zakres przedmiotu
Literatura 1. Introduction to Parallel Computing; Grama, Gupta, Karypis, Kumar; Addison Wesley 2003 2. Wprowadzenie do obliczeń równoległych, Zbigniew Czech, Wydawnictwo Naukowe PWN, 2010. 3. Designing
Literatura. 11/16/2016 Przetwarzanie równoległe - wstęp 1
Literatura 1. Wprowadzenie do obliczeń równoległych, Zbigniew Czech, Wydawnictwo Naukowe PWN, 2010, 2013 2. Introduction to Parallel Computing; Grama, Gupta, Karypis, Kumar; Addison Wesley 2003 3. Designing
Obliczenia Wysokiej Wydajności
Obliczenia wysokiej wydajności 1 Wydajność obliczeń Wydajność jest (obok poprawności, niezawodności, bezpieczeństwa, ergonomiczności oraz łatwości stosowania i pielęgnacji) jedną z najważniejszych charakterystyk
Klaster obliczeniowy
Warsztaty promocyjne Usług kampusowych PLATON U3 Klaster obliczeniowy czerwiec 2012 Przemysław Trzeciak Centrum Komputerowe Politechniki Łódzkiej Agenda (czas: 20min) 1) Infrastruktura sprzętowa wykorzystana
ZASTOSOWANIE METOD OPTYMALIZACJI W DOBORZE CECH GEOMETRYCZNYCH KARBU ODCIĄŻAJĄCEGO
MODELOWANIE INŻYNIERSKIE ISSN 1896-771X 40, s. 43-48, Gliwice 2010 ZASTOSOWANIE METOD OPTYMALIZACJI W DOBORZE CECH GEOMETRYCZNYCH KARBU ODCIĄŻAJĄCEGO TOMASZ CZAPLA, MARIUSZ PAWLAK Katedra Mechaniki Stosowanej,
Modelowanie jako sposób opisu rzeczywistości. Katedra Mikroelektroniki i Technik Informatycznych Politechnika Łódzka
Modelowanie jako sposób opisu rzeczywistości Katedra Mikroelektroniki i Technik Informatycznych Politechnika Łódzka 2015 Wprowadzenie: Modelowanie i symulacja PROBLEM: Podstawowy problem z opisem otaczającej
Automatyzacja procesu tworzenia sprzętowego narzędzia służącego do rozwiązywania zagadnienia logarytmu dyskretnego na krzywych eliptycznych
Automatyzacja procesu tworzenia sprzętowego narzędzia służącego do rozwiązywania zagadnienia logarytmu dyskretnego na krzywych eliptycznych Autor: Piotr Majkowski Pod opieką: prof. Zbigniew Kotulski Politechnika
INŻYNIERIA OPROGRAMOWANIA
INSTYTUT INFORMATYKI STOSOWANEJ 2014 Nowy blok obieralny! Testowanie i zapewnianie jakości oprogramowania INŻYNIERIA OPROGRAMOWANIA Inżynieria Oprogramowania Proces ukierunkowany na wytworzenie oprogramowania
Analiza korespondencji
Analiza korespondencji Kiedy stosujemy? 2 W wielu badaniach mamy do czynienia ze zmiennymi jakościowymi (nominalne i porządkowe) typu np.: płeć, wykształcenie, status palenia. Punktem wyjścia do analizy
Studentom zostaną dostarczone wzory lub materiały opisujące. Zachęcamy do wykonania projektów programistycznych w postaci apletów.
W niniejszym dokumencie znajdują się propozycje projektów na rok 2008. Tematy sformułowane są ogólnie, po wyborze tematu i skontaktowaniu z prowadzącym zostaną określone szczegółowe wymagania co do projektu.
Projektowanie elementów z tworzyw sztucznych
Projektowanie elementów z tworzyw sztucznych Wykorzystanie technik komputerowych w projektowaniu elementów z tworzyw sztucznych Tematyka wykładu Techniki komputerowe, Problemy występujące przy konstruowaniu
Optymalizacja ciągła
Optymalizacja ciągła 5. Metoda stochastycznego spadku wzdłuż gradientu Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 04.04.2019 1 / 20 Wprowadzenie Minimalizacja różniczkowalnej
Budowa i użytkowanie klastrów w opaciu o układy Cell BE oraz GPU
Budowa i użytkowanie klastrów w opaciu o układy Cell BE oraz GPU Daniel Kubiak Wydział Inżynierii Mechanicznej i Informatyki Kierunek informatyka, Rok V sor@czlug.icis.pcz.pl Streszczenie Celem pracy jest
Wzór Żurawskiego. Belka o przekroju kołowym. Składowe naprężenia stycznego można wyrazić następująco (np. [1,2]): T r 2 y ν ) (1) (2)
Przykłady rozkładu naprężenia stycznego w przekrojach belki zginanej nierównomiernie (materiał uzupełniający do wykładu z wytrzymałości materiałów I, opr. Z. Więckowski, 11.2018) Wzór Żurawskiego τ xy
Praca dyplomowa magisterska
Praca dyplomowa magisterska Implementacja algorytmów filtracji adaptacyjnej o strukturze transwersalnej na platformie CUDA Dyplomant: Jakub Kołakowski Opiekun pracy: dr inż. Michał Meller Plan prezentacji
Przepływy Taylora-Couetta z wymianą ciepła. Ewa Tuliszka-Sznitko, Kamil Kiełczewski Wydział Maszyn Roboczych i Transportu
Przepływy Taylora-Couetta z wymianą ciepła Ewa Tuliszka-Sznitko, Kamil Kiełczewski Wydział Maszyn Roboczych i Transportu Typowy przepływ Taylora-Couetta to przepływ lepki pomiędzy dwoma koncentrycznymi
Ruchome Piaski v1.0. Maciej Matyka email: maq@panoramix.ift.uni.wroc.pl
Ruchome Piaski v1.0 Maciej Matyka email: maq@panoramix.ift.uni.wroc.pl Uniwersytet Wrocławski Wydział Fizyki i Astronomii Fizyka II BIS 16 lutego 2002 roku Spis treści 1 Teoria 4 1.1 Ogólne założenia.........................................
Metody obliczeniowe - modelowanie i symulacje
Metody obliczeniowe - modelowanie i symulacje J. Pamin nstitute for Computational Civil Engineering Civil Engineering Department, Cracow University of Technology URL: www.l5.pk.edu.pl Zagadnienia i źródła
Zastosowanie wybranych metod bezsiatkowych w analizie przepływów w pofalowanych przewodach Streszczenie
Zastosowanie wybranych metod bezsiatkowych w analizie przepływów w pofalowanych przewodach Streszczenie Jednym z podstawowych zagadnień mechaniki płynów jest analiza przepływu płynu przez przewody o dowolnym
Simulink MATLAB Przegląd obiektów i przykłady zastosowań
Simulink MATLAB Przegląd obiektów i przykłady zastosowań M. Berndt-Schreiber 1 Simulink MATLAB SIMULINK jest rozszerzeniem pakietu MATLAB; przy pomocy graficznego środowiska pozwala konstruować diagramy
Wykorzystanie architektury Intel MIC w obliczeniach typu stencil
Wykorzystanie architektury Intel MIC w obliczeniach typu stencil Kamil Halbiniak Wydział Inżynierii Mechanicznej i Informatyki Kierunek informatyka, Rok IV Instytut Informatyki Teoretycznej i Stosowanej
WYDZIAŁ LABORATORIUM FIZYCZNE
1 W S E i Z W WARSZAWIE WYDZIAŁ LABORATORIUM FIZYCZNE Ćwiczenie Nr 3 Temat: WYZNACZNIE WSPÓŁCZYNNIKA LEPKOŚCI METODĄ STOKESA Warszawa 2009 2 1. Podstawy fizyczne Zarówno przy przepływach płynów (ciecze
Budowa komputera. Magistrala. Procesor Pamięć Układy I/O
Budowa komputera Magistrala Procesor Pamięć Układy I/O 1 Procesor to CPU (Central Processing Unit) centralny układ elektroniczny realizujący przetwarzanie informacji Zmiana stanu tranzystorów wewnątrz
Średni. Mały. Zakres Dół Środek Góra
Szacowanie rozmiaru kodu Jerzy Nawrocki & Adam Wojciechowski Po co szacować wielkość kodu? Opracowanie planów pracy Ocena pracochłonności Konstruowanie wiarygodnych harmonogramów Sizing represents the
Wprowadzenie. Co to jest klaster? Podział ze względu na przeznaczenie. Architektury klastrów. Cechy dobrego klastra.
N Wprowadzenie Co to jest klaster? Podział ze względu na przeznaczenie. Architektury klastrów. Cechy dobrego klastra. Wprowadzenie (podział ze względu na przeznaczenie) Wysokiej dostępności 1)backup głównego
Przejścia fazowe w uogólnionym modelu modelu q-wyborcy na grafie zupełnym
Przejścia fazowe w uogólnionym modelu modelu q-wyborcy na grafie zupełnym Piotr Nyczka Institute of Theoretical Physics University of Wrocław Artykuły Opinion dynamics as a movement in a bistable potential
Wydajność systemów a organizacja pamięci, czyli dlaczego jednak nie jest aż tak źle. Krzysztof Banaś, Obliczenia wysokiej wydajności.
Wydajność systemów a organizacja pamięci, czyli dlaczego jednak nie jest aż tak źle Krzysztof Banaś, Obliczenia wysokiej wydajności. 1 Organizacja pamięci Organizacja pamięci współczesnych systemów komputerowych
Metody numeryczne Wykład 4
Metody numeryczne Wykład 4 Dr inż. Michał Łanczont Instytut Elektrotechniki i Elektrotechnologii E419, tel. 4293, m.lanczont@pollub.pl, http://m.lanczont.pollub.pl Zakres wykładu Metody skończone rozwiązywania
Inżynieria oprogramowania. Część 8: Metoda szacowania ryzyka - PERT
UNIWERSYTET RZESZOWSKI KATEDRA INFORMATYKI Opracował: mgr inż. Przemysław Pardel v1.01 2010 Inżynieria oprogramowania Część 8: Metoda szacowania ryzyka - PERT ZAGADNIENIA DO ZREALIZOWANIA (3H) PERT...
System wspomagania harmonogramowania przedsięwzięć budowlanych
System wspomagania harmonogramowania przedsięwzięć budowlanych Wojciech Bożejko 1 Zdzisław Hejducki 2 Mariusz Uchroński 1 Mieczysław Wodecki 3 1 Instytut Informatyki, Automatyki i Robotyki Politechnika
REFERAT PRACY DYPLOMOWEJ
REFERAT PRACY DYPLOMOWEJ Temat pracy: Implementacja i porównanie wydajności wybranych algorytmów grafowych w warunkach obliczeń równoległych Autor pracy: Michał Podstawski Promotor: Prof. WSTI, dr hab.
METODA ELEMENTÓW SKOŃOCZNYCH Projekt
METODA ELEMENTÓW SKOŃOCZNYCH Projekt Wykonali: Maciej Sobkowiak Tomasz Pilarski Profil: Technologia przetwarzania materiałów Semestr 7, rok IV Prowadzący: Dr hab. Tomasz STRĘK 1. Analiza przepływu ciepła.
SYMULACJA OBLICZENIOWA OPŁYWU I OBCIĄŻEŃ BEZPRZEGUBOWEGO WIRNIKA OGONOWEGO WRAZ Z OCENĄ ICH ODDZIAŁYWANIA NA PRACĘ WIRNIKA
SYMULACJA OBLICZENIOWA OPŁYWU I OBCIĄŻEŃ BEZPRZEGUBOWEGO WIRNIKA OGONOWEGO WRAZ Z OCENĄ ICH ODDZIAŁYWANIA NA PRACĘ WIRNIKA Airflow Simulations and Load Calculations of the Rigide with their Influence on
PRZESTRZENNY MODEL PRZENOŚNIKA TAŚMOWEGO MASY FORMIERSKIEJ
53/17 ARCHIWUM ODLEWNICTWA Rok 2005, Rocznik 5, Nr 17 Archives of Foundry Year 2005, Volume 5, Book 17 PAN - Katowice PL ISSN 1642-5308 PRZESTRZENNY MODEL PRZENOŚNIKA TAŚMOWEGO MASY FORMIERSKIEJ J. STRZAŁKO
WPŁYW SZYBKOŚCI STYGNIĘCIA NA WŁASNOŚCI TERMOFIZYCZNE STALIWA W STANIE STAŁYM
2/1 Archives of Foundry, Year 200, Volume, 1 Archiwum Odlewnictwa, Rok 200, Rocznik, Nr 1 PAN Katowice PL ISSN 1642-308 WPŁYW SZYBKOŚCI STYGNIĘCIA NA WŁASNOŚCI TERMOFIZYCZNE STALIWA W STANIE STAŁYM D.
Obliczenia osiągów dyszy aerospike przy użyciu pakietu FLUENT Michał Folusiaak
Obliczenia osiągów dyszy aerospike przy użyciu pakietu FLUENT Michał Folusiaak WSTĘP Celem przeprowadzonych analiz numerycznych było rozpoznanie możliwości wykorzystania komercyjnego pakietu obliczeniowego
Metoda elementów skończonych-projekt
Metoda elementów skończonych-projekt Ziarniak Marcin Nawrocki Maciej Mrówczyński Jakub M6/MiBM 1. Analiza odkształcenia kierownicy pod wpływem obciążenia W pierwszym zadaniu przedmiotem naszych badań będzie
Podsystem graficzny. W skład podsystemu graficznego wchodzą: karta graficzna monitor
Plan wykładu 1. Pojęcie podsystemu graficznego i karty graficznej 2. Typy kart graficznych 3. Budowa karty graficznej: procesor graficzny (GPU), pamięć podręczna RAM, konwerter cyfrowo-analogowy (DAC),
Dostęp do europejskich systemów obliczeniowych Tier-0 w ramach PRACE
Dostęp do europejskich systemów obliczeniowych Tier-0 w ramach PRACE KONFERENCJA UŻYTKOWNIKÓW KDM 2016 W kierunku obliczeń Exaskalowych Mirosław Kupczyk, PCSS 28.06.2016 Misja PRACE HPC Dla Przemysłu Zagwarantowanie
Metoda Elementów Skończonych
Metoda Elementów Skończonych 2013/2014 Wydział Budowy Maszyn i Zarządzania Mechanika i Budowa Maszyn Rok III, Semestr V, Grupa M-3 Michał Kąkalec Hubert Pucała Dominik Kurczewski Prowadzący: prof. dr hab.
Kierunek:Informatyka- - inż., rok I specjalność: Grafika komputerowa
:Informatyka- - inż., rok I specjalność: Grafika komputerowa Rok akademicki 018/019 Metody uczenia się i studiowania. 1 Podstawy prawne. 1 Podstawy ekonomii. 1 Matematyka dyskretna. 1 30 Wprowadzenie do
USŁUGI HIGH PERFORMANCE COMPUTING (HPC) DLA FIRM. Juliusz Pukacki,PCSS
USŁUGI HIGH PERFORMANCE COMPUTING (HPC) DLA FIRM Juliusz Pukacki,PCSS Co to jest HPC (High Preformance Computing)? Agregowanie dużych zasobów obliczeniowych w sposób umożliwiający wykonywanie obliczeń
MODELOWANIE ZA POMOCĄ MES Analiza statyczna ustrojów powierzchniowych
MODELOWANIE ZA POMOCĄ MES Analiza statyczna ustrojów powierzchniowych PODSTAWY KOMPUTEROWEGO MODELOWANIA USTROJÓW POWIERZCHNIOWYCH Budownictwo, studia I stopnia, semestr VI przedmiot fakultatywny rok akademicki
PROGRAM SEMINARIUM ZAKOPANE 2011. czwartek, 1 grudnia 2011 r. Sesja przedpołudniowa
czwartek, 1 grudnia 2011 r. Sesja przedpołudniowa 9.30 9.40: 9.40 10.10: 10.10 10.40: 10.40 11.00: Otwarcie seminarium Prof. dr hab. inż. Tadeusz Czachórski prof. dr hab. inż. Robert Schaeffer, prezentacja:
Przykładowe sprawozdanie. Jan Pustelnik
Przykładowe sprawozdanie Jan Pustelnik 30 marca 2007 Rozdział 1 Sformułowanie problemu Tematem pracy jest porównanie wydajności trzech tradycyjnych metod sortowania: InsertionSort, SelectionSort i BubbleSort.
MODEL MATEMATYCZNY ZAGREGOWANEGO ELEMENTU UKŁADU ELEKTRYCZNEGO W CYFROWYCH SYMULATORACH PRACUJĄCYCH W CZASIE RZECZYWISTYM
POZNAN UNIVE RSITY OF TE CHNOLOGY ACADE MIC JOURNALS No 7 Electrical Engineering 20 Sławomir CIEŚLIK* MODEL MATEMATYCZNY ZAGREGOWANEGO ELEMENTU UKŁADU ELEKTRYCZNEGO W CYFROWYCH SYMULATORACH PRACUJĄCYCH
Budowa komputera. Magistrala. Procesor Pamięć Układy I/O
Budowa komputera Magistrala Procesor Pamięć Układy I/O 1 Procesor to CPU (Central Processing Unit) centralny układ elektroniczny realizujący przetwarzanie informacji Zmiana stanu tranzystorów wewnątrz