3. Informacje o dotychczasowym zatrudnieniu w jednostkach naukowych
|
|
- Paweł Milewski
- 6 lat temu
- Przeglądów:
Transkrypt
1 Autoreferat Przedstawiający opis dorobku i osiągnięć naukowych w szczególności określonych w art. 16 ust. 2 ustawy o stopniach naukowych i tytule naukowym Dr inż. Andrzej Romanowski Instytut Informatyki Stosowanej Wydział Elektrotechniki, Elektroniki, Informatyki i Automatyki Politechnika Łódzka Łodź, 6 listopada 2018r. 1
2 1. Imię i Nazwisko Andrzej Romanowski 2. Posiadane dyplomy i stopnie naukowe 2008 Nadanie stopnia doktora nauk technicznych w zakresie Informatyki przez Radę Wydziału Elektroniki, Elektrotechniki, Informatyki i Automatyki Politechniki Łódzkiej. Rozprawa pod tytułem Algorytmy modelowania przestrzennego i czasowego dla potrzeb przetwarzania danych w systemach procesowej tomografii pojemnościowej promotor: prof. dr hab. inż. Dominik Sankowski, obroniona z wyróżnieniem na wniosek recenzenta zewnętrznego na Wydziale Elektroniki, Elektrotechniki, Informatyki i Automatyki Politechniki Łódzkiej w dniu r Dyplom magistra inżyniera uzyskany na kierunku Elektronika i Telekomunikacja, w ramach studiów w International Faculty of Engineering, w Politechnice Łódzkiej, w specjalności: Telecommunications and Computer Science. Studia magisterskie jednolite, pięcioletnie, prowadzone w całości w języku angielskim zakończone tytułem Master of Science (dyplom magistra inżyniera), praca magisterska: Wireless Application Protocol Services for the Institute of Electronics. 3. Informacje o dotychczasowym zatrudnieniu w jednostkach naukowych Katedra Informatyki Stosowanej Politechniki Łódzkiej. Asystent obecnie Praca na stanowisku adiunkta w wymiarze pełnego etatu w Instytucie Informatyki Stosowanej Urlop ojcowski łącznie ok. 9 miesięcy obecnie Pełnienie funkcji prodziekana ds. studiów stacjonarnych WEEIA PŁ 2
3 4. Wskazanie osiągnięcia naukowego a. tytuł osiągnięcia naukowego Algorytmy przetwarzania danych wykorzystujące informację kontekstową w przemysłowych systemach tomografii procesowej. Na które składa się cykl 7 prac naukowych powiązanych tematycznie z okresu (wykaz podany w porządku chronologicznym). Podjęty przeze mnie temat dotyczył przetwarzania danych pomiarowych procesów przemysłowych monitorowanych z wykorzystaniem technik tomograficznych. W skład cyklu publikacji wchodzą artykuły z czasopism indeksowanych w bazie JCR i na liście MNiSW część A (6 artykułów autorskich i współautorskich oraz 1 publikacja konferencyjna (materiały konferencyjne indeksowane w bazie Web of Science). [1] Grudzien K., Romanowski A., Williams R.A., Sankowski D., (2008): Gravitional Granular Flow Dynamics Study Based on Tomogrpahic Data Processing, Particulate Science and Technology, Volume 26, Issue 1, p , ISSN: , 2014 Impact Factor: 0.523, 5-Year Impact Factor: 0.515, (MNiSW 20) Udział (45)% [2] Grudzień K., Chaniecki Z., Romanowski A., Niedostatkiewicz M, Sankowski D. (2010): Description of the silo flow and bulk solid pulsation detection using ECT, Flow Measurement and Instrumentation, Volume 21, Issue 3, p , ISSN: , Impact Factor: 1.040, 5-Year Impact Factor: 1.229, (MNiSW 30). Udział (20)% [3] Matusiak B., da Silva MJ., Hampel U., Romanowski A., (2010), Measurement of Dynamic Liquid Distributions in a Fixed Bed Using Electrical Capacitance Tomography and Capacitance Wire-Mesh Sensor. Industrial & Engineering Chemistry Research, 2010, vol. no. 49, p , IF Year Impact Factor: 2.462, (MNiSW 35) Udział (30)% [4] Grudzień K., Chaniecki Z., Romanowski A., Niedostatkiewicz M., Sankowski D., (2012), ECT Image Analysis Methods for Shear Zone Measurements during Silo Discharging Process, Chinese Journal of Chemical Engineering, Volume 20, Issue 2, p , ISSN: , Impact Factor: 1.098, 5-Year Impact Factor: 1.342, (MNiSW 25) Udział (20)% [5] Chen Ch., Woźniak P., Romanowski A., Obaid M., Jaworski T., Kucharski J., Grudzień K., Zhao S., Fjeld M., 2016, Using Crowdsourcing for Scientific Analysis of Industrial Tomographic Images, ACM Transactions on Intelligent Systems and Technology, Vol. V, No. N, Impact Factor: 2.414, 5-Year Impact Factor: 9.15, (MNiSW 50). Udział (30)% [6] Romanowski A., Big Data-Driven Contextual Processing Methods for Electrical Capacitance Tomography, 2018, IEEE Transactions on Industrial Informatics, (W DRUKU, DOSTĘPNE ONLINE W IEEExplore: lipiec 2018) Impact Factor: 6.764, 5-Year Impact Factor: 7.23, (MNiSW 50). Udział (100)% [7] Romanowski A., Contextual processing of electrical capacitance tomography measurement data for temporal modeling of pneumatic conveying proces, (W DRUKU, DOSTĘPNE ONLINE W IEEExplore: wrzesień 2018) FedCSIS 18, ACSIS, vol. 10. IEEE, 2018 (in-press) (MNiSW 15). Udział (100)% Główne wyniki prac naukowych wykonanych w ramach doktoratu zostały przedstawione również w artykułach z listy JCR. Należą do nich trzy publikacje w Particle & Particle 3
4 Systems Characterization, (5-year impact factor 2.51, 2006 Impact Factor 0.639, 2014 / 2015 Impact Factor 3.081): Grudzien K., Romanowski A., Williams R.A, 2005, Application of a Bayesian Approach to the Tomographic Analysis of Hopper Flow, PPSCh, DOI: /ppsc , (MNiSW 30). Romanowski A., Grudzien K., Williams R.A., 2006, Analysis and Interpretation of Hopper Flow Behaviour Using Electrical Capacitance Tomography, PPSCh, /ppsc , (MNiSW 30) Romanowski A., Grudzien K., Robert G. Aykroyd, Richard A. Williams, 2006, Advanced Statistical Analysis as a Novel Tool to Pneumatic Conveying Monitoring and Control Strategy Development PPSCh, DOI: /ppsc , (MNiSW 30). 4
5 Część opisowa autoreferatu: I. TYTUŁ OSIĄGNIĘCIA NAUKOWEGO:... 6 II. OMÓWIENIE CELU NAUKOWEGO I OSIĄGNIĘTYCH WYNIKÓW... 6 III. PODSUMOWANIE IV. OPIS PRAC NAUKOWO BADAWCZYCH I TŁO BADAŃ PROWADZONYCH PO UZYSKANIU DOKTORATU
6 I. Tytuł osiągnięcia naukowego: Algorytmy przetwarzania danych wykorzystujące informację kontekstową w przemysłowych systemach tomografii procesowej. Po doktoracie, pozostając w tematyce monitorowania, diagnozowania i sterowania wybranymi procesami przemysłowymi wykorzystującymi systemy tomografii procesowej, skierowałem swoje zainteresowania naukowo-badawcze w stronę opracowania nowoczesnych, niezawodnych i wydajnych metod analizy przemysłowych procesów grawitacyjnego przepływu materiałów sypkich oraz przepływów wielofazowych. W rezultacie prac badawczych powstał szereg nowych metod i algorytmów przetwarzania danych pomiarowych, które można umieścić w szeroko rozumianych zagadnieniach z zakresu big data, image processing, crowdsourcing, context-awareness oraz data mining. II. Omówienie celu naukowego i osiągniętych wyników Omówienie celu naukowego i syntetyczne ujęcie najważniejszych osiągnięć opracowanych na drodze do osiągnięcia celu naukowego prowadzonych prac badawczych. Systemy tomografii procesowej stanowią bezinwazyjne metody pomiarowe wykorzystywane dla potrzeb monitorowania, diagnozowania i sterowania procesami przemysłowymi. Około 60% wszystkich procesów wykorzystujących materiały stałe związanych jest na pewnym etapie z transportem materiałów sypkich. Gałęzie przemysłu, w których znajduje zastosowanie przepływ materiałów sypkich, a co za tym idzie tomografia procesowa to m.in. przemysł chemiczny, farmaceutyczny, przetwórstwa spożywczego, petrochemiczny i inne. W związku z tym optymalizacja tych procesów przez poprawę systemów monitorowania i diagnostyki ma ogromne znaczenie praktyczne i ekonomiczne [18][38][42][Zał.3.II.E.23]. Aby osiągnąć zamierzony cel skupiłem uwagę na opracowaniu, zaimplementowaniu i zweryfikowaniu nowatorskich algorytmów przetwarzania danych wykorzystujących informację kontekstową w przemysłowych systemach tomografii procesowej [6][32][39]. Na Rys. 1. przedstawiłem schemat osiągniętych najważniejszych wyników uwzględniających opracowane algorytmy (numeracja 1-15 odnosi się do trzech głównych grup algorytmów powstałych w ramach prac badawczych; pełna lista algorytmów jest przedstawiona w dalszej części autoreferatu: cz. IV). 6
7 Rysunek 1. Schemat ilustrujący umiejscowienie autorskich algorytmów i metod kontekstowego przetwarzania pomiarowych danych tomograficznych w układzie głównych kierunków prac badawczych po doktoracie. Algorytmy te stanowią w mojej opinii istotny wkład w dyscyplinę naukową informatykę polegający przede wszystkim na: 1) Twórczym połączeniu nowych, oryginalnych oraz modyfikowanych algorytmów big data wraz z nowatorskim wykorzystaniem w przemyśle danych pomiarowych pochodzących z systemów tomografii procesowej co rozszerza klasyczne podejście w szeroko rozumianym zakresie data mining (eksploracji danych). 2) Zaproponowaniu oryginalnego połączenia inteligencji ludzkiej z metodami automatycznego przetwarzania danych w oryginalnych algorytmach crowdsourcing co stanowi novum w zakresie tzw. image processing (przetwarzania obrazów) stosowanego do tej pory w przemysłowych i badawczych systemach tomograficznych. 3) Wykorzystaniu w opracowanych algorytmach komponentu kontekstowego, co znacząco zwiększa możliwości dokładnej interpretacji danych w przemysłowych systemach monitorowania, diagnostyki i sterowania. Za najbardziej istotne uważam opracowane przeze mnie algorytmy oznaczone numerami 12-15, dotyczące kontekstowego przetwarzania dużych zbiorów danych pomiarowych, opublikowane w ramach samodzielnego artykułu [Zał.3.I.B.6], przy czym powstanie ich nie byłoby możliwe bez zrealizowania w czasie ostatnich 10 lat pozostałych prac wchodzących w skład przedstawianego do oceny osiągnięcia naukowego (m.in. algorytmy oznaczone numerami 1-11), a które zostały opublikowane w ramach artykułów, których jestem autorem i współautorem [Zał.3. I.B.1-5,7]. Poza artykułami stanowiącymi ścisły dorobek składający się na osiągnięcie habilitacyjne warte uwagi są inne publikacje z tego samego zakresu, które świadczą o wysokim poziomie naukowym, nowatorstwie i randze prowadzonych badań. I tak jestem 7
8 współautorem 3 rozdziałów w monografii pn. Computer Vision in Robotics and Industrial Applications pod red. Sankowski D., Nowakowski J. wydanej w Singapurze. Książka ta uzyskała nagrodę Book of The Year 2014 wydawnictwa World Scientific. [Zał.3.II.E.22-24]. Jestem także pomysłodawcą i głównym animatorem międzynarodowej konferencji inotice, której już dziewiąta, coroczna edycja obyła się w czerwcu 2018 r. w Piorunowie/ k. Łodzi [Zał.3.III.L.12-17]. Konferencja ta stanowi forum wymiany myśli badawczej z zakresu informatyki i dyscyplin pokrewnych, ze szczególnym uwzględnieniem styku nauk technicznych i aspektów ludzkich badań prowadzonych przede wszystkim przez młodych naukowców (m.in. doktorantów i habilitantów Instytutu Informatyki Stosowanej PŁ). Efektem tych konferencji jest szereg artykułów zamieszczonych w czasopismach recenzowanych, a także kilku monografii zawierających wyselekcjonowane publikacje najważniejszych wyników badań, co w konsekwencji owocuje ponadprzeciętną w skali kraju liczbą doktoratów, a także habilitacji w Instytucie Informatyki Stosowanej PŁ Aktywność ta spotkała się z wysokim uznaniem (nagrody rektorskie) władz macierzystego Wydziału i Uczelni. Swoje doświadczenia naukowo badawcze zdobywałem w trakcie wielomiesięcznych staży badawczych w wiodących ośrodkach naukowych w Anglii, Niemczech, Norwegii, Szwecji (pełny wykaz w dalszej części autoreferatu), a także w nowoczesnym półprzemysłowym Laboratorium Tomografii Procesowej im. T. Dyakowskiego w Instytucie Informatyki Stosowanej PŁ, zbudowanym w latach ramach europejskiego grantu DENIDIA, którego byłem głównym wykonawcą [Zał.3.III.E]. Uwagi wstępne i szczegółowe omówienie osiągniętych wyników W zakresie usprawniania i optymalizacji a przede wszystkim poprawy dokładności i wydajności systemów monitorowania i diagnostyki procesów przemysłowych opartych na tomografii procesowej, od ponad trzech dekad rozwijane są metody i algorytmy przetwarzania danych tomograficznych, które mają na celu uzyskanie jak najbardziej precyzyjnej informacji o bieżącym stanie monitorowanego procesu [11][12][25][34][35][38][42][56][58][59]. Jednakże metody przetwarzania danych muszą radzić sobie z szeregiem trudności matematycznych i praktycznych powodujących ograniczoną dokładność i wiarygodność dostarczanych przez nie wyników obliczeń [11][38][59]. Trudności na drodze do uzyskania żądanej informacji o procesie przemysłowym są związane z zadaniem rozwiązywania tzw. zagadnienia odwrotnego w tomografii procesowej[22][38]. W procesie tym, poprzez przetwarzanie i analizę zebranych danych pomiarowych, uzyskiwane są informacje o stanie wnętrza przestrzeni czujnika pomiarowego[11][49][53]. W przypadku tomografii elektrycznej (pojemnościowej), która jest podstawowym podmiotem moich badań, właściwości takie jak pod-określoność i złe uwarunkowanie zagadnienia odwrotnego sprawiają, że klasyczne metody rozwiązania wprowadzają trudne do oszacowania błędy [11][21][25][45][46]. Dlatego też przetwarzanie danych pochodzących z systemów tomografii pomiarowej obarczone jest niepewnością związaną z dostarczonymi wynikami pomiarów, niezależnie od postaci danych (surowych bądź zrekonstruowanych) [16][25][27][36][44]. Biorąc pod uwagę powyższe względy, podjąłem próbę opracowania metod syntetycznego przetwarzania danych pomiarowych uwzględniających informacje dodatkowe (kontekstowe) w celu podniesienia 8
9 wiarygodności uzyskanych wyników obliczeń [30][32][Zał.3.I.B]. W tym celu wykonałem szereg badań zrealizowanych w większości na specjalnie zaprojektowanych i wykonanych stanowiskach eksperymentalnych [Aut.IV]. Natomiast pokonanie wspomnianych trudności dotyczących niepewności wyników pomiaru prowadzonego z wykorzystaniem tomografii oraz trudności matematycznych związanych z rozwiązaniem zagadnienia odwrotnego wymagało zastosowania wiedzy informatycznej i opracowania nowych algorytmów przetwarzania danych tomograficznych. W szczególności są to algorytmy kontekstowego przetwarzania dużych zbiorów eksperymentalnych danych tomograficznych oparte na metodach big data. Pierwszym efektem tych badań były metody analizy dynamiki procesu opróżniania zbiorników na materiał sypki monitorowanych przy użyciu sytemu elektrycznej tomografii pojemnościowej ECT opublikowane w czasopiśmie z listy JCR [Zał.3.I.B.1]. Do moich osiągnięć w ramach tej publikacji należy opracowanie algorytmu monitorowania procesu opróżniania silosów opartego na śledzeniu zmian koncentracji materiału w zależności od umiejscowienia sensora ECT na peryferiach monitorowanego (opomiarowanego) zbiornika. Istotną nowością tego algorytmu w skali międzynarodowej jest zaproponowanie metody wyznaczania prędkości propagacji komina przepływu w oparciu o dane pomiarowe pochodzące tylko z pojedynczej płaszczyzny pomiarowej. Jest to możliwe dzięki wnikliwej analizie charakterystyki opróżniania zbiornika prowadzonej w różnych aspektach na bazie zarówno nieprzetworzonych danych pomiarowych jak i zrekonstruowanych obrazów. Opracowana metoda oparta została na eksperymentalnym wykazaniu zakresu czułości przestrzennej wieloelektrodowego czujnika pojemnościowego na zmiany koncentracji materiału przemieszczającego się w jego wnętrzu, który pozwala uchwycić moment pojawiania się znaczących zmian mierzonej pojemności elektrycznej (odpowiadającej zmianom rozkładu przenikalności elektrycznej) na krańcach elektrod w obrębie jednej płaszczyzny sensora. Dzięki zaproponowanej przeze mnie analizie charakterystyki ww. zmian dla różnych obszarów w płaszczyźnie poprzecznej czujnika możliwe było równocześnie wykrycie skokowego wzrostu koncentracji materiału w strefie przyściennej czujnika. Zaproponowana w [Zał.3.I.B.1]. charakterystyka (wycinek Fig. 8 z tego artykułu) ukazuje moment wzrostu mierzonej pojemności odzwierciedlającej koncentrację materiału powyżej pierwotnych 100%. Eksperymentalne wyznaczenie tego efektu jest o tyle istotne, że dotychczas zawsze w znanej mi literaturze mierzona pojemność (czy też zapisywane w jakiejkolwiek innej postaci dane pomiarowe) podlegały normalizacji [1][13][26][28][37][38][44][48][50][58]. Oznacza to wyrównanie skrajnych odczytów pomiarowych do poziomu minimum odpowiadającemu pustej przestrzeni pomiarowej czujnika oraz poziomu maksimum odpowiadającemu pełnej przestrzeni pomiarowej czujnika. W praktyce, w procesie wstępnej kalibracji, tym stanom przypisywane były wartości odpowiednio: 1 oraz 2 (lub rzadziej 0 oraz 1 przy czym to drugie rozwiązanie jest rzadko stosowane, ponieważ powoduje trudności matematyczne związane z późniejszym numerycznym przetwarzaniem danych). Oznacza to, że wszelkie wartości pomiarowe poniżej minimum oraz powyżej maksimum są obcinane, tj. odpowiednio zaokrąglane w górę lub dół w celu zrównania z poziomami zmierzonymi w procesie kalibracji. Jednak w tym konkretnym przypadku, dzięki zastosowaniu reguły kontekstowej polegającej na 9
10 wykorzystaniu obserwacji (poczynionych w postaci pomiarów) i przewidywań eksperckich na temat możliwych czynników sprawczych wykazałem, że bezpośrednią przyczyną tego efektu jest faktyczny wzrost koncentracji spowodowany zbijaniem się materiału w strefie przyściennej zbiornika po uruchomieniu procesu przepływu. Wcześniej nie odkryto tej zależności ani przy pomocy pomiarów, ani przy wykorzystaniu symulacji komputerowych. Dzięki temu, tj., wykorzystaniu kontekstowego przetwarzania danych uwzględniającego ww. informacje, odrzuciłem znaną z dotychczasowej literatury przedmiotu praktykę przetwarzania danych w postaci zaokrąglania (obcinania) wartości pomierzonych do założonego maksimum, co z kolei zaowocowało opracowaniem znacznie bardziej wiarygodnego modelu badanego procesu. Dodatkowo wykazałem w ten sposób, że możliwa jest bardziej dokładna interpretacja danych pomiarowych pochodzących z systemów ECT niż wynikałoby to ze znanych z wcześniejszej literatury zakresów niepewności pomiarowej pozostających na poziomie co najmniej 5%. Bezpośrednią implikacją jest fakt, że dzięki kontekstowemu wykorzystaniu dodatkowych danych (w postaci wiedzy, informacji czy też samych pomiarów) mogłem prowadzić analizę danych pomiarowych odzwierciedlającą zmiany koncentracji materiału nawet na poziomie 2-3%, co wedle wcześniejszych badań nie było teoretycznie możliwe [53][56][59]. Wstępne wykazanie tego faktu pozwoliło na prowadzenie kolejnych badań związanych z rozwojem przemysłowych systemów w pomiarowych opartych na tomografii pojemnościowej w zespole TomoKIS. Natomiast wyniki tych późniejszych badań znalazły efekt w postaci publikacji powstałych w trakcie badań prowadzonych w ramach wielu projektów badawczych realizowanych w Instytucie Informatyki Stosowanej oraz na świecie. Co ważne, opracowane metody i algorytmy analizy i przetwarzania danych pomiarowych pochodzących z tomografii pojemnościowej zostały zweryfikowane dla przepływu różnych materiałów, przez co dają się one rozszerzyć na całą klasę innych zastosowań, także w innych branżach przemysłu [13][16][33][38][49]. Kontynuacją badań nad wykorzystaniem informacji kontekstowej dla celów opracowania algorytmów i metod modelowania oraz monitorowania procesów przemysłowych był mój udział w pracach, których wyniki ukazały się w [Zał.3.I.B.3]. Artykuł ten przedstawia szczegółową analizę możliwości wykorzystania systemu ECT do jakościowej oceny dynamiki procesów przemysłowych na bazie interpretacji danych obrazowych zrekonstruowanego obrazu rozkładu koncentracji materiału w przekroju poprzecznym badanego procesu. Pomiary zjawisk z udziałem materiałów sypkich zwykle operują w zakresie wykrywania różnic rzędu kilku procent upakowania materiału w przestrzeni pomiarowej, co jest niezwykle trudne do wykrycia i jednocześnie prawidłowej interpretacji, szczególnie że dla ECT odpowiada to różnicy rzędu kilku femtofaradów [ff] [11][31][42]. Ilustracją tych trudności są m.in. wykresy na (Fig. 12 w artykule [Zał.3.I.B.3]. Poniżej na Rys. 2 zaprezentowany jest wycinek przebiegu procesu przepływu grawitacyjnego materiałów sypkich w czasie, który ukazuje efekt skoku wykrytej koncentracji materiału powyżej nominalnych 100% oznaczonych wcześniej prawidłowo w procesie kalibracji zestawu pomiarowego. 10
11 Rysunek 2. Ilustracja zjawiska wzrostu odczytów pomiarowych powyżej maksymalnych wartości kalibracyjnych. [Jest to wycinek rysunku Fig. 12 z artykułu Grudzień, Romanowski et al. 2010]. Warto w tym miejscu zaznaczyć, że przedstawione odczyty nie są wynikiem błędu pomiarowego, a tylko prawidłowo oddają specyfikę zjawisk występujących w procesach będących przedmiotem pomiaru. W tym przypadku odczyty pomiarowe przekraczające 100% odzwierciedlają sytuację dodatkowego zbijania się materiału w wybranych strefach pomiarowych (związanych z konkretnymi strefami przepływu) do wartości przekraczających wartości początkowe upakowanego materiału, który brał udział w procesie kalibracji przeprowadzonym przed samym eksperymentem. Dlatego też często niezbędne jest wstępne przeprowadzenie analizy stosunku sygnału do szumu, aby nawet przy rygorystycznie wykonanej kalibracji zwiększyć możliwość detekcji prawdziwych zjawisk dynamicznych w odróżnieniu od tych, które mogą być odzwierciedlone w pomiarach statycznych bądź mogą stanowić błąd pomiaru [Zał.3.II.E.59,61]. Na ww. potrzeby odpowiada skutecznie opracowany przez autora algorytm wyznaczenia zakresu detekcji zmian koncentracji oparty na dedykowanej, dodatkowej procedurze wstępnej normalizacji danych pomiarowych. W tym celu opracowałem wykonanie dodatkowych testów wstępnych (z ang. pre-tests) w celu uzgodnienia porównywalności odczytów pomiarowych dla różnych modeli korekcji normalizacji danych pomiarowych. Klasyczne podejście empiryczne dla elektrycznej tomografii procesowej zakłada przed wykonaniem eksperymentów właściwych jedynie etap kalibracji [Zał.3.II.E.62]. Zaproponowana metodologia polega natomiast na wykonaniu dodatkowych prób pomiarowych w warunkach statycznych oraz dynamicznych kontrolowanych. Testy te zostały wykonane po etapie kalibracji, ale przed wykonaniem eksperymentów w warunkach normalnego przepływu nieograniczonego. Te dodatkowe testy umożliwiły porównanie odczytów dla różnych modeli korekcji normalizacji danych pomiarowych, co z kolei pozwoliło uzyskać kontekstową informację na temat zakresu możliwej detekcji zmian koncentracji materiału [Zał.3.II.E.28]. Taka kontekstowa analiza szumu, sygnału i danych jest istotna w przypadku badania zjawisk dynamicznych takich jak np. pulsacji powodujących niewielkie okresowe zmiany odczytów pomiarowych, które z jednej strony są łatwo wykrywalne na peryferiach instalacji czy zbiorników przemysłowych różnymi metodami (np. przy użyciu akcelerometrów), lecz niezwykle trudne do zmierzenia w pełnej objętości zawartości tychże instalacji. Testy i analizy przeprowadzone z modelem korekcji Maxwella 11
12 oraz modelem szeregowym umożliwiły ocenę wpływu procesu normalizacji danych na możliwość i jakość interpretacji danych pomiarowych (przede wszystkim nieprzetworzonych, ale w konsekwencji także zrekonstruowanych) odpowiadających najmniejszym zmianom gęstości upakowania materiału, które w innych warunkach mogłyby zostać uznane w całości za szum pomiarowy. Dzięki tej metodologii możliwe było także wykazanie możliwości oszacowania ilościowego zjawisk dynamicznych występujących w czasie przepływu, a których monitorowanie jest celem zastosowania metod tomografii pojemnościowej. Nowością ww. algorytmu jest trzystopniowa, kontekstowa analiza nieprzetworzonych danych pomiarowych skorelowana z protokołem pomiarowym ECT. Procedura ta jest obecnie wykorzystywana w pracach eksperymentalnych i przemysłowych na całym świecie [Zał.3.II.E,L]. W dalszych krokach analizy, w przypadku ewentualnej pracy ze zrekonstruowanymi obrazami, przy tak niewielkich różnicach pomierzonych wartości niezbędna jest precyzyjna wiedza dotycząca fizyki zjawisk będących przedmiotem prac eksperymentalnych i to zarówno na etapie rekonstrukcji obrazów jak i na etapie ich późniejszego przetwarzania, analizy i interpretacji. Wiedza ta musi być powiązana z kontekstem procesu i właściwości narzędzi oraz warunków pomiaru [29][40][47]. Zwykle analiza obrazów, szczególnie podobnych do tych z jakimi można się spotkać w elektrycznej tomografii procesowej, na jednym ze wstępnych etapów korzysta z segmentacji w celu wyznaczenia obszarów zainteresowania (z ang. region of interest ROI). Natomiast metody segmentacji w zastosowaniu do tych rozmytych obrazów o relatywnie jednorodnych obszarach z płynnymi przejściami oraz brakiem wyraźnych krawędzi pomiędzy nimi (a takimi właściwościami cechują się obrazy ECT i innych modalności procesowej tomografii elektrycznej) często korzystają np. z algorytmów progowania czy klasteryzacji. Jednakże, przy tak niewielkich zmianach odczytów pomiarowych oraz biorąc pod uwagę specyfikę badanego procesu podjęcie decyzji o parametrach progowania jest bardzo trudne i praktycznie uznaniowe. Dlatego opracowałem algorytm podziału na regiony zainteresowania dedykowany do analizy dynamicznych procesów monitorowanych przy użyciu ECT. W celu bardziej świadomego doboru kryteriów analizy i przetwarzania obrazów w [Zał.3.I.B.2.] dokonałem porównania informacji płynącej zarówno bezpośrednio z pomiarów oraz wycinków zrekonstruowanego obrazu. Natomiast na wybór konkretnych stref obszaru przekroju poprzecznego czujnika, w których należy dokonać porównania ma wpływ dodatkowa informacja kontekstowa, którą można wykorzystać. I tak dla analizy odczytów pomiarowych kluczowe będą odczyty dla sąsiednich elektrod, dla których czułość jest największa i gdzie spodziewane są najmniejsze (najbardziej dyskusyjne z metrologicznego punktu widzenia) zmiany. Dla analizy zrekonstruowanych obrazów będzie to zaś zmiana wartości koncentracji dla wybranego piksela w czasie; w tym przypadku w kontekście fizyki zjawisk, jakie występują w grawitacyjnym przepływie materiałów sypkich korzystna jest analiza strefy przyściennej (co odpowiada wspomnianym wcześniej regionom w obrębie sąsiadujących elektrod i co dodatkowo potwierdzone jest analizą map czułości poszczególnych par elektrod) oraz środkowej przekroju poprzecznego przestrzeni pomiarowej czujnika ECT. W ten sposób, dzięki kontekstowemu przetwarzaniu danych w wybranych obszarach możliwe było skoncentrowanie się wyłącznie na najistotniejszych, z punktu widzenia prac badawczych, strefach. Dzięki temu analiza jest najbardziej efektywna i znacząca 12
13 [41][43][54][55]. Wsparcie procesu decyzji o podziale na regiony zainteresowania powyższymi algorytmami kontekstowymi usprawnił sposób ich wyznaczenia, ale także w szczególności ułatwił rozstrzygnięcie ich liczby. To właśnie podjęcie decyzji, że w badanym przypadku podział na dwa ROI jest wystarczający znacznie uprościł dalszy proces analizy i interpretacji danych nie obniżając jednocześnie w żadnym stopniu jakości tego procesu. Opisana powyżej nowatorska metoda była następnie zastosowana przez badaczy z różnych wiodących ośrodków naukowych zajmujących się wykorzystaniem tomografii procesowej [16][52][56][58][59][Zał.3.II.E,L]. Jedną z jej interesujących implikacji były badania dotyczące możliwości zastosowania algorytmów przetwarzania danych pochodzących z tomografii ECT. W artykule [Zał.3.I.B.4] przedstawiłem badania dotyczące wykorzystania danych w postaci zrekonstruowanych obrazów ECT w algorytmach analizy pomiarów strefy ścinania w silosach. Wartym odnotowania, bo unikalnym na skalę światową, podejściem jakie zostało wykorzystanie w tych badaniach były eksperymenty z wykorzystaniem ścian silosów o różnej szorstkości w celu badania efektów dynamicznych zachodzących w objętości materiału sypkiego w trakcie przepływu. Dzięki połączeniu wiedzy zdobytej przy opracowaniu metod opisanych w [spr3], polegającej na odpowiednim mapowaniu wartości zmian koncentracji pochodzących z danych pomiarowych z ich odpowiednikami względnymi przedstawionymi w zrekonstruowanych obrazach możliwe było wyznaczanie charakterystycznych parametrów stref ścinania (tj. rozmiaru i koncentracji materiału) formujących się w trakcie dynamicznego przepływu. W tych badaniach zastosowany został tzw. algorytm równoległej normalizacji danych, który okazał się skuteczny w przypadku poszukiwania różnic w przestrzeni pomiarowej dotyczących koncentracji materiału w strefie ścinania i poza nią. Podejście polegające na wykorzystaniu kontekstowej informacji na temat specyfiki zjawisk oraz warunków eksperymentalnych pozwoliło mi na zastosowanie konkretnej metody regularyzacji do wyznaczenia granicy pomiędzy tymi dwoma obszarami. Opisany w tym artykule czynnik algorytmu klasyfikacji K uzależniony został od wyznaczonej empirycznie stałej m określającej podobieństwo stosunku koncentracji dwóch stref materiału o różnych gęstościach upakowania, której wyznaczenie było możliwe dla zrekonstruowanych obrazów dzięki założeniom ograniczającym znanym z wcześniejszego wykorzystania metodologii kontekstowego przetwarzania danych ECT dla procesów przepływu materiałów sypkich. Fakt ten miał istotne znaczenie przy sformułowaniu dwóch końcowych wniosków płynących z tej publikacji [Zał.3.I.B.4]. Mianowicie, zarówno konkluzja (3) dotycząca implikacji faktu wyznaczenia strefy ścinania na możliwość przyszłego wyznaczania wartości nacisku na ściany zbiorników, jak i (4) dotycząca wpływu możliwości bieżącego monitorowania strefy ścinania na opracowanie algorytmów dokładnego opisu propagacji zmian koncentracji już na początku przepływu, są bezpośrednim efektem, mającym istotne znaczenie praktyczne, zastosowania zaproponowanego przeze mnie kontekstowego przetwarzania danych pochodzących z elektrycznej tomografii procesowej. W badaniach nad algorytmami modelowania i monitorowania procesów przemysłowych często, poza warstwą przetwarzania danych, istotne jest także odpowiednie dobranie aparatury pomiarowej [12][27][42][51][58][59]. Dlatego też w ostatnich latach w ramach 13
14 projektów badawczych brałem udział w opracowaniu nowych konfiguracji łączenia odrębnych technik pomiarowych [20]. W tym zakresie przeprowadzone zostały przeze mnie i doktoranta, którego byłem promotorem pomocniczym prace związane z porównaniem ECT oraz czujnika siatkowego typu wire-mesh. W tym celu opracowałem szereg algorytmów fuzji danych pomiarowych pochodzących z tych dwóch urządzeń. Jeden z najważniejszych to algorytm ilościowego porównania danych pochodzących z jednoczesnego pomiaru za pomocą ECT oraz pojemnościowego czujnika wire-mesh. Algorytm ten jest dedykowany dla modelowania i monitorowania procesów wielofazowych, a jego eksperymentalnej weryfikację przeprowadziłem dla procesu wielofazowego w reaktorach trójfazowych typu tricle-bed. Istotnym elementem jednoczesnego pomiaru tymi dwoma technikami jest synchronizacja i związany z nią offset powodujący przesunięcie sygnałów pomiarowych utrudniający ilościowe zestawienie przetworzonych danych. Dlatego zdecydowałem się w tym przypadku na nowatorski sposób przetwarzania danych jako wektorów wartości zrekonstruowanych obrazów w poszczególnych pikselach i ich dalsze przetwarzanie w postaci średniej ważonej dla powierzchni obrazu. Istotną nowością tej metody jest fakt możliwości porównania wartości poszczególnych elementów obrazu o różnych kształtach. W tym przypadku obrazy zrekonstruowane ECT są obliczone dla siatki elementów trójkątnych, gdy piksele obrazu pochodzącego z czujnika siatkowego są kwadratami. Takie porównanie nie było stosowane i spotykane w klasycznej literaturze przedmiotu [12][38][42][53]. Kolejnym algorytmem jest kontekstowa fuzja danych ECT i czujnika wire-mesh wspomagająca zawężenie przedziału niepewności pomiarowej dla procesów wielofazowych monitorowanych przy wykorzystaniu ECT. Dzięki zaproponowanemu przeze mnie protokołowi pomiarowemu oraz procedurze eksperymentalnej (zastosowanie tzw. wstępnego zwilżania Leveca oraz kombinacji sekwencji zatrzymywanego przepływu dla warunków statycznych i dynamicznych) możliwa była redukcja błędu ECT do przedziału (2 3)%. Tak niskie odchyłki dla ECT w porównaniu z wysoce precyzyjnym systemem siatkowym, biorąc pod uwagę, że ECT powoduje uśrednienie osiowe odczytów pomiarowych (w tym przypadku na długości ok. 50mm) w porównaniu z wysoką rozdzielczością (rzędu 1.5mm) dla wire-mesh stanowią o istotnym novum zaproponowanej przeze mnie metody, nieznanym z wcześniejszej literatury przedmiotu [11]][21][53]. Innym efektem prac nad wielomodalnymi systemami pomiarowymi opartymi na tomografii procesowej jest patent europejski [Zał.3.II.C]. (J. Nowakowski et al. 2015), którego jestem współautorem. Patent ten został przyznany na urządzenie i metodę fuzji pomiarów pochodzących z dualnego tomografu ECT i wykorzystującego jako drugą modalność promieniowanie Gamma [17][52]. Kontynuacją badań dotyczących rozwoju algorytmów modelowania zjawisk zachodzących w trakcie przepływu materiałów sypkich było opracowanie w zespole TomoKIS i zaproponowanie przez dr Grudnia metody wykorzystania cząstek znacznikowych do śledzenia zmian zachodzących wewnątrz przepływu przy użyciu tomografii opartej na promieniowaniu rentgenowskim (z ang. X-ray tomography). O ile sama metoda dała 14
15 interesujące wyniki, o tyle przetwarzanie informacji wizyjnej zebranej w postaci danych radiograficznych okazało się niemożliwe do pełnego zautomatyzowania [14]. Pomimo prób wykorzystania zarówno standardowych metod przetwarzania obrazu jak i metod sztucznej inteligencji nie udało się opracować w pełni automatycznych metod wyznaczania trajektorii poruszania się cząstek znacznikowych na sekwencjach obrazów uchwyconych w trakcie kontrolowanego przepływu zarejestrowanych przez tomograf rentgenowski. Trudności w wykryciu cząstek znacznikowych w kolejnych obrazach związane były z naturą techniki pomiarowej oraz pochłaniania części lub całości powierzchni cząstek przez sąsiadujący materiał znajdujący się na drodze promieni X, przez co niezbędne okazało się analizowanie kolejnych obrazów przez eksperta [4][14]. Nawet po opracowaniu dedykowanego komputerowego systemu do obróbki kolejnych obrazów przez eksperta, duża ich liczba w sekwencji pojedynczego eksperymentu powodowała trudności z ich przetworzeniem. Pojedyncze zadanie było trudne do zrealizowania (żmudne i długotrwałe) - szacowane nawet na kilka dni pracy eksperta dla pojedynczego eksperymentu, na który składa się kilkaset obrazów [19]. Dlatego też postanowiłem przenieść na grunt badawczy paradygmaty interakcji zaczerpnięte z literatury dziedziny HCI (z ang. human-computer interaction) [39]. W tym celu zorganizowałem międzynarodowy zespół badawczy o komplementarnych kompetencjach. W jego skład weszli badacze z uniwersytetów NUS w Singapurze oraz Chalmers w Szwecji i przy ich pomocy zaprojektowałem system przetwarzania danych tomograficznych w trybie pracy zbiorowej tzw. crowdsourcingu [Zał.3.I.B.5]. Dzięki opracowanemu dedykowanemu interfejsowi, w którego projektowaniu brałem udział, możliwe jest wstępne oznaczanie przez użytkownika pozycji poszczególnych cząstek na kolejnych obrazach radiograficznych w sekwencji [19][Zał.3.II.E.10]. Specyficzna funkcjonalność interfejsu została wypracowana w oparciu o szereg testów użytkownika, w `których przygotowaniu, prowadzeniu oraz analizie i interpretacji wyników brałem, wraz z międzynarodowym zespołem, czynny udział. W tym projekcie byłem odpowiedzialny za połączenie na styku modelowania procesów przemysłowych, algorytmów przetwarzania danych i projektowania zorientowanego na użytkowników zarówno ekspertów jak i agentów, czyli użytkowników pracujących w trybie crowdsourcingowym. W wyniku tego projektu powstał system umożliwiający automatyczny i półautomatyczny podział zadań oraz udostępnienie poszczególnym agentom interfejsu webowego wraz z zestawem obrazów do przetworzenia [Zał.3.I.B.5][Zał.3.II.E.10]. Dzięki takiemu nowatorskiemu podejściu możliwe jest podzielenie pełnych sekwencji na fragmenty i podział pracy na wielu agentów (użytkowników) z uwzględnieniem redundancji. System ten po przetworzeniu poszczególnych fragmentów przez wielu użytkowników na wyjściu zwraca uśrednione wyniki wyznaczania pozycji cząstek znacznikowych w poszczególnych obrazach przetworzonych przez dowolną liczbę agentów. Informacja ta jest prezentowana zarówno w postaci graficznej (wizualizacja ruchu poszczególnych cząstek w trakcie procesu) jak i numerycznej (dane dotyczące położenia cząstek znacznikowych na kolejnych obrazach). W związku z tym dane zwracane przez opracowany przeze mnie algorytm agregacji w systemie crowdsourcingu mogą stanowić później źródło danych wejściowych do kolejnego etapu; np. algorytmu obliczania trajektorii cząstek lub wykrywania anomalii w procesie przepływu tym razem możliwe jest już jednak zautomatyzowanie dalszego przetwarzania. Jest to pierwszy opisany w znanej mi literaturze przypadek skutecznego 15
16 połączenia metod analizy obrazów i algorytmów crowdsourcingu dla celów przetwarzania obrazów procesowej tomografii przemysłowej, a wyniki te zostały opublikowane w [Zał.3.I.B.5]. Rezultaty eksperymentów pokazały, że zaprojektowany przeze mnie system oznaczania i agregowania obrazów przetworzonych przez zwykłych użytkowników (poddanych odpowiedniemu szkoleniu wstępnemu) daje po uśrednieniu wyniki, które nie odbiegają od jakości pracy ekspertów. Z jednej strony potwierdza to paradygmat crowdsourcingu znany z badań prowadzonych w HCI, czym zbliża zastosowania tej i w przyszłości także innych metod HCI w informatyce przemysłowej. Z drugiej zaś strony, z uwagi na skuteczność tego rozwiązania, wskazuje na ogromny potencjał dalszych prac nad hybrydowymi systemami przetwarzania danych pomiarowych, nie tylko dla celów badawczych. Natomiast z punktu widzenia niniejszego wniosku habilitacyjnego przykład ten pokazuje, że znajomość kontekstu informacji pochodzącej z systemu pomiarowego jest kluczem do skutecznego projektowania algorytmów przetwarzania danych w systemach przemysłowych i, ujmując rzecz bardziej ogólnie, w różnych zastosowaniach interdyscyplinarnych. Dzięki wykorzystaniu tak opracowanego i zaimplementowanego systemu możliwe jest: Skrócenie czasu analizy pojedynczego eksperymentu z kilku dni do kilku godzin. Przetworzenie danych do postaci umożliwiającej dalsze, automatyczne przetwarzanie. Uwolnienie eksperta od żmudnego procesu oznaczania obrazów, co powoduje redukcję obciążenia kognitywnego, a co za tym idzie zachowanie w pełni efektywnego (także pod względem kognitywnym) czasu pracy na etap interpretacji wyników. Znaczne zredukowanie obciążenia kognitywnego (związane bezpośrednio także z pkt. 3 powyżej), co przekłada się bezpośrednio na zwiększoną ilość materiału badawczego możliwego do przeanalizowania i zinterpretowania w tej samej jednostce czasu (a przede wszystkim przez indywidualnego eksperta) przy zachowaniu tej samej, wysokiej jakości efektów pracy ekspertów. Wreszcie, opisany w [Zał.3.I.B.5] system, którego jestem jednym z głównych autorów to jeden z nielicznych przykładów badawczego wykorzystania algorytmów crowdsourcingu w naukach technicznych poza eksperymentami tzw. dużej skali czy też popularnym webowym przetwarzaniu obrazów w projektach nauk przyrodniczych. Biorąc pod uwagę trudności z interpretacją wyników tomograficznych związane ze specyfiką pomiaru pojemnościowego zacząłem się interesować także innymi metodami mogącymi potencjalnie zwiększyć dokładność tej interpretacji pod kątem monitorowania i diagnostyki procesów przemysłowych. W związku z tym zainicjowałem prace nad wykorzystaniem metod stosowanych do przetwarzania dużych danych tzw. Big Data do przetwarzania i analizy także tomograficznych danych pomiarowych pochodzących z różnych źródeł w celu ich łączenia i wspólnego przetwarzania [2][7][8]. Zdobyte doświadczenia zaowocowały dalszymi pracami w dziedzinie wykorzystania metod przetwarzania dużych danych pomiarowych [3]. Należy w tym miejscu zaznaczyć, że przykładowy zbiór danych pochodzących z pojedynczego eksperymentu dynamicznego może mieć rozmiar 4GB w najprostszym przypadku (długość pomiaru 300 s. przy 200 ramkach na sekundę dla dwupłaszczyznowego czujnika 16-elektrodowego), ponad 1TB (dla obrazów 2D), aż do ponad 100TB (dla 3D) [1][49]. Tak duże rozmiary zestawów danych wymuszają 16
17 opracowanie zupełnie nowych algorytmów [57]. Jednym z najnowszych efektów tych prac jest artykuł opublikowany w IEEE Transactions on Industrial Informatics [Zał.3.I.B.6], który przedstawia wyniki weryfikacji modelu kontekstowego przetwarzania danych pochodzących z pojemnościowej tomografii procesowej dla przepływu pneumatycznego materiałów sypkich Rys. 2. W lewej dolnej części Rys. 3 widzimy silnik CDPM wnioskujący na podstawie wsadu pochodzącego z wiedzy ogólnej EK (z ang. expert knowledge) oraz informacji kontekstowej płynącej z dodatkowych czujników PS (z ang. peripheral sensors). Dwoma najważniejszymi elementami tej autorskiej koncepcji są elementy BD (z ang. big data-driven) oraz AGI (z ang. artificially generated input), które wzbogacają tę wiedzę ogólną. Wyniki prac badawczych opisane w [Zał.3.I.B.6] przedstawiają właśnie algorytmy przetwarzania danych i weryfikację tych elementów modelu. Rysunek 3. Schemat modelu kontekstowego przetwarzania danych CDPM weryfikowany w części BD oraz AGI w ramach artykułu [nr6]. Rozwinięcia skrótów: PS peripheral sensors (czujniki dodatkowe), BD metody zaczerpnięte z Big Data, EK baza wiedzy a priori, AGI sztucznie generowane dane wejściowe w celu empirycznego badania odpowiedzi systemu. [Fragment rysunku Fig. 2 z artykułu nr 6; Romanowski, 2018]. W tych pracach badawczych wykorzystałem najnowsze trendy przetwarzania dużych, nieustrukturyzowanych danych z wykorzystaniem technologii Apache Hadoop oraz algorytmów uczenia maszynowego [9][23][24]. W tym celu zaprojektowałem dedykowany dla danych tomograficznych system agregacji i analizy danych pn. Experimental Big Data Distributed File System (EBDDFS). System EBDDFS dedykowany do danych pochodzących z elektrycznej tomografii procesowej przedstawiony został schematycznie na Rys
18 Rysunek 4. Ilustracja systemu agregacji dużych danych eksperymentalnych Big Data (EBDDFS). Uproszczony przepływ danych przedstawia po lewej stronie zbiory danych mogące się składać z rozmaitych formatów agregowanych do rozproszonego systemu przetwarzania danych po prawej (opis anglojęzyczny jak w oryginale). Działanie systemu EBDDFS zostało oparte na paradygmacie map-reduce, który pierwotnie został wykorzystany w rozproszonym systemie wyszukiwarki Google a [20]. Autorski algorytm, wykorzystujący podobny paradygmat, który został zaprojektowany dla celów przetwarzania kontekstowego danych ECT jest przedstawiony na Rys. 4. Na tym rysunku od lewej strony widzimy proces zbierania eksperymentalnych zbiorów danych tomograficznych, które przechodząc przez proces etykietowania, podziału, sortowania, kopiowania, łączenia, redukcji i replikacji zostają w umieszczone w systemie EBDDFS zaprezentowanym schematycznie po prawej stronie Rys. 5. Rysunek 5. Ilustracja algorytmu agregacji i przetwarzania danych dla system EBDDFS. (opis anglojęzyczny jak w oryginale) 18
19 Wyniki weryfikacji działania tego systemu wraz z ewaluacją nowatorskich w skali światowej algorytmów kontekstowego przetwarzania danych dedykowanych dla danych pochodzących z przemysłowych systemów tomografii procesowej zostały przedstawione w [Zał.3.B.I.6]. Istotną nowością w skali światowej w ramach tych prac badawczych było zaproponowanie i zweryfikowanie modelu kontekstowego przetwarzania danych tomograficznych CDPM (z ang. Contextual Data Processing Model). Model ten w istotny sposób zwiększa możliwości wnioskowania na podstawie danych płynących z tomograficznych systemów pomiarowych stosowanych do monitorowania procesów przemysłowych. W [Zał.3.I.B.6] opisano procedurę badawczą, w której dzięki wykorzystaniu systemu EBDDFS oraz algorytmu klasyfikacji możliwa była weryfikacja modelu CDPM w oparciu o przetwarzanie prawdziwych danych eksperymentalnych. Wartym uwagi osiągnięciem jest nowatorska funkcja zaproponowanego systemu pozwalająca na łączne przetwarzanie danych pochodzących z odrębnych eksperymentów oraz innych instalacji badawczo-przemysłowych, w tym rozproszonych geograficznie. Algorytmy łącznego przetwarzania danych zostały zweryfikowane na dużych zbiorach danych pochodzących z dwóch półprzemysłowych, badawczych instalacji znajdujących się University of Manchester oraz Politechnice Łódzkiej. Drugim istotnym elementem zweryfikowanych w ramach tych prac oraz opublikowanym w tym samym artykule [ref6] jest koncepcja uzupełniania specyficznych rodzajów danych, które zawierają pomiary incydentalnie występujących zjawisk w celu poszerzenia bazy wiedzy i w efekcie rozszerzenia możliwości eksploracji danych. Możliwość zastosowania takiego trybu przetwarzania danych znacząco zwiększa możliwości wykorzystania algorytmów uczenia maszynowego. Weryfikację tej koncepcji przeprowadziłem w oparciu o element AGI (artificially generated input) zawierający dane pomiarowe dla specyficznie zmodyfikowanych parametrów instalacji symulującej sporadycznie występujące niebezpieczne efekty blokowania przepływu pneumatycznego materiałów sypkich. Uzyskane w ten sposób dane zostały porównane z prawdziwymi danymi pomiarowymi dla stanów awaryjnych rurociągów przepływowych pochodzącymi z eksperymentów w laboratoriach University of Manchester oraz Politechniki Łódzkiej. Zweryfikowany pozytywnie element AGI włączony wraz z elementem BD do proponowanego modelu CDPM jest całkowitą nowością na poziomie światowym w podejściu do przetwarzania tomograficznych danych eksperymentalnych. Uzupełnieniem pozytywnej weryfikacji modelu CDPM są wyniki opublikowane w artykule [Zał.3.I.B.7], gdzie zastosowałem tę koncepcję dla modelowania temporalnego danych tomograficznych. W tej publikacji przedstawione są wyniki automatycznego rozpoznawania wzorców przepływu dla procesu transportu pneumatycznego materiałów sypkich monitorowanego z wykorzystaniem tomografii ECT [15][31]. Istotną nowością tych prac jest wykorzystanie koncepcji CDPM do modelowania dodatkowej wiedzy jako wkładu a priori do ramy wnioskowania Bayesa w parametrycznej regularyzacji rozwiązania problemu odwrotnego ECT. W tym przypadku parametryzacja dotyczy modelowania czasowego, tj. powiązania czasowego kolejnych ramek pomiarowych w stosunku do siebie, co jest szczególnie ważne w przypadku dynamicznych procesów przemysłowych, jak to ma miejsce dla przepływów materiałów sypkich pod ciśnieniem. 19
20 III. Podsumowanie Wieloletnie badania naukowe w dziedzinie tomografii procesowej trwające nieprzerwanie od 2003 r. zwieńczone zostały: 1) Rozprawą doktorską (obronioną z wyróżnieniem w 2008 r.), w której głównymi wynikami były algorytmy stochastycznego modelowania czasowo-przestrzennego dla celów rozwiązania problemu odwrotnego w tomografii pojemnościowej z pominięciem etapu rekonstrukcji obrazu tomograficznego. 2) Dalszymi badaniami po doktoracie w zakresie rozwoju kontekstowych metod przetwarzania danych pomiarowych znacząco podnoszących efektywność analizy i dokładność interpretacji w porównaniu do metod zaprezentowanych w rozprawie doktorskiej. Najbardziej znaczące osiągnięcia badawcze po doktoracie ujęte w sposób syntetyczny: A. Metody badania i interpretacji dynamiki przepływu grawitacyjnego materiałów sypkich w silosach w oparciu o przetwarzanie danych tomograficznych. B. Metody wykorzystania crowdsourcingu dla celów analizy jakościowej i ilościowej zrekonstruowanych danych tomograficznych. C. Model kontekstowego przetwarzania danych tomograficznych CDPM. D. Algorytmy kontekstowego przetwarzania dużych zbiorów tomograficznych danych eksperymentalnych oparte na metodach big data. Podsumowując poszukiwania, prace naukowo-badawcze [Zał.3.I.B.1,2,5] i rozwój koncepcji modelowania kontekstowego przetwarzania danych tomograficznych [Zał.3.I.B.3,4] można stwierdzić, że najnowsze dwie publikacje [Zał.3.I.B.6] [zał.3.i.b.7] stanowią ukoronowanie tych badań. Przedstawiony w tych publikacjach model teoretyczny, unikalne algorytmy i ich weryfikacja tworzą jednolitą całość pozwalającą z jednej strony skutecznie wspierać przetwarzanie danych pomiarowych na skalę, jaka nie była wcześniej dostępna. Natomiast z drugiej strony publikacje przedstawione do oceny w ramach dorobku habilitacyjnego jednocześnie stanowią solidne podstawy i otwierają drzwi do dalszych badań nad rozwojem tego kierunku badań łączącego najnowsze trendy big data i uczenia maszynowego. Dodatkowo, biorąc pod uwagę wnioski płynące z publikacji [Zał.3.I.B.5], spodziewam się w przyszłości szeregu nowych wyzwań naukowych wynikających z połączenia metod sztucznej inteligencji oraz interakcji człowieka z. komputerem, co będzie szczególnie interesujące w środowiskach przemysłowych. Literatura [1] Banasiak R., R. Wajman, T. Jaworski, P. Fiderek, P. Kapusta, D. Sankowski, Two-Phase Flow Regime Three-Dimensonal Visualization Using Electrical Capacitance Tomography Algorithms And Software, IAPGOS 2017; 7 (1): 11-16,
21 [2] Basanta-Val P.; N. C. Audsley; A. J. Wellings; I. Gray; N. Fernández-García, Architecting Time-Critical Big-Data Systems, IEEE Transactions on Big Data, 2016, Vol. 2, (4), pp [3] Basanta-Val P., An Efficient Industrial Big-Data Engine, IEEE Transactions on Industrial Informatics, Vol. 14, (4), 2018, pp [4] Barthel, F., Bieberle, M., Hoppe, D., Banowski, M., Hampel, U., Velocity measurement for two-phase flows based on ultrafast X-ray tomography. Flow Meas. Instrum. 46, [5] Bettini C., O. Brdiczka, K. Henricksen, J. Indulska, D. Nicklas, A. Ranganathan, D. Riboni. A survey of context modelling and reasoning techniques. Pervasive Mob. Comput. 6, 2 (2010), [6] Bolchini C., C. A. Curino, E. Quintarelli, F. A. Schreiber, L. Tanca, A data-oriented survey of context models, ACM SIGMOD Record, vol. 36, no. 4, pp , [7] Chang V., Wills G., 2016, A model to compare cloud and non-cloud storage of Big Data, Future Generation Comput. Syst Vol 57, pp [8] Chang V., Towards a Big Data system disaster recovery in a Private Cloud, Ad Hoc Networks 35, 2015, [9] Cortes, C., Vapnik, V., Support-Vector Networks Mach. Learn., vol. 20. Kluwer Academic Publishers, pp [10] Dean J. and Ghemawat S., 2008 MapReduce: simplified data processing on large clusters. Communications of the ACM, Vol. 51/1 pp [11] Dyakowski, T., Jaworski, A.J., Non Invasive Process Imaging Principles and Applications of Industrial Process Tomography. Chem. Eng. Technol. 26, [12] Dyakowski, T., Jeanmeure, L.F.C., Jaworski, A.J., Applications of electrical tomography for gas solids and liquid solids flows a review. Powder Technol. 112, [13] Fiderek, P., Kucharski, J., A Computer Vision System for On-Line Two-Phase Gas-Liquid Flows Recognition Using Fuzzy Methods. Automatyka 15, [14] Grudzień, K., Torre Hernandez, G.M., Detection of tracer particles in tomography images for analysis of gravitational flow in silo. Image Process. Commun. [15] Franke B., Plante, J. -F., Roscher, R., Lee, E.-A., Smyth, C., Hatefi, A., Chen, F., Gil, E., Schwing, A., Selvitella, A., Hoffman, M. M., Grosse, R., Hendricks, D., and Reid, N. (2016) Statistical Inference, Learning and Models in Big Data, International Statistical Review, 84: [16] Grudzień K, Z Chaniecki, L Babout, Study of granular flow in silo based on electrical capacitance tomography and optical imaging, Flow Measurement and Instrumentation, 2017 [17] Hampel, U., Bieberle, A., Hoppe, D., Kronenberg, J., Schleicher, E., Suhnel, T., Zimmermann, F., Zippe, C., High resolution gamma ray tomography scanner for flow measurement and non-destructive testing applications. Rev. Sci. Instrum. 78, 21
Opinia o dorobku naukowym dr inż. Ireneusz Dominik w związku z wystąpieniem o nadanie stopnia naukowego doktora habilitowanego.
Prof. dr hab. inż. Tadeusz Uhl Katedra Robotyki i Mechatroniki Wydział Inżynierii Mechanicznej i Robotyki Akademia Górniczo Hutnicza w Krakowie Kraków 01.07.2018 Opinia o dorobku naukowym dr inż. Ireneusz
UCHWAŁA. Wniosek o wszczęcie przewodu doktorskiego
UCHWAŁA 30 czerwiec 2011 r. Uchwała określa minimalne wymagania do wszczęcia przewodu doktorskiego i przewodu habilitacyjnego jakimi powinny kierować się Komisje Rady Naukowej IPPT PAN przy ocenie składanych
II - EFEKTY KSZTAŁCENIA
II - EFEKTY KSZTAŁCENIA 1. Opis zakładanych efektów kształcenia Nazwa wydziału Nazwa studiów Określenie obszaru wiedzy, dziedziny nauki i dyscypliny naukowej Wydział Matematyczno-Fizyczny studia III stopnia
Krzysztof Jajuga Katedra Inwestycji Finansowych i Zarządzania Ryzykiem Uniwersytet Ekonomiczny we Wrocławiu NAUKI EKONOMICZNE - HABILITACJA
Krzysztof Jajuga Katedra Inwestycji Finansowych i Zarządzania Ryzykiem Uniwersytet Ekonomiczny we Wrocławiu NAUKI EKONOMICZNE - HABILITACJA UWAGA!!!! Przedstawiane poglądy są prywatnymi poglądami autora
XI Seminarium Naukowe Tomografia procesowa aplikacje, systemy pomiarowe i algorytmy numeryczne
XI Seminarium Naukowe Tomografia procesowa aplikacje, systemy pomiarowe i algorytmy numeryczne W dniu 01.04.2016 odbyło się XI Seminarium Naukowe Tomografia procesowa aplikacje, systemy pomiarowe i algorytmy
INFORMACJE OGÓLNE O PROGRAMIE KSZTAŁCENIA. Na Studiach Doktoranckich Psychologii prowadzonych przez Instytut Psychologii UG
UNIWERSYTET GDAŃSKI Wydział Nauk Społecznych Załącznik nr 1 (wymagany do wniosku do Senatu UG w sprawie zatwierdzenia programu studiów) INFORMACJE OGÓLNE O PROGRAMIE KSZTAŁCENIA Na Studiach Doktoranckich
Badania biegłości laboratorium poprzez porównania międzylaboratoryjne
Badania biegłości laboratorium poprzez porównania międzylaboratoryjne Dr inż. Maciej Wojtczak, Politechnika Łódzka Badanie biegłości (ang. Proficienty testing) laboratorium jest to określenie, za pomocą
Szczegółowy program kształcenia na studiach doktoranckich Wydziału Fizyki UW
Szczegółowy program kształcenia na studiach doktoranckich Wydziału Fizyki UW dla doktorantów rozpoczynających studia w roku akad. 2014/2015, 2015/2016, 216/2017, 2017/2018 i 2018/2019 1. Studia doktoranckie
Zadanie 9: Oferta edukacyjna na nowej specjalności Pomiary technologiczne i biomedyczne na kierunku Elektrotechnika, WEAIiE
Zadanie 9: Oferta edukacyjna na nowej specjalności Pomiary technologiczne i biomedyczne na kierunku Elektrotechnika, WEAIiE W ramach zadania nr 9 pt. Utworzenie nowej specjalności Pomiary technologiczne
Ocena osiągnięć Dr. Adama Sieradzana w związku z ubieganiem się o nadanie stopnia naukowego doktora habilitowanego.
Prof. dr hab. Szczepan Roszak Katedra Inżynierii i Modelowania Materiałów Zaawansowanych Wydział Chemiczny Politechniki Wrocławskiej e-mail: szczepan.roszak@pwr.edu.pl Wrocław, 12. 12. 2018 r. Ocena osiągnięć
KIERUNKOWE EFEKTY KSZTAŁCENIA
KIERUNKOWE EFEKTY KSZTAŁCENIA WYDZIAŁ INFORMATYKI I ZARZĄDZANIA Kierunek studiów: INFORMATYKA Stopień studiów: STUDIA II STOPNIA Obszar Wiedzy/Kształcenia: OBSZAR NAUK TECHNICZNYCH Obszar nauki: DZIEDZINA
Analiza korespondencji
Analiza korespondencji Kiedy stosujemy? 2 W wielu badaniach mamy do czynienia ze zmiennymi jakościowymi (nominalne i porządkowe) typu np.: płeć, wykształcenie, status palenia. Punktem wyjścia do analizy
PRZEWODNIK PO PRZEDMIOCIE
Nazwa przedmiotu: MODELOWANIE I ANALIZA SYSTEMÓW INFORMATYCZNYCH Modeling and analysis of computer systems Kierunek: Informatyka Forma studiów: Stacjonarne Rodzaj przedmiotu: Poziom kwalifikacji: obowiązkowy
Program kształcenia na studiach doktoranckich Wydziału Fizyki
Program kształcenia na studiach doktoranckich Wydziału Fizyki dla doktorantów rozpoczynających studia w roku akad. 2014/2015 1. Studia doktoranckie na Wydziale Fizyki prowadzone są w formie indywidualnych
KIERUNKOWE EFEKTY KSZTAŁCENIA
WYDZIAŁ INFORMATYKI I ZARZĄDZANIA Kierunek studiów: INFORMATYKA Stopień studiów: STUDIA II STOPNIA Obszar Wiedzy/Kształcenia: OBSZAR NAUK TECHNICZNYCH Obszar nauki: DZIEDZINA NAUK TECHNICZNYCH Dyscyplina
WYZNACZANIE NIEPEWNOŚCI POMIARU METODAMI SYMULACYJNYMI
WYZNACZANIE NIEPEWNOŚCI POMIARU METODAMI SYMULACYJNYMI Stefan WÓJTOWICZ, Katarzyna BIERNAT ZAKŁAD METROLOGII I BADAŃ NIENISZCZĄCYCH INSTYTUT ELEKTROTECHNIKI ul. Pożaryskiego 8, 04-703 Warszawa tel. (0)
ZARZĄDZENIE REKTORA ZACHODNIOPOMORSKIEJ SZKOŁY BIZNESU W SZCZECINIE 4/2013. 30 kwietnia 2013 r.
ZARZĄDZENIE REKTORA ZACHODNIOPOMORSKIEJ SZKOŁY BIZNESU W SZCZECINIE 4/2013 30 kwietnia 2013 r. W sprawie: korekty do Regulaminu procedur dyplomowych dla I i II stopnia studiów na Wydziale Ekonomii i Informatyki,
Prof. dr hab. inż. Józef Mosiej, Warszawa, Katedra Kształtowania Środowiska SGGW, Warszawa
Prof. dr hab. inż. Józef Mosiej, Warszawa, 12.11.2018 Katedra Kształtowania Środowiska SGGW, Warszawa Recenzja rozprawy doktorskiej mgr inż. Małgorzaty Dawid Intensywność infiltracji wody z atmosfery w
Relacja: III Seminarium Naukowe "Inżynierskie zastosowania technologii informatycznych"
Relacja: III Seminarium Naukowe "Inżynierskie zastosowania technologii informatycznych" W dniu 18.04.2015 odbyło się III Seminarium Naukowe Inżynierskie zastosowania technologii informatycznych. Organizatorzy
Automatyczne tworzenie trójwymiarowego planu pomieszczenia z zastosowaniem metod stereowizyjnych
Automatyczne tworzenie trójwymiarowego planu pomieszczenia z zastosowaniem metod stereowizyjnych autor: Robert Drab opiekun naukowy: dr inż. Paweł Rotter 1. Wstęp Zagadnienie generowania trójwymiarowego
PLANOWANE EFEKTY KSZTAŁCENIA DLA KIERUNKU Inżynieria Biomedyczna
PLANOWANE EFEKTY KSZTAŁCENIA DLA KIERUNKU Jednostka prowadząca kierunek studiów Nazwa kierunku studiów Specjalności Obszar kształcenia Profil kształcenia Poziom kształcenia Forma kształcenia Tytuł zawodowy
Ustawa z dnia 14 marca 2003 roku o stopniach naukowych i tytule naukowym oraz o stopniach i tytule w zakresie sztuki
Ustawa z dnia 14 marca 2003 roku o stopniach naukowych i tytule naukowym oraz o stopniach i tytule w zakresie sztuki Rozporządzenie Ministra Nauki i Szkolnictwa Wyższego z dnia 1 września 2011 roku w sprawie
Co nowego wprowadza Ustawa?
Co nowego wprowadza Ustawa? 1.1 Parametryzacja w dyscyplinach, a nie w jednostkach; nowa lista dyscyplin (krótsza od aktualnie obowiązującej) Źródło: Ewaluacja jakości w działalności naukowej, prezentacja
załącznik do zarz. nr 41 Rektora UŁ z dnia r. STUDIA DOKTORANCKIE EKONOMII NA WYDZIALE EKONOMICZNO- SOCJOLOGICZNYM UNIWERSYTETU ŁÓDZKIEGO
załącznik do zarz. nr 41 Rektora UŁ z dnia 11.02.2014 r. STUDIA DOKTORANCKIE EKONOMII NA WYDZIALE EKONOMICZNO- SOCJOLOGICZNYM UNIWERSYTETU ŁÓDZKIEGO 1. Nazwa studiów: Studia Doktoranckie Ekonomii 2. Zwięzły
Spis treści. Analiza i modelowanie_nowicki, Chomiak_Księga1.indb :03:08
Spis treści Wstęp.............................................................. 7 Część I Podstawy analizy i modelowania systemów 1. Charakterystyka systemów informacyjnych....................... 13 1.1.
efekty kształcenia dla kierunku Elektronika studia stacjonarne drugiego stopnia, profil ogólnoakademicki
Opis efektów dla kierunku Elektronika Studia stacjonarne drugiego stopnia, profil ogólnoakademicki Objaśnienie oznaczeń: K kierunkowe efekty W kategoria wiedzy U kategoria umiejętności K (po podkreślniku)
Efekty kształcenia dla kierunku studiów INFORMATYKA, Absolwent studiów I stopnia kierunku Informatyka WIEDZA
Symbol Efekty kształcenia dla kierunku studiów INFORMATYKA, specjalność: 1) Sieciowe systemy informatyczne. 2) Bazy danych Absolwent studiów I stopnia kierunku Informatyka WIEDZA Ma wiedzę z matematyki
Nazwa przedmiotu: MODELOWANIE I ANALIZA SYSTEMÓW INFORMATYCZNYCH. Modeling and analysis of computer systems Forma studiów: Stacjonarne
Nazwa przedmiotu: MODELOWANIE I ANALIZA SYSTEMÓW INFORMATYCZNYCH Kierunek: Informatyka Modeling and analysis of computer systems Forma studiów: Stacjonarne Rodzaj przedmiotu: obowiązkowy w ramach specjalności:
Tematy magisterskie: Lp. Sugerowany stopień, kierunek studiów oraz specjalność Elektrotechnika Magisterska Dr hab. inż.
Katedra Automatyki i Elektroniki Wydział Elektryczny Zgodnie z procedurą dyplomowania na Wydziale, poniżej przedstawiono tematy prac dyplomowych dla studentów Elektrotechnika oraz Telekomunikacja kończących
Opis zakładanych efektów kształcenia
Załącznik nr.. Opis zakładanych efektów kształcenia Kierunek studiów: zarządzanie i inżynieria produkcji Poziom kształcenia: studia pierwszego stopnia Tytuł zawodowy: inżynier Profil kształcenia: ogólnoakademicki
NOWOCZESNE TECHNOLOGIE ENERGETYCZNE Rola modelowania fizycznego i numerycznego
Politechnika Częstochowska Katedra Inżynierii Energii NOWOCZESNE TECHNOLOGIE ENERGETYCZNE Rola modelowania fizycznego i numerycznego dr hab. inż. Zbigniew BIS, prof P.Cz. dr inż. Robert ZARZYCKI Wstęp
Anna Fabijańska. Algorytmy segmentacji w systemach analizy ilościowej obrazów
POLITECHNIKA ŁÓDZKA Wydział Elektrotechniki Elektroniki Informatyki i Automatyki Katedra Informatyki Stosowanej Anna Fabijańska Nr albumu: 109647 Streszczenie pracy magisterskiej nt.: Algorytmy segmentacji
EFEKTY KSZTAŁCENIA DLA KIERUNKU STUDIÓW. TRANSPORT studia stacjonarne i niestacjonarne
Załącznik do uchwały Nr 000-8/4/2012 Senatu PRad. z dnia 28.06.2012r. EFEKTY KSZTAŁCENIA DLA KIERUNKU STUDIÓW TRANSPORT studia stacjonarne i niestacjonarne Nazwa wydziału: Wydział Transportu i Elektrotechniki
Tabela odniesień efektów kierunkowych do efektów obszarowych (tabele odniesień efektów kształcenia)
Załącznik nr 7 do uchwały nr 514 Senatu Uniwersytetu Zielonogórskiego z dnia 25 kwietnia 2012 r. w sprawie określenia efektów kształcenia dla kierunków studiów pierwszego i drugiego stopnia prowadzonych
a) Szczegółowe efekty kształcenia i ich odniesienie do opisu efektów
1. PROGRAM KSZTAŁCENIA 1) OPIS EFEKTÓW KSZTAŁCENIA a) Szczegółowe efekty kształcenia i ich odniesienie do opisu efektów kształcenia dla obszaru nauk społecznych i technicznych Objaśnienie oznaczeń: I efekty
LABORATORIUM Z FIZYKI
LABORATORIUM Z FIZYKI LABORATORIUM Z FIZYKI I PRACOWNIA FIZYCZNA C w Gliwicach Gliwice, ul. Konarskiego 22, pokoje 52-54 Regulamin pracowni i organizacja zajęć Sprawozdanie (strona tytułowa, karta pomiarowa)
Odniesienie do obszarowych efektów kształcenia 1 2 3. Kierunkowe efekty kształcenia WIEDZA (W)
EFEKTY KSZTAŁCENIA NA KIERUNKU "MECHATRONIKA" nazwa kierunku studiów: Mechatronika poziom kształcenia: studia pierwszego stopnia profil kształcenia: ogólnoakademicki symbol kierunkowych efektów kształcenia
Uniwersytet Łódzki Wydział Matematyki i Informatyki PROGRAM KSZTAŁCENIA kierunek Informatyka Środowiskowe Studia Doktoranckie (studia III stopnia)
Uniwersytet Łódzki Wydział Matematyki i Informatyki PROGRAM KSZTAŁCENIA kierunek Informatyka Środowiskowe Studia Doktoranckie (studia III stopnia) Łódź, 17 października 2012 1 1. Nazwa studiów: Środowiskowe
Matryca weryfikacji efektów kształcenia - studia III stopnia
Ocena publicznej obrony pracy doktorskiej Ocena rozprawy doktorskiej Ocena opublikowanych prac naukowych Ocena uzyskanych projektów badawczych Ocena przygotowania referatu na konferencję Ocena wystąpienia
Zastosowanie sztucznych sieci neuronowych w prognozowaniu szeregów czasowych (prezentacja 2)
Zastosowanie sztucznych sieci neuronowych w prognozowaniu szeregów czasowych (prezentacja 2) Ewa Wołoszko Praca pisana pod kierunkiem Pani dr hab. Małgorzaty Doman Plan tego wystąpienia Teoria Narzędzia
ZAŁĄCZNIK NR 2 Uchwała Rady Wydziału Elektrotechniki i Informatyki Politechniki Lubelskiej z dnia 3 czerwca 2013 r
ZAŁĄCZNIK NR 2 Uchwała Rady Wydziału Elektrotechniki i Informatyki Politechniki Lubelskiej z dnia 3 czerwca 2013 r w sprawie przyjęcia Efektów kształcenia dla studiów III stopnia w dyscyplinie elektrotechnika
HARMONOGRAM GODZINOWY ORAZ PUNKTACJA ECTS CZTEROLETNICH STUDIÓW DOKTORANCKICH
P O L I T E C H N I K A Ś L Ą S K A WYDZIAŁ AUTOMATYKI, ELEKTRONIKI I INFORMATYKI DZIEKAN UL. AKADEMICKA 16 44-100 GLIWICE T: +48 32 237 13 10 T: +48 32 237 24 13 F: +48 32 237 24 13 Dziekan_aei@polsl.pl
posiada zaawansowaną wiedzę o charakterze szczegółowym odpowiadającą obszarowi prowadzonych badań, obejmującą najnowsze osiągnięcia nauki
Efekty kształcenia 1. Opis przedmiotów Wykłady związane z dyscypliną naukową Efekty kształcenia Wiedza K_W01 K_W02 K_W03 posiada wiedzę na zaawansowanym poziomie o charakterze podstawowym dla dziedziny
Efekt kształcenia. Wiedza
Efekty dla studiów drugiego stopnia profil ogólnoakademicki na kierunku Informatyka na specjalności Przetwarzanie i analiza danych, na Wydziale Matematyki i Nauk Informacyjnych, gdzie: * Odniesienie oznacza
Modelowanie glikemii w procesie insulinoterapii
Dawid Kaliszewski Modelowanie glikemii w procesie insulinoterapii Promotor dr hab. inż. Zenon Gniazdowski Cel pracy Zbudowanie modelu predykcyjnego przyszłych wartości glikemii diabetyka leczonego za pomocą
Recenzja osiągnięcia naukowego oraz całokształtu aktywności naukowej dr inż. Agnieszki Ozgi
Prof. dr hab. inż. Jerzy Warmiński Lublin 08.09.2019 Katedra Mechaniki Stosowanej Wydział Mechaniczny Politechnika Lubelska Recenzja osiągnięcia naukowego oraz całokształtu aktywności naukowej dr inż.
AGH: Wdrażanie przepisów U2.0. Andrzej R. Pach, Spotkanie Władz AGH,
AGH: Wdrażanie przepisów U2.0 Andrzej R. Pach, Spotkanie Władz AGH, 12.09.2018 Podstawowe obszary zmian» Finansowanie uczelni» Algorytm podziału środków» Ewaluacja działalności naukowej» Składanie oświadczeń»
WPŁYW ZAKŁÓCEŃ PROCESU WZBOGACANIA WĘGLA W OSADZARCE NA ZMIANY GĘSTOŚCI ROZDZIAŁU BADANIA LABORATORYJNE
Górnictwo i Geoinżynieria Rok 33 Zeszyt 4 2009 Stanisław Cierpisz*, Daniel Kowol* WPŁYW ZAKŁÓCEŃ PROCESU WZBOGACANIA WĘGLA W OSADZARCE NA ZMIANY GĘSTOŚCI ROZDZIAŁU BADANIA LABORATORYJNE 1. Wstęp Zasadniczym
Odniesienie symbol II/III [1] [2] [3] [4] [5] Efekt kształcenia. Wiedza
Efekty dla studiów drugiego stopnia profil ogólnoakademicki na kierunku Inżynieria i Analiza Danych prowadzonym przez Wydział Matematyki i Nauk Informacyjnych Użyte w poniższej tabeli: 1) w kolumnie 4
NIEINWAZYJNE METODY KONTROLNO-POMIAROWE W ZASTOSOWANIACH PRZEMYSŁOWYCH
ISSN 2083-0157 IAPGOŚ 3/2014 41 DOI: 10.5604/20830157.1121349 NIEINWAZYJNE METODY KONTROLNO-POMIAROWE W ZASTOSOWANIACH PRZEMYSŁOWYCH Grzegorz Rybak, Zbigniew Chaniecki, Krzysztof Grudzień, Andrzej Romanowski,
This copy is for personal use only - distribution prohibited.
ISSN 2083-0157 IAPGOŚ 3/2014 41 - - - - - DOI: 10.5604/20830157.1121349 NIEINWAZYJNE METODY KONTROLNO-POMIAROWE W ZASTOSOWANIACH PRZEMYSŁOWYCH Grzegorz Rybak, Zbigniew Chaniecki, Krzysztof Grudzień, Andrzej
OPTYMALIZACJA HARMONOGRAMOWANIA MONTAŻU SAMOCHODÓW Z ZASTOSOWANIEM PROGRAMOWANIA W LOGICE Z OGRANICZENIAMI
Autoreferat do rozprawy doktorskiej OPTYMALIZACJA HARMONOGRAMOWANIA MONTAŻU SAMOCHODÓW Z ZASTOSOWANIEM PROGRAMOWANIA W LOGICE Z OGRANICZENIAMI Michał Mazur Gliwice 2016 1 2 Montaż samochodów na linii w
Rozdział 2. Stopień doktora. Oddział 1. Nadawanie stopnia doktora
83 Art. 183. Nauczyciel akademicki oraz pracownik naukowy nie może bez uzasadnionej przyczyny uchylić się od pełnienia funkcji promotora, promotora pomocniczego, recenzenta w postępowaniu w sprawie nadania
UCHWAŁA nr 03/2015/2016 Rady Wydziału Informatyki Zachodniopomorskiego Uniwersytetu Technologicznego w Szczecinie z dnia 20 października 2015 r.
UCHWAŁA nr 03/2015/2016 Rady Wydziału Informatyki Zachodniopomorskiego Uniwersytetu Technologicznego w Szczecinie z dnia 20 października 2015 r. w sprawie zatwierdzenia zasad procesu dyplomowania realizowanego
Analiza i wizualizacja danych Data analysis and visualization
KARTA MODUŁU / KARTA PRZEDMIOTU Załącznik nr 7 do Zarządzenia Rektora nr 10/12 z dnia 21 lutego 2012r. Kod modułu Nazwa modułu Nazwa modułu w języku angielskim Obowiązuje od roku akademickiego 2012/2013
Recenzja rozprawy doktorskiej mgr Mirona Bartosza Kursy p/t. Robust and Efficient Approach to Feature Selection and Machine Learning
Warszawa, 30.01.2017 Prof. Dr hab. Henryk Rybinski Instytut Informatyki Politechniki Warszawskiej hrb@ii.pw.edu.pl Recenzja rozprawy doktorskiej mgr Mirona Bartosza Kursy p/t. Robust and Efficient Approach
Opis efektów uczenia się dla kwalifikacji na poziomie 7 Polskiej Ramy Kwalifikacji
Załącznik nr 2 do Uchwały nr 103/2018-2019 Senatu UP w Lublinie z dnia 28 czerwca 2019 r. Opis efektów uczenia się dla kierunku studiów Nazwa kierunku studiów: Biologia Poziom: studia drugiego stopnia
Projekt współfinansowany ze środków Europejskiego Funduszu Rozwoju Regionalnego w ramach Programu Operacyjnego Innowacyjna Gospodarka
Projekt współfinansowany ze środków Europejskiego Funduszu Rozwoju Regionalnego w ramach Programu Operacyjnego Innowacyjna Gospodarka Poznań, 16.05.2012r. Raport z promocji projektu Nowa generacja energooszczędnych
Spis treści. Przedmowa... XI. Rozdział 1. Pomiar: jednostki miar... 1. Rozdział 2. Pomiar: liczby i obliczenia liczbowe... 16
Spis treści Przedmowa.......................... XI Rozdział 1. Pomiar: jednostki miar................. 1 1.1. Wielkości fizyczne i pozafizyczne.................. 1 1.2. Spójne układy miar. Układ SI i jego
Nowe metody analizy i optymalizacji architektury złożonych sieci telekomunikacyjnych następnej generacji
Nowe metody analizy i optymalizacji architektury złożonych sieci telekomunikacyjnych następnej generacji Raport końcowy z realizacji projektu 1. Zakres przeprowadzonych badań. Celem projektu było opracowanie
HARMONOGRAM GODZINOWY ORAZ PUNKTACJA ECTS CZTEROLETNIEGO STUDIUM DOKTORANCKIEGO
P O L I T E C H N I K A WYDZIAŁ AUTOMATYKI, ELEKTRONIKI I INFORMATYKI DZIEKAN Ś L Ą S K A UL. AKADEMICKA 16 44-100 GLIWICE T: +48 32 237 13 10 T: +48 32 237 24 13 F: +48 32 237 24 13 Dziekan_aei@polsl.pl
XIII Seminarium Naukowe "Inżynierskie zastosowania technologii informatycznych"
XIII Seminarium Naukowe "Inżynierskie zastosowania technologii informatycznych" W dniu 25.05.2017 odbyło się XIII Seminarium Naukowe Inżynierskie zastosowania technologii informatycznych. Organizatorzy
dr hab. inż. Krystyna Macek-Kamińska, profesor PO
Ukończone studia: Politechnika Wrocławska, Wydział Elektryczny Dyscyplina naukowa: elektrotechnika, informatyka Specjalność: automatyzacja napędu elektrycznego, metody numeryczne dr - 1983 Politechnika
1) na Wydziale Humanistycznym studia doktoranckie w dyscyplinie: a) historia
Załącznik nr. Liczba punktów przyznawanych za poszczególne elementy postępowania rekrutacyjnego: 1) na Wydziale Humanistycznym studia doktoranckie w dyscyplinie: a) historia Tematem pierwszej części rozmowy
Summary in Polish. Fatimah Mohammed Furaiji. Application of Multi-Agent Based Simulation in Consumer Behaviour Modeling
Summary in Polish Fatimah Mohammed Furaiji Application of Multi-Agent Based Simulation in Consumer Behaviour Modeling Zastosowanie symulacji wieloagentowej w modelowaniu zachowania konsumentów Streszczenie
ZASADY PRZYZNAWANIA ŚRODKÓW FINANSOWYCH
REGULAMIN KONKURSU na finansowanie w ramach celowej części dotacji na działalność statutową działalności polegającej na prowadzeniu badań naukowych lub prac rozwojowych oraz zadań z nimi związanych, służących
IX Seminarium Naukowe "Inżynierskie zastosowania technologii informatycznych"
IX Seminarium Naukowe "Inżynierskie zastosowania technologii informatycznych" W dniu 23.04.2016 odbyło się IX Seminarium Naukowe Inżynierskie zastosowania technologii informatycznych. Organizatorzy Zaoczne
Opinia o pracy doktorskiej pt. On active disturbance rejection in robotic motion control autorstwa mgr inż. Rafała Madońskiego
Prof. dr hab. inż. Tadeusz Uhl Katedra Robotyki i Mechatroniki Akademia Górniczo Hutnicza Al. Mickiewicza 30 30-059 Kraków Kraków 09.06.2016 Opinia o pracy doktorskiej pt. On active disturbance rejection
UCHWAŁA NR 26/2016. SENATU AKADEMII MARYNARKI WOJENNEJ im. Bohaterów Westerplatte z dnia 02 czerwca 2016 roku
UCHWAŁA NR 26/2016 SENATU AKADEMII MARYNARKI WOJENNEJ im. Bohaterów Westerplatte z dnia 02 czerwca 2016 roku w sprawie: określenia efektów kształcenia dla kierunku Mechatronika studia II stopnia o profilu
KIERUNKOWE EFEKTY KSZTAŁCENIA
Załącznik do Uchwały Senatu Politechniki Krakowskiej z dnia 28 czerwca 2017 r. nr 58/d/06/2017 Politechnika Krakowska im. Tadeusza Kościuszki w Krakowie Nazwa wydziału Wydział Inżynierii Środowiska Dziedzina
Reguły kształcenia na studiach doktoranckich w wieloobszarowym uniwersytecie przykład Uniwersytetu im. Adama Mickiewicza w Poznaniu
Reguły kształcenia na studiach doktoranckich w wieloobszarowym uniwersytecie przykład Uniwersytetu im. Adama Mickiewicza w Poznaniu SEMINARIUM BOLOŃSKIE STUDIA DOKTORANCKIE W ŚWIETLE NOWYCH REGULACJI PRAWNYCH
Tabela odniesień efektów kierunkowych do efektów obszarowych
Umiejscowienie kierunku w obszarze kształcenia Kierunek studiów automatyka i robotyka należy do obszaru kształcenia w zakresie nauk technicznych i jest powiązany z takimi kierunkami studiów jak: mechanika
Automatyka i pomiary wielkości fizykochemicznych. Instrukcja do ćwiczenia III. Pomiar natężenia przepływu za pomocą sondy poboru ciśnienia
Automatyka i pomiary wielkości fizykochemicznych Instrukcja do ćwiczenia III Pomiar natężenia przepływu za pomocą sondy poboru ciśnienia Sonda poboru ciśnienia Sonda poboru ciśnienia (Rys. ) jest to urządzenie
INFORMACJE OGÓLNE O PROGRAMIE KSZTAŁCENIA NA STACJONARNYCH STUDIACH DOKTORANCKICH CHEMII I BIOCHEMII PRZY WYDZIALE CHEMII
UNIWERSYTET GDAŃSKI WYDZIAŁ CHEMII INFORMACJE OGÓLNE O PROGRAMIE KSZTAŁCENIA NA STACJONARNYCH STUDIACH DOKTORANCKICH CHEMII I BIOCHEMII PRZY WYDZIALE CHEMII Stacjonarne Studia Doktoranckie Chemii i Biochemii
Dokumenty winny być złożone w zamkniętej kopercie opatrzonej imieniem i nazwiskiem osoby przystępującej do konkursu oraz napisem Konkurs na
Dyrektor Instytutu Kolejnictwa w Warszawie ogłasza konkurs na zatrudnienie pracownika naukowego na stanowisku adiunkta w Laboratorium Automatyki i Telekomunikacji IK Osoby ubiegające się o wymienione stanowisko
XVI Seminarium Naukowe Tomografia procesowa aplikacje, systemy pomiarowe i algorytmy numeryczne
XVI Seminarium Naukowe Tomografia procesowa aplikacje, systemy pomiarowe i algorytmy numeryczne W dniu 6.03.2017 odbyło się XVI Seminarium Naukowe Tomografia procesowa aplikacje, systemy pomiarowe i algorytmy
Opis zakładanych efektów kształcenia
Załącznik nr.. Opis zakładanych efektów kształcenia Kierunek studiów: odnawialne źródła energii i gospodarka odpadami Poziom kształcenia: studia pierwszego stopnia Tytuł zawodowy: inżynier Profil kształcenia:
w dyscyplinie: Automatyka i Robotyka, studia stacjonarne
P O L I T E C H N I K A Ś L Ą S K A WYDZIAŁ AUTOMATYKI, ELEKTRONIKI I INFORMATYKI DZIEKAN UL. AKADEMICKA 16 44-100 GLIWICE T: +48 32 237 13 10 T: +48 32 237 24 13 F: +48 32 237 24 13 Dziekan_aei@polsl.pl
Katowice GPW 2013. Zintegrowany system informatyczny do kompleksowego zarządzania siecią wodociągową. Jan Studziński
Katowice GPW 2013 Zintegrowany system informatyczny do kompleksowego zarządzania siecią wodociągową Jan Studziński 1 1. Wstęp Cel pracy Usprawnienie zarządzania siecią wodociągową za pomocą nowoczesnych
I. PROCEDURA DYPLOMOWA DLA STUDIÓW I stopnia na kierunkach: ekonomia, zarządzanie, informatyka
ZARZĄDZENIE REKTORA ZACHODNIOPOMORSKIEJ SZKOŁY BIZNESU W SZCZECINIE 1/2015 28 lutego 2015 r. W sprawie: korekty do Regulaminu procedur dyplomowych dla I i II stopnia studiów na Wydziale Ekonomii i Informatyki
Załącznik nr 1 Łódź, 21 grudnia 2016 r.
Załącznik nr 1 Łódź, 21 grudnia 2016 r. Uzasadnienie uchwały komisji habilitacyjnej w sprawie wniosku o nadanie dr. Dariuszowi Bukacińskiemu stopnia doktora habilitowanego w dziedzinie nauk biologicznych
Modelowanie jako sposób opisu rzeczywistości. Katedra Mikroelektroniki i Technik Informatycznych Politechnika Łódzka
Modelowanie jako sposób opisu rzeczywistości Katedra Mikroelektroniki i Technik Informatycznych Politechnika Łódzka 2015 Wprowadzenie: Modelowanie i symulacja PROBLEM: Podstawowy problem z opisem otaczającej
Ewaluacja w polityce społecznej
Ewaluacja w polityce społecznej Dane i badania w kontekście ewaluacji metody ilościowe Dr hab. Ryszard Szarfenberg Instytut Polityki Społecznej UW rszarf.ips.uw.edu.pl/ewalps/dzienne/ Rok akademicki 2017/2018
Efekty kształcenia Dla kierunku Inżynieria Bezpieczeństwa
Efekty kształcenia Dla kierunku Inżynieria Bezpieczeństwa, studia II stopnia profil ogólnoakademicki Specjalność studiowania Gospodarka Wodna i Zagrożenia Powodziowe Umiejscowienie kierunku w obszarze
Miejsce pracy Okres pracy Stanowisko
ŻYCIORYS NAUKOWY z wykazem prac naukowych, twórczych prac zawodowych oraz informacją o działalności popularyzującej naukę Dane osobowe Imię i nazwisko Data i miejsce urodzenia Adres zamieszkania Telefon,
Wyznaczanie charakterystyki instalacji transportu pneumatycznego. przy zastosowaniu dwup³aszczyznowego systemu tomografii pojemnoœciowej
AUTOMATYKA 2009 Tom 13 Zeszyt 3 Zbigniew Chaniecki*, Krzysztof Grudzieñ*, Andrzej Romanowski*, Dominik Sankowski* Wyznaczanie charakterystyki instalacji transportu pneumatycznego materia³ów sypkich przy
XVIII Seminarium Naukowe Tomografia procesowa aplikacje, systemy pomiarowe i algorytmy numeryczne
XVIII Seminarium Naukowe Tomografia procesowa aplikacje, systemy pomiarowe i algorytmy numeryczne W dniu 13.10.2017 odbyło się XVIII Seminarium Naukowe Tomografia procesowa aplikacje, systemy pomiarowe
WYDZIAŁ TRANSPORTU I INFORMATYKI TRANSPORT II STOPIEŃ OGÓLNOAKADEMICKI
Nazwa kierunku Poziom Profil Symbole efektów na kierunku WYDZIAŁ TRANSPORTU I INFORMATYKI TRANSPORT II STOPIEŃ OGÓLNOAKADEMICKI Efekty - opis słowny. Po ukończeniu studiów drugiego stopnia na kierunku
Projekty badawcze finansowane przez Narodowe Centrum Nauki
Projekty badawcze finansowane przez Narodowe Centrum Nauki TYPY KONKURSÓW Konkursy na finansowanie projektów badawczych Konkursy na finansowanie projektów badawczych dla osób nieposiadających stopnia doktora
VI Seminarium Naukowe Tomografia procesowa aplikacje, systemy pomiarowe i algorytmy numeryczne - relacja
VI Seminarium Naukowe Tomografia procesowa aplikacje, systemy pomiarowe i algorytmy numeryczne - relacja W dniu 21.08.2015 odbyło się VI Seminarium Naukowe Tomografia procesowa aplikacje, systemy pomiarowe
Karta przedmiotu. Obowiązkowy. Kod przedmiotu: Rok studiów: Semestr: Język:
Karta przedmiotu Nazwa przedmiotu: Stopień studiów: Doktoranckie Seminarium doktorskie Marketing i jego rola we współczesnym biznesie Tryb studiów: niestacjonarne Obowiązkowy Kod przedmiotu: Rok studiów:
Praca doktorska. Nowa metoda rekonstrukcji obrazów dla potrzeb pojemnościowej tomografii procesowej
POLITECHNIKA ŁÓDZKA WYDZIAŁ ELEKTROTECHNIKI, ELEKTRONIKI, INFORMATYKI I AUTOMATYKI KATEDRA INFORMATYKI STOSOWANEJ mgr inŝ. RADOSŁAW WAJMAN Praca doktorska Nowa metoda rekonstrukcji obrazów dla potrzeb
ALGORYTM PROJEKTOWANIA ROZMYTYCH SYSTEMÓW EKSPERCKICH TYPU MAMDANI ZADEH OCENIAJĄCYCH EFEKTYWNOŚĆ WYKONANIA ZADANIA BOJOWEGO
Szybkobieżne Pojazdy Gąsienicowe (2) Nr 2, 24 Mirosław ADAMSKI Norbert GRZESIK ALGORYTM PROJEKTOWANIA CH SYSTEMÓW EKSPERCKICH TYPU MAMDANI ZADEH OCENIAJĄCYCH EFEKTYWNOŚĆ WYKONANIA ZADANIA BOJOWEGO. WSTĘP
Wykaz dorobku habilitacyjnego nauki techniczne OBSZAR NAUK TECHNICZNYCH
Wykaz dorobku habilitacyjnego nauki techniczne OBSZAR NAUK TECHNICZNYCH Wykaz opublikowanych prac naukowych lub twórczych prac zawodowych oraz informacja o osiągnięciach dydaktycznych, współpracy naukowej
Efekt kształcenia. Ma uporządkowaną, podbudowaną teoretycznie wiedzę ogólną w zakresie algorytmów i ich złożoności obliczeniowej.
Efekty dla studiów pierwszego stopnia profil ogólnoakademicki na kierunku Informatyka w języku polskim i w języku angielskim (Computer Science) na Wydziale Matematyki i Nauk Informacyjnych, gdzie: * Odniesienie-
STRESZCZENIE. rozprawy doktorskiej pt. Zmienne jakościowe w procesie wyceny wartości rynkowej nieruchomości. Ujęcie statystyczne.
STRESZCZENIE rozprawy doktorskiej pt. Zmienne jakościowe w procesie wyceny wartości rynkowej nieruchomości. Ujęcie statystyczne. Zasadniczym czynnikiem stanowiącym motywację dla podjętych w pracy rozważań
Efekty kształcenia na kierunku AiR drugiego stopnia - Wiedza Wydziału Elektrotechniki, Automatyki i Informatyki Politechniki Opolskiej
Efekty na kierunku AiR drugiego stopnia - Wiedza K_W01 K_W02 K_W03 K_W04 K_W05 K_W06 K_W07 K_W08 K_W09 K_W10 K_W11 K_W12 K_W13 K_W14 Ma rozszerzoną wiedzę dotyczącą dynamicznych modeli dyskretnych stosowanych
Uchwała obowiązuje od dnia podjęcia przez Senat. Traci moc Uchwała nr 144/06/2013 Senatu Uniwersytetu Rzeszowskiego z 27 czerwca 2013 r.
Rektor Uniwersytetu Rzeszowskiego al. Rejtana 16c; 35-959 Rzeszów tel.: + 48 17 872 10 00 (centrala) + 48 17 872 10 10 fax: + 48 17 872 12 65 e-mail: rektorur@ur.edu.pl Uchwała nr 282/03/2014 Senatu Uniwersytetu
Standardy kształcenia dla studiów doktoranckich- stacjonarnych w dyscyplinie naukowej inżynieria rolnicza
Załącznik Nr 13-A do Uchwały nr 66 Rady Wydziału Nauk Technicznych z dnia 26 kwietnia 2012 roku Standardy kształcenia dla studiów doktoranckich- stacjonarnych w dyscyplinie naukowej inżynieria rolnicza
Efekty uczenia się na kierunku. Logistyka (studia pierwszego stopnia o profilu praktycznym)
Efekty uczenia się na kierunku Załącznik nr 2 do uchwały nr 412 Senatu Uniwersytetu Zielonogórskiego z dnia 29 maja 2019 r. Logistyka (studia pierwszego stopnia o profilu praktycznym) Tabela 1. Kierunkowe