Autoreferat Przedstawiający opis dorobku i osiągnięć naukowych w szczególności określonych w art. 16 ust. 2 ustawy o stopniach naukowych i tytule naukowym Dr inż. Andrzej Romanowski Instytut Informatyki Stosowanej Wydział Elektrotechniki, Elektroniki, Informatyki i Automatyki Politechnika Łódzka Łodź, 6 listopada 2018r. 1
1. Imię i Nazwisko Andrzej Romanowski 2. Posiadane dyplomy i stopnie naukowe 2008 Nadanie stopnia doktora nauk technicznych w zakresie Informatyki przez Radę Wydziału Elektroniki, Elektrotechniki, Informatyki i Automatyki Politechniki Łódzkiej. Rozprawa pod tytułem Algorytmy modelowania przestrzennego i czasowego dla potrzeb przetwarzania danych w systemach procesowej tomografii pojemnościowej promotor: prof. dr hab. inż. Dominik Sankowski, obroniona z wyróżnieniem na wniosek recenzenta zewnętrznego na Wydziale Elektroniki, Elektrotechniki, Informatyki i Automatyki Politechniki Łódzkiej w dniu 26.05.2008r. 2002 Dyplom magistra inżyniera uzyskany na kierunku Elektronika i Telekomunikacja, w ramach studiów w International Faculty of Engineering, w Politechnice Łódzkiej, w specjalności: Telecommunications and Computer Science. Studia magisterskie jednolite, pięcioletnie, prowadzone w całości w języku angielskim zakończone tytułem Master of Science (dyplom magistra inżyniera), praca magisterska: Wireless Application Protocol Services for the Institute of Electronics. 3. Informacje o dotychczasowym zatrudnieniu w jednostkach naukowych 2003-2008 Katedra Informatyki Stosowanej Politechniki Łódzkiej. Asystent. 2008 obecnie Praca na stanowisku adiunkta w wymiarze pełnego etatu w Instytucie Informatyki Stosowanej. 2014 Urlop ojcowski łącznie ok. 9 miesięcy 2016 - obecnie Pełnienie funkcji prodziekana ds. studiów stacjonarnych WEEIA PŁ 2
4. Wskazanie osiągnięcia naukowego a. tytuł osiągnięcia naukowego Algorytmy przetwarzania danych wykorzystujące informację kontekstową w przemysłowych systemach tomografii procesowej. Na które składa się cykl 7 prac naukowych powiązanych tematycznie z okresu 2008-2018 (wykaz podany w porządku chronologicznym). Podjęty przeze mnie temat dotyczył przetwarzania danych pomiarowych procesów przemysłowych monitorowanych z wykorzystaniem technik tomograficznych. W skład cyklu publikacji wchodzą artykuły z czasopism indeksowanych w bazie JCR i na liście MNiSW część A (6 artykułów autorskich i współautorskich oraz 1 publikacja konferencyjna (materiały konferencyjne indeksowane w bazie Web of Science). [1] Grudzien K., Romanowski A., Williams R.A., Sankowski D., (2008): Gravitional Granular Flow Dynamics Study Based on Tomogrpahic Data Processing, Particulate Science and Technology, Volume 26, Issue 1, p. 67 82, ISSN: 0272-6351, 2014 Impact Factor: 0.523, 5-Year Impact Factor: 0.515, (MNiSW 20) Udział (45)% [2] Grudzień K., Chaniecki Z., Romanowski A., Niedostatkiewicz M, Sankowski D. (2010): Description of the silo flow and bulk solid pulsation detection using ECT, Flow Measurement and Instrumentation, Volume 21, Issue 3, p. 198-206, ISSN: 0955-5986, Impact Factor: 1.040, 5-Year Impact Factor: 1.229, (MNiSW 30). Udział (20)% [3] Matusiak B., da Silva MJ., Hampel U., Romanowski A., (2010), Measurement of Dynamic Liquid Distributions in a Fixed Bed Using Electrical Capacitance Tomography and Capacitance Wire-Mesh Sensor. Industrial & Engineering Chemistry Research, 2010, vol. no. 49, p. 2070-2077, IF 2.206 5-Year Impact Factor: 2.462, (MNiSW 35) Udział (30)% [4] Grudzień K., Chaniecki Z., Romanowski A., Niedostatkiewicz M., Sankowski D., (2012), ECT Image Analysis Methods for Shear Zone Measurements during Silo Discharging Process, Chinese Journal of Chemical Engineering, Volume 20, Issue 2, p. 205-410, ISSN: 1004-9541, Impact Factor: 1.098, 5-Year Impact Factor: 1.342, (MNiSW 25) Udział (20)% [5] Chen Ch., Woźniak P., Romanowski A., Obaid M., Jaworski T., Kucharski J., Grudzień K., Zhao S., Fjeld M., 2016, Using Crowdsourcing for Scientific Analysis of Industrial Tomographic Images, ACM Transactions on Intelligent Systems and Technology, Vol. V, No. N, Impact Factor: 2.414, 5-Year Impact Factor: 9.15, (MNiSW 50). Udział (30)% [6] Romanowski A., Big Data-Driven Contextual Processing Methods for Electrical Capacitance Tomography, 2018, IEEE Transactions on Industrial Informatics, (W DRUKU, DOSTĘPNE ONLINE W IEEExplore: lipiec 2018) Impact Factor: 6.764, 5-Year Impact Factor: 7.23, (MNiSW 50). Udział (100)% [7] Romanowski A., Contextual processing of electrical capacitance tomography measurement data for temporal modeling of pneumatic conveying proces, (W DRUKU, DOSTĘPNE ONLINE W IEEExplore: wrzesień 2018) FedCSIS 18, ACSIS, vol. 10. IEEE, 2018 (in-press) (MNiSW 15). Udział (100)% Główne wyniki prac naukowych wykonanych w ramach doktoratu zostały przedstawione również w artykułach z listy JCR. Należą do nich trzy publikacje w Particle & Particle 3
Systems Characterization, (5-year impact factor 2.51, 2006 Impact Factor 0.639, 2014 / 2015 Impact Factor 3.081): Grudzien K., Romanowski A., Williams R.A, 2005, Application of a Bayesian Approach to the Tomographic Analysis of Hopper Flow, PPSCh, DOI: 10.1002/ppsc.200500951, (MNiSW 30). Romanowski A., Grudzien K., Williams R.A., 2006, Analysis and Interpretation of Hopper Flow Behaviour Using Electrical Capacitance Tomography, PPSCh, 10.1002/ppsc.200601060, (MNiSW 30) Romanowski A., Grudzien K., Robert G. Aykroyd, Richard A. Williams, 2006, Advanced Statistical Analysis as a Novel Tool to Pneumatic Conveying Monitoring and Control Strategy Development PPSCh, DOI: 10.1002/ppsc.200601059, (MNiSW 30). 4
Część opisowa autoreferatu: I. TYTUŁ OSIĄGNIĘCIA NAUKOWEGO:... 6 II. OMÓWIENIE CELU NAUKOWEGO I OSIĄGNIĘTYCH WYNIKÓW... 6 III. PODSUMOWANIE... 20 IV. OPIS PRAC NAUKOWO BADAWCZYCH I TŁO BADAŃ PROWADZONYCH PO UZYSKANIU DOKTORATU.... 25 5
I. Tytuł osiągnięcia naukowego: Algorytmy przetwarzania danych wykorzystujące informację kontekstową w przemysłowych systemach tomografii procesowej. Po doktoracie, pozostając w tematyce monitorowania, diagnozowania i sterowania wybranymi procesami przemysłowymi wykorzystującymi systemy tomografii procesowej, skierowałem swoje zainteresowania naukowo-badawcze w stronę opracowania nowoczesnych, niezawodnych i wydajnych metod analizy przemysłowych procesów grawitacyjnego przepływu materiałów sypkich oraz przepływów wielofazowych. W rezultacie prac badawczych powstał szereg nowych metod i algorytmów przetwarzania danych pomiarowych, które można umieścić w szeroko rozumianych zagadnieniach z zakresu big data, image processing, crowdsourcing, context-awareness oraz data mining. II. Omówienie celu naukowego i osiągniętych wyników Omówienie celu naukowego i syntetyczne ujęcie najważniejszych osiągnięć opracowanych na drodze do osiągnięcia celu naukowego prowadzonych prac badawczych. Systemy tomografii procesowej stanowią bezinwazyjne metody pomiarowe wykorzystywane dla potrzeb monitorowania, diagnozowania i sterowania procesami przemysłowymi. Około 60% wszystkich procesów wykorzystujących materiały stałe związanych jest na pewnym etapie z transportem materiałów sypkich. Gałęzie przemysłu, w których znajduje zastosowanie przepływ materiałów sypkich, a co za tym idzie tomografia procesowa to m.in. przemysł chemiczny, farmaceutyczny, przetwórstwa spożywczego, petrochemiczny i inne. W związku z tym optymalizacja tych procesów przez poprawę systemów monitorowania i diagnostyki ma ogromne znaczenie praktyczne i ekonomiczne [18][38][42][Zał.3.II.E.23]. Aby osiągnąć zamierzony cel skupiłem uwagę na opracowaniu, zaimplementowaniu i zweryfikowaniu nowatorskich algorytmów przetwarzania danych wykorzystujących informację kontekstową w przemysłowych systemach tomografii procesowej [6][32][39]. Na Rys. 1. przedstawiłem schemat osiągniętych najważniejszych wyników uwzględniających opracowane algorytmy (numeracja 1-15 odnosi się do trzech głównych grup algorytmów powstałych w ramach prac badawczych; pełna lista algorytmów jest przedstawiona w dalszej części autoreferatu: cz. IV). 6
Rysunek 1. Schemat ilustrujący umiejscowienie autorskich algorytmów i metod kontekstowego przetwarzania pomiarowych danych tomograficznych w układzie głównych kierunków prac badawczych po doktoracie. Algorytmy te stanowią w mojej opinii istotny wkład w dyscyplinę naukową informatykę polegający przede wszystkim na: 1) Twórczym połączeniu nowych, oryginalnych oraz modyfikowanych algorytmów big data wraz z nowatorskim wykorzystaniem w przemyśle danych pomiarowych pochodzących z systemów tomografii procesowej co rozszerza klasyczne podejście w szeroko rozumianym zakresie data mining (eksploracji danych). 2) Zaproponowaniu oryginalnego połączenia inteligencji ludzkiej z metodami automatycznego przetwarzania danych w oryginalnych algorytmach crowdsourcing co stanowi novum w zakresie tzw. image processing (przetwarzania obrazów) stosowanego do tej pory w przemysłowych i badawczych systemach tomograficznych. 3) Wykorzystaniu w opracowanych algorytmach komponentu kontekstowego, co znacząco zwiększa możliwości dokładnej interpretacji danych w przemysłowych systemach monitorowania, diagnostyki i sterowania. Za najbardziej istotne uważam opracowane przeze mnie algorytmy oznaczone numerami 12-15, dotyczące kontekstowego przetwarzania dużych zbiorów danych pomiarowych, opublikowane w ramach samodzielnego artykułu [Zał.3.I.B.6], przy czym powstanie ich nie byłoby możliwe bez zrealizowania w czasie ostatnich 10 lat pozostałych prac wchodzących w skład przedstawianego do oceny osiągnięcia naukowego (m.in. algorytmy oznaczone numerami 1-11), a które zostały opublikowane w ramach artykułów, których jestem autorem i współautorem [Zał.3. I.B.1-5,7]. Poza artykułami stanowiącymi ścisły dorobek składający się na osiągnięcie habilitacyjne warte uwagi są inne publikacje z tego samego zakresu, które świadczą o wysokim poziomie naukowym, nowatorstwie i randze prowadzonych badań. I tak jestem 7
współautorem 3 rozdziałów w monografii pn. Computer Vision in Robotics and Industrial Applications pod red. Sankowski D., Nowakowski J. wydanej w Singapurze. Książka ta uzyskała nagrodę Book of The Year 2014 wydawnictwa World Scientific. [Zał.3.II.E.22-24]. Jestem także pomysłodawcą i głównym animatorem międzynarodowej konferencji inotice, której już dziewiąta, coroczna edycja obyła się w czerwcu 2018 r. w Piorunowie/ k. Łodzi [Zał.3.III.L.12-17]. Konferencja ta stanowi forum wymiany myśli badawczej z zakresu informatyki i dyscyplin pokrewnych, ze szczególnym uwzględnieniem styku nauk technicznych i aspektów ludzkich badań prowadzonych przede wszystkim przez młodych naukowców (m.in. doktorantów i habilitantów Instytutu Informatyki Stosowanej PŁ). Efektem tych konferencji jest szereg artykułów zamieszczonych w czasopismach recenzowanych, a także kilku monografii zawierających wyselekcjonowane publikacje najważniejszych wyników badań, co w konsekwencji owocuje ponadprzeciętną w skali kraju liczbą doktoratów, a także habilitacji w Instytucie Informatyki Stosowanej PŁ Aktywność ta spotkała się z wysokim uznaniem (nagrody rektorskie) władz macierzystego Wydziału i Uczelni. Swoje doświadczenia naukowo badawcze zdobywałem w trakcie wielomiesięcznych staży badawczych w wiodących ośrodkach naukowych w Anglii, Niemczech, Norwegii, Szwecji (pełny wykaz w dalszej części autoreferatu), a także w nowoczesnym półprzemysłowym Laboratorium Tomografii Procesowej im. T. Dyakowskiego w Instytucie Informatyki Stosowanej PŁ, zbudowanym w latach 2008-2010 ramach europejskiego grantu DENIDIA, którego byłem głównym wykonawcą [Zał.3.III.E]. Uwagi wstępne i szczegółowe omówienie osiągniętych wyników W zakresie usprawniania i optymalizacji a przede wszystkim poprawy dokładności i wydajności systemów monitorowania i diagnostyki procesów przemysłowych opartych na tomografii procesowej, od ponad trzech dekad rozwijane są metody i algorytmy przetwarzania danych tomograficznych, które mają na celu uzyskanie jak najbardziej precyzyjnej informacji o bieżącym stanie monitorowanego procesu [11][12][25][34][35][38][42][56][58][59]. Jednakże metody przetwarzania danych muszą radzić sobie z szeregiem trudności matematycznych i praktycznych powodujących ograniczoną dokładność i wiarygodność dostarczanych przez nie wyników obliczeń [11][38][59]. Trudności na drodze do uzyskania żądanej informacji o procesie przemysłowym są związane z zadaniem rozwiązywania tzw. zagadnienia odwrotnego w tomografii procesowej[22][38]. W procesie tym, poprzez przetwarzanie i analizę zebranych danych pomiarowych, uzyskiwane są informacje o stanie wnętrza przestrzeni czujnika pomiarowego[11][49][53]. W przypadku tomografii elektrycznej (pojemnościowej), która jest podstawowym podmiotem moich badań, właściwości takie jak pod-określoność i złe uwarunkowanie zagadnienia odwrotnego sprawiają, że klasyczne metody rozwiązania wprowadzają trudne do oszacowania błędy [11][21][25][45][46]. Dlatego też przetwarzanie danych pochodzących z systemów tomografii pomiarowej obarczone jest niepewnością związaną z dostarczonymi wynikami pomiarów, niezależnie od postaci danych (surowych bądź zrekonstruowanych) [16][25][27][36][44]. Biorąc pod uwagę powyższe względy, podjąłem próbę opracowania metod syntetycznego przetwarzania danych pomiarowych uwzględniających informacje dodatkowe (kontekstowe) w celu podniesienia 8
wiarygodności uzyskanych wyników obliczeń [30][32][Zał.3.I.B]. W tym celu wykonałem szereg badań zrealizowanych w większości na specjalnie zaprojektowanych i wykonanych stanowiskach eksperymentalnych [Aut.IV]. Natomiast pokonanie wspomnianych trudności dotyczących niepewności wyników pomiaru prowadzonego z wykorzystaniem tomografii oraz trudności matematycznych związanych z rozwiązaniem zagadnienia odwrotnego wymagało zastosowania wiedzy informatycznej i opracowania nowych algorytmów przetwarzania danych tomograficznych. W szczególności są to algorytmy kontekstowego przetwarzania dużych zbiorów eksperymentalnych danych tomograficznych oparte na metodach big data. Pierwszym efektem tych badań były metody analizy dynamiki procesu opróżniania zbiorników na materiał sypki monitorowanych przy użyciu sytemu elektrycznej tomografii pojemnościowej ECT opublikowane w czasopiśmie z listy JCR [Zał.3.I.B.1]. Do moich osiągnięć w ramach tej publikacji należy opracowanie algorytmu monitorowania procesu opróżniania silosów opartego na śledzeniu zmian koncentracji materiału w zależności od umiejscowienia sensora ECT na peryferiach monitorowanego (opomiarowanego) zbiornika. Istotną nowością tego algorytmu w skali międzynarodowej jest zaproponowanie metody wyznaczania prędkości propagacji komina przepływu w oparciu o dane pomiarowe pochodzące tylko z pojedynczej płaszczyzny pomiarowej. Jest to możliwe dzięki wnikliwej analizie charakterystyki opróżniania zbiornika prowadzonej w różnych aspektach na bazie zarówno nieprzetworzonych danych pomiarowych jak i zrekonstruowanych obrazów. Opracowana metoda oparta została na eksperymentalnym wykazaniu zakresu czułości przestrzennej wieloelektrodowego czujnika pojemnościowego na zmiany koncentracji materiału przemieszczającego się w jego wnętrzu, który pozwala uchwycić moment pojawiania się znaczących zmian mierzonej pojemności elektrycznej (odpowiadającej zmianom rozkładu przenikalności elektrycznej) na krańcach elektrod w obrębie jednej płaszczyzny sensora. Dzięki zaproponowanej przeze mnie analizie charakterystyki ww. zmian dla różnych obszarów w płaszczyźnie poprzecznej czujnika możliwe było równocześnie wykrycie skokowego wzrostu koncentracji materiału w strefie przyściennej czujnika. Zaproponowana w [Zał.3.I.B.1]. charakterystyka (wycinek Fig. 8 z tego artykułu) ukazuje moment wzrostu mierzonej pojemności odzwierciedlającej koncentrację materiału powyżej pierwotnych 100%. Eksperymentalne wyznaczenie tego efektu jest o tyle istotne, że dotychczas zawsze w znanej mi literaturze mierzona pojemność (czy też zapisywane w jakiejkolwiek innej postaci dane pomiarowe) podlegały normalizacji [1][13][26][28][37][38][44][48][50][58]. Oznacza to wyrównanie skrajnych odczytów pomiarowych do poziomu minimum odpowiadającemu pustej przestrzeni pomiarowej czujnika oraz poziomu maksimum odpowiadającemu pełnej przestrzeni pomiarowej czujnika. W praktyce, w procesie wstępnej kalibracji, tym stanom przypisywane były wartości odpowiednio: 1 oraz 2 (lub rzadziej 0 oraz 1 przy czym to drugie rozwiązanie jest rzadko stosowane, ponieważ powoduje trudności matematyczne związane z późniejszym numerycznym przetwarzaniem danych). Oznacza to, że wszelkie wartości pomiarowe poniżej minimum oraz powyżej maksimum są obcinane, tj. odpowiednio zaokrąglane w górę lub dół w celu zrównania z poziomami zmierzonymi w procesie kalibracji. Jednak w tym konkretnym przypadku, dzięki zastosowaniu reguły kontekstowej polegającej na 9
wykorzystaniu obserwacji (poczynionych w postaci pomiarów) i przewidywań eksperckich na temat możliwych czynników sprawczych wykazałem, że bezpośrednią przyczyną tego efektu jest faktyczny wzrost koncentracji spowodowany zbijaniem się materiału w strefie przyściennej zbiornika po uruchomieniu procesu przepływu. Wcześniej nie odkryto tej zależności ani przy pomocy pomiarów, ani przy wykorzystaniu symulacji komputerowych. Dzięki temu, tj., wykorzystaniu kontekstowego przetwarzania danych uwzględniającego ww. informacje, odrzuciłem znaną z dotychczasowej literatury przedmiotu praktykę przetwarzania danych w postaci zaokrąglania (obcinania) wartości pomierzonych do założonego maksimum, co z kolei zaowocowało opracowaniem znacznie bardziej wiarygodnego modelu badanego procesu. Dodatkowo wykazałem w ten sposób, że możliwa jest bardziej dokładna interpretacja danych pomiarowych pochodzących z systemów ECT niż wynikałoby to ze znanych z wcześniejszej literatury zakresów niepewności pomiarowej pozostających na poziomie co najmniej 5%. Bezpośrednią implikacją jest fakt, że dzięki kontekstowemu wykorzystaniu dodatkowych danych (w postaci wiedzy, informacji czy też samych pomiarów) mogłem prowadzić analizę danych pomiarowych odzwierciedlającą zmiany koncentracji materiału nawet na poziomie 2-3%, co wedle wcześniejszych badań nie było teoretycznie możliwe [53][56][59]. Wstępne wykazanie tego faktu pozwoliło na prowadzenie kolejnych badań związanych z rozwojem przemysłowych systemów w pomiarowych opartych na tomografii pojemnościowej w zespole TomoKIS. Natomiast wyniki tych późniejszych badań znalazły efekt w postaci publikacji powstałych w trakcie badań prowadzonych w ramach wielu projektów badawczych realizowanych w Instytucie Informatyki Stosowanej oraz na świecie. Co ważne, opracowane metody i algorytmy analizy i przetwarzania danych pomiarowych pochodzących z tomografii pojemnościowej zostały zweryfikowane dla przepływu różnych materiałów, przez co dają się one rozszerzyć na całą klasę innych zastosowań, także w innych branżach przemysłu [13][16][33][38][49]. Kontynuacją badań nad wykorzystaniem informacji kontekstowej dla celów opracowania algorytmów i metod modelowania oraz monitorowania procesów przemysłowych był mój udział w pracach, których wyniki ukazały się w [Zał.3.I.B.3]. Artykuł ten przedstawia szczegółową analizę możliwości wykorzystania systemu ECT do jakościowej oceny dynamiki procesów przemysłowych na bazie interpretacji danych obrazowych zrekonstruowanego obrazu rozkładu koncentracji materiału w przekroju poprzecznym badanego procesu. Pomiary zjawisk z udziałem materiałów sypkich zwykle operują w zakresie wykrywania różnic rzędu kilku procent upakowania materiału w przestrzeni pomiarowej, co jest niezwykle trudne do wykrycia i jednocześnie prawidłowej interpretacji, szczególnie że dla ECT odpowiada to różnicy rzędu kilku femtofaradów [ff] [11][31][42]. Ilustracją tych trudności są m.in. wykresy na (Fig. 12 w artykule [Zał.3.I.B.3]. Poniżej na Rys. 2 zaprezentowany jest wycinek przebiegu procesu przepływu grawitacyjnego materiałów sypkich w czasie, który ukazuje efekt skoku wykrytej koncentracji materiału powyżej nominalnych 100% oznaczonych wcześniej prawidłowo w procesie kalibracji zestawu pomiarowego. 10
Rysunek 2. Ilustracja zjawiska wzrostu odczytów pomiarowych powyżej maksymalnych wartości kalibracyjnych. [Jest to wycinek rysunku Fig. 12 z artykułu Grudzień, Romanowski et al. 2010]. Warto w tym miejscu zaznaczyć, że przedstawione odczyty nie są wynikiem błędu pomiarowego, a tylko prawidłowo oddają specyfikę zjawisk występujących w procesach będących przedmiotem pomiaru. W tym przypadku odczyty pomiarowe przekraczające 100% odzwierciedlają sytuację dodatkowego zbijania się materiału w wybranych strefach pomiarowych (związanych z konkretnymi strefami przepływu) do wartości przekraczających wartości początkowe upakowanego materiału, który brał udział w procesie kalibracji przeprowadzonym przed samym eksperymentem. Dlatego też często niezbędne jest wstępne przeprowadzenie analizy stosunku sygnału do szumu, aby nawet przy rygorystycznie wykonanej kalibracji zwiększyć możliwość detekcji prawdziwych zjawisk dynamicznych w odróżnieniu od tych, które mogą być odzwierciedlone w pomiarach statycznych bądź mogą stanowić błąd pomiaru [Zał.3.II.E.59,61]. Na ww. potrzeby odpowiada skutecznie opracowany przez autora algorytm wyznaczenia zakresu detekcji zmian koncentracji oparty na dedykowanej, dodatkowej procedurze wstępnej normalizacji danych pomiarowych. W tym celu opracowałem wykonanie dodatkowych testów wstępnych (z ang. pre-tests) w celu uzgodnienia porównywalności odczytów pomiarowych dla różnych modeli korekcji normalizacji danych pomiarowych. Klasyczne podejście empiryczne dla elektrycznej tomografii procesowej zakłada przed wykonaniem eksperymentów właściwych jedynie etap kalibracji [Zał.3.II.E.62]. Zaproponowana metodologia polega natomiast na wykonaniu dodatkowych prób pomiarowych w warunkach statycznych oraz dynamicznych kontrolowanych. Testy te zostały wykonane po etapie kalibracji, ale przed wykonaniem eksperymentów w warunkach normalnego przepływu nieograniczonego. Te dodatkowe testy umożliwiły porównanie odczytów dla różnych modeli korekcji normalizacji danych pomiarowych, co z kolei pozwoliło uzyskać kontekstową informację na temat zakresu możliwej detekcji zmian koncentracji materiału [Zał.3.II.E.28]. Taka kontekstowa analiza szumu, sygnału i danych jest istotna w przypadku badania zjawisk dynamicznych takich jak np. pulsacji powodujących niewielkie okresowe zmiany odczytów pomiarowych, które z jednej strony są łatwo wykrywalne na peryferiach instalacji czy zbiorników przemysłowych różnymi metodami (np. przy użyciu akcelerometrów), lecz niezwykle trudne do zmierzenia w pełnej objętości zawartości tychże instalacji. Testy i analizy przeprowadzone z modelem korekcji Maxwella 11
oraz modelem szeregowym umożliwiły ocenę wpływu procesu normalizacji danych na możliwość i jakość interpretacji danych pomiarowych (przede wszystkim nieprzetworzonych, ale w konsekwencji także zrekonstruowanych) odpowiadających najmniejszym zmianom gęstości upakowania materiału, które w innych warunkach mogłyby zostać uznane w całości za szum pomiarowy. Dzięki tej metodologii możliwe było także wykazanie możliwości oszacowania ilościowego zjawisk dynamicznych występujących w czasie przepływu, a których monitorowanie jest celem zastosowania metod tomografii pojemnościowej. Nowością ww. algorytmu jest trzystopniowa, kontekstowa analiza nieprzetworzonych danych pomiarowych skorelowana z protokołem pomiarowym ECT. Procedura ta jest obecnie wykorzystywana w pracach eksperymentalnych i przemysłowych na całym świecie [Zał.3.II.E,L]. W dalszych krokach analizy, w przypadku ewentualnej pracy ze zrekonstruowanymi obrazami, przy tak niewielkich różnicach pomierzonych wartości niezbędna jest precyzyjna wiedza dotycząca fizyki zjawisk będących przedmiotem prac eksperymentalnych i to zarówno na etapie rekonstrukcji obrazów jak i na etapie ich późniejszego przetwarzania, analizy i interpretacji. Wiedza ta musi być powiązana z kontekstem procesu i właściwości narzędzi oraz warunków pomiaru [29][40][47]. Zwykle analiza obrazów, szczególnie podobnych do tych z jakimi można się spotkać w elektrycznej tomografii procesowej, na jednym ze wstępnych etapów korzysta z segmentacji w celu wyznaczenia obszarów zainteresowania (z ang. region of interest ROI). Natomiast metody segmentacji w zastosowaniu do tych rozmytych obrazów o relatywnie jednorodnych obszarach z płynnymi przejściami oraz brakiem wyraźnych krawędzi pomiędzy nimi (a takimi właściwościami cechują się obrazy ECT i innych modalności procesowej tomografii elektrycznej) często korzystają np. z algorytmów progowania czy klasteryzacji. Jednakże, przy tak niewielkich zmianach odczytów pomiarowych oraz biorąc pod uwagę specyfikę badanego procesu podjęcie decyzji o parametrach progowania jest bardzo trudne i praktycznie uznaniowe. Dlatego opracowałem algorytm podziału na regiony zainteresowania dedykowany do analizy dynamicznych procesów monitorowanych przy użyciu ECT. W celu bardziej świadomego doboru kryteriów analizy i przetwarzania obrazów w [Zał.3.I.B.2.] dokonałem porównania informacji płynącej zarówno bezpośrednio z pomiarów oraz wycinków zrekonstruowanego obrazu. Natomiast na wybór konkretnych stref obszaru przekroju poprzecznego czujnika, w których należy dokonać porównania ma wpływ dodatkowa informacja kontekstowa, którą można wykorzystać. I tak dla analizy odczytów pomiarowych kluczowe będą odczyty dla sąsiednich elektrod, dla których czułość jest największa i gdzie spodziewane są najmniejsze (najbardziej dyskusyjne z metrologicznego punktu widzenia) zmiany. Dla analizy zrekonstruowanych obrazów będzie to zaś zmiana wartości koncentracji dla wybranego piksela w czasie; w tym przypadku w kontekście fizyki zjawisk, jakie występują w grawitacyjnym przepływie materiałów sypkich korzystna jest analiza strefy przyściennej (co odpowiada wspomnianym wcześniej regionom w obrębie sąsiadujących elektrod i co dodatkowo potwierdzone jest analizą map czułości poszczególnych par elektrod) oraz środkowej przekroju poprzecznego przestrzeni pomiarowej czujnika ECT. W ten sposób, dzięki kontekstowemu przetwarzaniu danych w wybranych obszarach możliwe było skoncentrowanie się wyłącznie na najistotniejszych, z punktu widzenia prac badawczych, strefach. Dzięki temu analiza jest najbardziej efektywna i znacząca 12
[41][43][54][55]. Wsparcie procesu decyzji o podziale na regiony zainteresowania powyższymi algorytmami kontekstowymi usprawnił sposób ich wyznaczenia, ale także w szczególności ułatwił rozstrzygnięcie ich liczby. To właśnie podjęcie decyzji, że w badanym przypadku podział na dwa ROI jest wystarczający znacznie uprościł dalszy proces analizy i interpretacji danych nie obniżając jednocześnie w żadnym stopniu jakości tego procesu. Opisana powyżej nowatorska metoda była następnie zastosowana przez badaczy z różnych wiodących ośrodków naukowych zajmujących się wykorzystaniem tomografii procesowej [16][52][56][58][59][Zał.3.II.E,L]. Jedną z jej interesujących implikacji były badania dotyczące możliwości zastosowania algorytmów przetwarzania danych pochodzących z tomografii ECT. W artykule [Zał.3.I.B.4] przedstawiłem badania dotyczące wykorzystania danych w postaci zrekonstruowanych obrazów ECT w algorytmach analizy pomiarów strefy ścinania w silosach. Wartym odnotowania, bo unikalnym na skalę światową, podejściem jakie zostało wykorzystanie w tych badaniach były eksperymenty z wykorzystaniem ścian silosów o różnej szorstkości w celu badania efektów dynamicznych zachodzących w objętości materiału sypkiego w trakcie przepływu. Dzięki połączeniu wiedzy zdobytej przy opracowaniu metod opisanych w [spr3], polegającej na odpowiednim mapowaniu wartości zmian koncentracji pochodzących z danych pomiarowych z ich odpowiednikami względnymi przedstawionymi w zrekonstruowanych obrazach możliwe było wyznaczanie charakterystycznych parametrów stref ścinania (tj. rozmiaru i koncentracji materiału) formujących się w trakcie dynamicznego przepływu. W tych badaniach zastosowany został tzw. algorytm równoległej normalizacji danych, który okazał się skuteczny w przypadku poszukiwania różnic w przestrzeni pomiarowej dotyczących koncentracji materiału w strefie ścinania i poza nią. Podejście polegające na wykorzystaniu kontekstowej informacji na temat specyfiki zjawisk oraz warunków eksperymentalnych pozwoliło mi na zastosowanie konkretnej metody regularyzacji do wyznaczenia granicy pomiędzy tymi dwoma obszarami. Opisany w tym artykule czynnik algorytmu klasyfikacji K uzależniony został od wyznaczonej empirycznie stałej m określającej podobieństwo stosunku koncentracji dwóch stref materiału o różnych gęstościach upakowania, której wyznaczenie było możliwe dla zrekonstruowanych obrazów dzięki założeniom ograniczającym znanym z wcześniejszego wykorzystania metodologii kontekstowego przetwarzania danych ECT dla procesów przepływu materiałów sypkich. Fakt ten miał istotne znaczenie przy sformułowaniu dwóch końcowych wniosków płynących z tej publikacji [Zał.3.I.B.4]. Mianowicie, zarówno konkluzja (3) dotycząca implikacji faktu wyznaczenia strefy ścinania na możliwość przyszłego wyznaczania wartości nacisku na ściany zbiorników, jak i (4) dotycząca wpływu możliwości bieżącego monitorowania strefy ścinania na opracowanie algorytmów dokładnego opisu propagacji zmian koncentracji już na początku przepływu, są bezpośrednim efektem, mającym istotne znaczenie praktyczne, zastosowania zaproponowanego przeze mnie kontekstowego przetwarzania danych pochodzących z elektrycznej tomografii procesowej. W badaniach nad algorytmami modelowania i monitorowania procesów przemysłowych często, poza warstwą przetwarzania danych, istotne jest także odpowiednie dobranie aparatury pomiarowej [12][27][42][51][58][59]. Dlatego też w ostatnich latach w ramach 13
projektów badawczych brałem udział w opracowaniu nowych konfiguracji łączenia odrębnych technik pomiarowych [20]. W tym zakresie przeprowadzone zostały przeze mnie i doktoranta, którego byłem promotorem pomocniczym prace związane z porównaniem ECT oraz czujnika siatkowego typu wire-mesh. W tym celu opracowałem szereg algorytmów fuzji danych pomiarowych pochodzących z tych dwóch urządzeń. Jeden z najważniejszych to algorytm ilościowego porównania danych pochodzących z jednoczesnego pomiaru za pomocą ECT oraz pojemnościowego czujnika wire-mesh. Algorytm ten jest dedykowany dla modelowania i monitorowania procesów wielofazowych, a jego eksperymentalnej weryfikację przeprowadziłem dla procesu wielofazowego w reaktorach trójfazowych typu tricle-bed. Istotnym elementem jednoczesnego pomiaru tymi dwoma technikami jest synchronizacja i związany z nią offset powodujący przesunięcie sygnałów pomiarowych utrudniający ilościowe zestawienie przetworzonych danych. Dlatego zdecydowałem się w tym przypadku na nowatorski sposób przetwarzania danych jako wektorów wartości zrekonstruowanych obrazów w poszczególnych pikselach i ich dalsze przetwarzanie w postaci średniej ważonej dla powierzchni obrazu. Istotną nowością tej metody jest fakt możliwości porównania wartości poszczególnych elementów obrazu o różnych kształtach. W tym przypadku obrazy zrekonstruowane ECT są obliczone dla siatki elementów trójkątnych, gdy piksele obrazu pochodzącego z czujnika siatkowego są kwadratami. Takie porównanie nie było stosowane i spotykane w klasycznej literaturze przedmiotu [12][38][42][53]. Kolejnym algorytmem jest kontekstowa fuzja danych ECT i czujnika wire-mesh wspomagająca zawężenie przedziału niepewności pomiarowej dla procesów wielofazowych monitorowanych przy wykorzystaniu ECT. Dzięki zaproponowanemu przeze mnie protokołowi pomiarowemu oraz procedurze eksperymentalnej (zastosowanie tzw. wstępnego zwilżania Leveca oraz kombinacji sekwencji zatrzymywanego przepływu dla warunków statycznych i dynamicznych) możliwa była redukcja błędu ECT do przedziału (2 3)%. Tak niskie odchyłki dla ECT w porównaniu z wysoce precyzyjnym systemem siatkowym, biorąc pod uwagę, że ECT powoduje uśrednienie osiowe odczytów pomiarowych (w tym przypadku na długości ok. 50mm) w porównaniu z wysoką rozdzielczością (rzędu 1.5mm) dla wire-mesh stanowią o istotnym novum zaproponowanej przeze mnie metody, nieznanym z wcześniejszej literatury przedmiotu [11]][21][53]. Innym efektem prac nad wielomodalnymi systemami pomiarowymi opartymi na tomografii procesowej jest patent europejski [Zał.3.II.C]. (J. Nowakowski et al. 2015), którego jestem współautorem. Patent ten został przyznany na urządzenie i metodę fuzji pomiarów pochodzących z dualnego tomografu ECT i wykorzystującego jako drugą modalność promieniowanie Gamma [17][52]. Kontynuacją badań dotyczących rozwoju algorytmów modelowania zjawisk zachodzących w trakcie przepływu materiałów sypkich było opracowanie w zespole TomoKIS i zaproponowanie przez dr Grudnia metody wykorzystania cząstek znacznikowych do śledzenia zmian zachodzących wewnątrz przepływu przy użyciu tomografii opartej na promieniowaniu rentgenowskim (z ang. X-ray tomography). O ile sama metoda dała 14
interesujące wyniki, o tyle przetwarzanie informacji wizyjnej zebranej w postaci danych radiograficznych okazało się niemożliwe do pełnego zautomatyzowania [14]. Pomimo prób wykorzystania zarówno standardowych metod przetwarzania obrazu jak i metod sztucznej inteligencji nie udało się opracować w pełni automatycznych metod wyznaczania trajektorii poruszania się cząstek znacznikowych na sekwencjach obrazów uchwyconych w trakcie kontrolowanego przepływu zarejestrowanych przez tomograf rentgenowski. Trudności w wykryciu cząstek znacznikowych w kolejnych obrazach związane były z naturą techniki pomiarowej oraz pochłaniania części lub całości powierzchni cząstek przez sąsiadujący materiał znajdujący się na drodze promieni X, przez co niezbędne okazało się analizowanie kolejnych obrazów przez eksperta [4][14]. Nawet po opracowaniu dedykowanego komputerowego systemu do obróbki kolejnych obrazów przez eksperta, duża ich liczba w sekwencji pojedynczego eksperymentu powodowała trudności z ich przetworzeniem. Pojedyncze zadanie było trudne do zrealizowania (żmudne i długotrwałe) - szacowane nawet na kilka dni pracy eksperta dla pojedynczego eksperymentu, na który składa się kilkaset obrazów [19]. Dlatego też postanowiłem przenieść na grunt badawczy paradygmaty interakcji zaczerpnięte z literatury dziedziny HCI (z ang. human-computer interaction) [39]. W tym celu zorganizowałem międzynarodowy zespół badawczy o komplementarnych kompetencjach. W jego skład weszli badacze z uniwersytetów NUS w Singapurze oraz Chalmers w Szwecji i przy ich pomocy zaprojektowałem system przetwarzania danych tomograficznych w trybie pracy zbiorowej tzw. crowdsourcingu [Zał.3.I.B.5]. Dzięki opracowanemu dedykowanemu interfejsowi, w którego projektowaniu brałem udział, możliwe jest wstępne oznaczanie przez użytkownika pozycji poszczególnych cząstek na kolejnych obrazach radiograficznych w sekwencji [19][Zał.3.II.E.10]. Specyficzna funkcjonalność interfejsu została wypracowana w oparciu o szereg testów użytkownika, w `których przygotowaniu, prowadzeniu oraz analizie i interpretacji wyników brałem, wraz z międzynarodowym zespołem, czynny udział. W tym projekcie byłem odpowiedzialny za połączenie na styku modelowania procesów przemysłowych, algorytmów przetwarzania danych i projektowania zorientowanego na użytkowników zarówno ekspertów jak i agentów, czyli użytkowników pracujących w trybie crowdsourcingowym. W wyniku tego projektu powstał system umożliwiający automatyczny i półautomatyczny podział zadań oraz udostępnienie poszczególnym agentom interfejsu webowego wraz z zestawem obrazów do przetworzenia [Zał.3.I.B.5][Zał.3.II.E.10]. Dzięki takiemu nowatorskiemu podejściu możliwe jest podzielenie pełnych sekwencji na fragmenty i podział pracy na wielu agentów (użytkowników) z uwzględnieniem redundancji. System ten po przetworzeniu poszczególnych fragmentów przez wielu użytkowników na wyjściu zwraca uśrednione wyniki wyznaczania pozycji cząstek znacznikowych w poszczególnych obrazach przetworzonych przez dowolną liczbę agentów. Informacja ta jest prezentowana zarówno w postaci graficznej (wizualizacja ruchu poszczególnych cząstek w trakcie procesu) jak i numerycznej (dane dotyczące położenia cząstek znacznikowych na kolejnych obrazach). W związku z tym dane zwracane przez opracowany przeze mnie algorytm agregacji w systemie crowdsourcingu mogą stanowić później źródło danych wejściowych do kolejnego etapu; np. algorytmu obliczania trajektorii cząstek lub wykrywania anomalii w procesie przepływu tym razem możliwe jest już jednak zautomatyzowanie dalszego przetwarzania. Jest to pierwszy opisany w znanej mi literaturze przypadek skutecznego 15
połączenia metod analizy obrazów i algorytmów crowdsourcingu dla celów przetwarzania obrazów procesowej tomografii przemysłowej, a wyniki te zostały opublikowane w [Zał.3.I.B.5]. Rezultaty eksperymentów pokazały, że zaprojektowany przeze mnie system oznaczania i agregowania obrazów przetworzonych przez zwykłych użytkowników (poddanych odpowiedniemu szkoleniu wstępnemu) daje po uśrednieniu wyniki, które nie odbiegają od jakości pracy ekspertów. Z jednej strony potwierdza to paradygmat crowdsourcingu znany z badań prowadzonych w HCI, czym zbliża zastosowania tej i w przyszłości także innych metod HCI w informatyce przemysłowej. Z drugiej zaś strony, z uwagi na skuteczność tego rozwiązania, wskazuje na ogromny potencjał dalszych prac nad hybrydowymi systemami przetwarzania danych pomiarowych, nie tylko dla celów badawczych. Natomiast z punktu widzenia niniejszego wniosku habilitacyjnego przykład ten pokazuje, że znajomość kontekstu informacji pochodzącej z systemu pomiarowego jest kluczem do skutecznego projektowania algorytmów przetwarzania danych w systemach przemysłowych i, ujmując rzecz bardziej ogólnie, w różnych zastosowaniach interdyscyplinarnych. Dzięki wykorzystaniu tak opracowanego i zaimplementowanego systemu możliwe jest: Skrócenie czasu analizy pojedynczego eksperymentu z kilku dni do kilku godzin. Przetworzenie danych do postaci umożliwiającej dalsze, automatyczne przetwarzanie. Uwolnienie eksperta od żmudnego procesu oznaczania obrazów, co powoduje redukcję obciążenia kognitywnego, a co za tym idzie zachowanie w pełni efektywnego (także pod względem kognitywnym) czasu pracy na etap interpretacji wyników. Znaczne zredukowanie obciążenia kognitywnego (związane bezpośrednio także z pkt. 3 powyżej), co przekłada się bezpośrednio na zwiększoną ilość materiału badawczego możliwego do przeanalizowania i zinterpretowania w tej samej jednostce czasu (a przede wszystkim przez indywidualnego eksperta) przy zachowaniu tej samej, wysokiej jakości efektów pracy ekspertów. Wreszcie, opisany w [Zał.3.I.B.5] system, którego jestem jednym z głównych autorów to jeden z nielicznych przykładów badawczego wykorzystania algorytmów crowdsourcingu w naukach technicznych poza eksperymentami tzw. dużej skali czy też popularnym webowym przetwarzaniu obrazów w projektach nauk przyrodniczych. Biorąc pod uwagę trudności z interpretacją wyników tomograficznych związane ze specyfiką pomiaru pojemnościowego zacząłem się interesować także innymi metodami mogącymi potencjalnie zwiększyć dokładność tej interpretacji pod kątem monitorowania i diagnostyki procesów przemysłowych. W związku z tym zainicjowałem prace nad wykorzystaniem metod stosowanych do przetwarzania dużych danych tzw. Big Data do przetwarzania i analizy także tomograficznych danych pomiarowych pochodzących z różnych źródeł w celu ich łączenia i wspólnego przetwarzania [2][7][8]. Zdobyte doświadczenia zaowocowały dalszymi pracami w dziedzinie wykorzystania metod przetwarzania dużych danych pomiarowych [3]. Należy w tym miejscu zaznaczyć, że przykładowy zbiór danych pochodzących z pojedynczego eksperymentu dynamicznego może mieć rozmiar 4GB w najprostszym przypadku (długość pomiaru 300 s. przy 200 ramkach na sekundę dla dwupłaszczyznowego czujnika 16-elektrodowego), ponad 1TB (dla obrazów 2D), aż do ponad 100TB (dla 3D) [1][49]. Tak duże rozmiary zestawów danych wymuszają 16
opracowanie zupełnie nowych algorytmów [57]. Jednym z najnowszych efektów tych prac jest artykuł opublikowany w IEEE Transactions on Industrial Informatics [Zał.3.I.B.6], który przedstawia wyniki weryfikacji modelu kontekstowego przetwarzania danych pochodzących z pojemnościowej tomografii procesowej dla przepływu pneumatycznego materiałów sypkich Rys. 2. W lewej dolnej części Rys. 3 widzimy silnik CDPM wnioskujący na podstawie wsadu pochodzącego z wiedzy ogólnej EK (z ang. expert knowledge) oraz informacji kontekstowej płynącej z dodatkowych czujników PS (z ang. peripheral sensors). Dwoma najważniejszymi elementami tej autorskiej koncepcji są elementy BD (z ang. big data-driven) oraz AGI (z ang. artificially generated input), które wzbogacają tę wiedzę ogólną. Wyniki prac badawczych opisane w [Zał.3.I.B.6] przedstawiają właśnie algorytmy przetwarzania danych i weryfikację tych elementów modelu. Rysunek 3. Schemat modelu kontekstowego przetwarzania danych CDPM weryfikowany w części BD oraz AGI w ramach artykułu [nr6]. Rozwinięcia skrótów: PS peripheral sensors (czujniki dodatkowe), BD metody zaczerpnięte z Big Data, EK baza wiedzy a priori, AGI sztucznie generowane dane wejściowe w celu empirycznego badania odpowiedzi systemu. [Fragment rysunku Fig. 2 z artykułu nr 6; Romanowski, 2018]. W tych pracach badawczych wykorzystałem najnowsze trendy przetwarzania dużych, nieustrukturyzowanych danych z wykorzystaniem technologii Apache Hadoop oraz algorytmów uczenia maszynowego [9][23][24]. W tym celu zaprojektowałem dedykowany dla danych tomograficznych system agregacji i analizy danych pn. Experimental Big Data Distributed File System (EBDDFS). System EBDDFS dedykowany do danych pochodzących z elektrycznej tomografii procesowej przedstawiony został schematycznie na Rys. 4. 17
Rysunek 4. Ilustracja systemu agregacji dużych danych eksperymentalnych Big Data (EBDDFS). Uproszczony przepływ danych przedstawia po lewej stronie zbiory danych mogące się składać z rozmaitych formatów agregowanych do rozproszonego systemu przetwarzania danych po prawej (opis anglojęzyczny jak w oryginale). Działanie systemu EBDDFS zostało oparte na paradygmacie map-reduce, który pierwotnie został wykorzystany w rozproszonym systemie wyszukiwarki Google a [20]. Autorski algorytm, wykorzystujący podobny paradygmat, który został zaprojektowany dla celów przetwarzania kontekstowego danych ECT jest przedstawiony na Rys. 4. Na tym rysunku od lewej strony widzimy proces zbierania eksperymentalnych zbiorów danych tomograficznych, które przechodząc przez proces etykietowania, podziału, sortowania, kopiowania, łączenia, redukcji i replikacji zostają w umieszczone w systemie EBDDFS zaprezentowanym schematycznie po prawej stronie Rys. 5. Rysunek 5. Ilustracja algorytmu agregacji i przetwarzania danych dla system EBDDFS. (opis anglojęzyczny jak w oryginale) 18
Wyniki weryfikacji działania tego systemu wraz z ewaluacją nowatorskich w skali światowej algorytmów kontekstowego przetwarzania danych dedykowanych dla danych pochodzących z przemysłowych systemów tomografii procesowej zostały przedstawione w [Zał.3.B.I.6]. Istotną nowością w skali światowej w ramach tych prac badawczych było zaproponowanie i zweryfikowanie modelu kontekstowego przetwarzania danych tomograficznych CDPM (z ang. Contextual Data Processing Model). Model ten w istotny sposób zwiększa możliwości wnioskowania na podstawie danych płynących z tomograficznych systemów pomiarowych stosowanych do monitorowania procesów przemysłowych. W [Zał.3.I.B.6] opisano procedurę badawczą, w której dzięki wykorzystaniu systemu EBDDFS oraz algorytmu klasyfikacji możliwa była weryfikacja modelu CDPM w oparciu o przetwarzanie prawdziwych danych eksperymentalnych. Wartym uwagi osiągnięciem jest nowatorska funkcja zaproponowanego systemu pozwalająca na łączne przetwarzanie danych pochodzących z odrębnych eksperymentów oraz innych instalacji badawczo-przemysłowych, w tym rozproszonych geograficznie. Algorytmy łącznego przetwarzania danych zostały zweryfikowane na dużych zbiorach danych pochodzących z dwóch półprzemysłowych, badawczych instalacji znajdujących się University of Manchester oraz Politechnice Łódzkiej. Drugim istotnym elementem zweryfikowanych w ramach tych prac oraz opublikowanym w tym samym artykule [ref6] jest koncepcja uzupełniania specyficznych rodzajów danych, które zawierają pomiary incydentalnie występujących zjawisk w celu poszerzenia bazy wiedzy i w efekcie rozszerzenia możliwości eksploracji danych. Możliwość zastosowania takiego trybu przetwarzania danych znacząco zwiększa możliwości wykorzystania algorytmów uczenia maszynowego. Weryfikację tej koncepcji przeprowadziłem w oparciu o element AGI (artificially generated input) zawierający dane pomiarowe dla specyficznie zmodyfikowanych parametrów instalacji symulującej sporadycznie występujące niebezpieczne efekty blokowania przepływu pneumatycznego materiałów sypkich. Uzyskane w ten sposób dane zostały porównane z prawdziwymi danymi pomiarowymi dla stanów awaryjnych rurociągów przepływowych pochodzącymi z eksperymentów w laboratoriach University of Manchester oraz Politechniki Łódzkiej. Zweryfikowany pozytywnie element AGI włączony wraz z elementem BD do proponowanego modelu CDPM jest całkowitą nowością na poziomie światowym w podejściu do przetwarzania tomograficznych danych eksperymentalnych. Uzupełnieniem pozytywnej weryfikacji modelu CDPM są wyniki opublikowane w artykule [Zał.3.I.B.7], gdzie zastosowałem tę koncepcję dla modelowania temporalnego danych tomograficznych. W tej publikacji przedstawione są wyniki automatycznego rozpoznawania wzorców przepływu dla procesu transportu pneumatycznego materiałów sypkich monitorowanego z wykorzystaniem tomografii ECT [15][31]. Istotną nowością tych prac jest wykorzystanie koncepcji CDPM do modelowania dodatkowej wiedzy jako wkładu a priori do ramy wnioskowania Bayesa w parametrycznej regularyzacji rozwiązania problemu odwrotnego ECT. W tym przypadku parametryzacja dotyczy modelowania czasowego, tj. powiązania czasowego kolejnych ramek pomiarowych w stosunku do siebie, co jest szczególnie ważne w przypadku dynamicznych procesów przemysłowych, jak to ma miejsce dla przepływów materiałów sypkich pod ciśnieniem. 19
III. Podsumowanie Wieloletnie badania naukowe w dziedzinie tomografii procesowej trwające nieprzerwanie od 2003 r. zwieńczone zostały: 1) Rozprawą doktorską (obronioną z wyróżnieniem w 2008 r.), w której głównymi wynikami były algorytmy stochastycznego modelowania czasowo-przestrzennego dla celów rozwiązania problemu odwrotnego w tomografii pojemnościowej z pominięciem etapu rekonstrukcji obrazu tomograficznego. 2) Dalszymi badaniami po doktoracie w zakresie rozwoju kontekstowych metod przetwarzania danych pomiarowych znacząco podnoszących efektywność analizy i dokładność interpretacji w porównaniu do metod zaprezentowanych w rozprawie doktorskiej. Najbardziej znaczące osiągnięcia badawcze po doktoracie ujęte w sposób syntetyczny: A. Metody badania i interpretacji dynamiki przepływu grawitacyjnego materiałów sypkich w silosach w oparciu o przetwarzanie danych tomograficznych. B. Metody wykorzystania crowdsourcingu dla celów analizy jakościowej i ilościowej zrekonstruowanych danych tomograficznych. C. Model kontekstowego przetwarzania danych tomograficznych CDPM. D. Algorytmy kontekstowego przetwarzania dużych zbiorów tomograficznych danych eksperymentalnych oparte na metodach big data. Podsumowując poszukiwania, prace naukowo-badawcze [Zał.3.I.B.1,2,5] i rozwój koncepcji modelowania kontekstowego przetwarzania danych tomograficznych [Zał.3.I.B.3,4] można stwierdzić, że najnowsze dwie publikacje [Zał.3.I.B.6] [zał.3.i.b.7] stanowią ukoronowanie tych badań. Przedstawiony w tych publikacjach model teoretyczny, unikalne algorytmy i ich weryfikacja tworzą jednolitą całość pozwalającą z jednej strony skutecznie wspierać przetwarzanie danych pomiarowych na skalę, jaka nie była wcześniej dostępna. Natomiast z drugiej strony publikacje przedstawione do oceny w ramach dorobku habilitacyjnego jednocześnie stanowią solidne podstawy i otwierają drzwi do dalszych badań nad rozwojem tego kierunku badań łączącego najnowsze trendy big data i uczenia maszynowego. Dodatkowo, biorąc pod uwagę wnioski płynące z publikacji [Zał.3.I.B.5], spodziewam się w przyszłości szeregu nowych wyzwań naukowych wynikających z połączenia metod sztucznej inteligencji oraz interakcji człowieka z. komputerem, co będzie szczególnie interesujące w środowiskach przemysłowych. Literatura [1] Banasiak R., R. Wajman, T. Jaworski, P. Fiderek, P. Kapusta, D. Sankowski, Two-Phase Flow Regime Three-Dimensonal Visualization Using Electrical Capacitance Tomography Algorithms And Software, IAPGOS 2017; 7 (1): 11-16, 2017 20
[2] Basanta-Val P.; N. C. Audsley; A. J. Wellings; I. Gray; N. Fernández-García, Architecting Time-Critical Big-Data Systems, IEEE Transactions on Big Data, 2016, Vol. 2, (4), pp. 310 324 [3] Basanta-Val P., An Efficient Industrial Big-Data Engine, IEEE Transactions on Industrial Informatics, Vol. 14, (4), 2018, pp. 1361-1369 [4] Barthel, F., Bieberle, M., Hoppe, D., Banowski, M., Hampel, U., 2015. Velocity measurement for two-phase flows based on ultrafast X-ray tomography. Flow Meas. Instrum. 46, 196 203. https://doi.org/https://doi.org/10.1016/j.flowmeasinst.2015.06.006 [5] Bettini C., O. Brdiczka, K. Henricksen, J. Indulska, D. Nicklas, A. Ranganathan, D. Riboni. A survey of context modelling and reasoning techniques. Pervasive Mob. Comput. 6, 2 (2010), 161-180. [6] Bolchini C., C. A. Curino, E. Quintarelli, F. A. Schreiber, L. Tanca, A data-oriented survey of context models, ACM SIGMOD Record, vol. 36, no. 4, pp. 19 26, 2007. [7] Chang V., Wills G., 2016, A model to compare cloud and non-cloud storage of Big Data, Future Generation Comput. Syst Vol 57, pp. 56-76 [8] Chang V., Towards a Big Data system disaster recovery in a Private Cloud, Ad Hoc Networks 35, 2015, 65 82 [9] Cortes, C., Vapnik, V., 1995. Support-Vector Networks Mach. Learn., vol. 20. Kluwer Academic Publishers, pp. 273 297. [10] Dean J. and Ghemawat S., 2008 MapReduce: simplified data processing on large clusters. Communications of the ACM, Vol. 51/1 pp. 107-113 [11] Dyakowski, T., Jaworski, A.J., 2003. Non Invasive Process Imaging Principles and Applications of Industrial Process Tomography. Chem. Eng. Technol. 26, 697 706. https://doi.org/10.1002/ceat.200390107 [12] Dyakowski, T., Jeanmeure, L.F.C., Jaworski, A.J., 2000. Applications of electrical tomography for gas solids and liquid solids flows a review. Powder Technol. 112, 174 192. https://doi.org/https://doi.org/10.1016/s0032-5910(00)00292-8 [13] Fiderek, P., Kucharski, J., 2011. A Computer Vision System for On-Line Two-Phase Gas-Liquid Flows Recognition Using Fuzzy Methods. Automatyka 15, 505 519. [14] Grudzień, K., Torre Hernandez, G.M., 2013. Detection of tracer particles in tomography images for analysis of gravitational flow in silo. Image Process. Commun. https://doi.org/10.2478/v10248-012-0075-2 [15] Franke B., Plante, J. -F., Roscher, R., Lee, E.-A., Smyth, C., Hatefi, A., Chen, F., Gil, E., Schwing, A., Selvitella, A., Hoffman, M. M., Grosse, R., Hendricks, D., and Reid, N. (2016) Statistical Inference, Learning and Models in Big Data, International Statistical Review, 84: 371 389 [16] Grudzień K, Z Chaniecki, L Babout, Study of granular flow in silo based on electrical capacitance tomography and optical imaging, Flow Measurement and Instrumentation, 2017 [17] Hampel, U., Bieberle, A., Hoppe, D., Kronenberg, J., Schleicher, E., Suhnel, T., Zimmermann, F., Zippe, C., 2007. High resolution gamma ray tomography scanner for flow measurement and non-destructive testing applications. Rev. Sci. Instrum. 78, 21