Interdyscyplinarność badań naukowych Praca zbiorowa pod redakcją Jarosława Szreka

Wielkość: px
Rozpocząć pokaz od strony:

Download "Interdyscyplinarność badań naukowych Praca zbiorowa pod redakcją Jarosława Szreka"

Transkrypt

1

2 Interdyscyplinarność badań naukowych 2011 Praca zbiorowa pod redakcją Jarosława Szreka Oficyna Wydawnicza Politechniki Wrocławskiej Wrocław 2011

3 Redakcja: Jarosław Szrek Współpraca: Ida Chojnacka, Paweł Maślak, Damian Pietrusiak, Przemysław Sperzyoski, Sławomir Wudarczyk Politechnika Wrocławska, Grupa Ko-oper, ul. Łukasiewicza 7/9, Wrocław Rada Doktorantów Politechniki Wrocławskiej, Recenzenci: Krzysztof Arent, Tomasz Będza, Dariusz Bieoko, Marek Cegielski, Piotr Cichosz, Jerzy Czmochowski, Maria Dąbrowska-Szata, Janusz Dobesz, Roman Gancarz, Adam Grzech, Andrzej Hachoł, Janusz Jakubiak, Janusz Jeżowiecki, Jan Kapała, Andrzej Kasprzak, Małgorzata Komorowska, Henryk Kudela, Marek Langner, Andrzej Miniewicz, Eugeniusz Rosołowski, Eugeniusz Rusioski, Tadeusz Smolnicki, Janusz Staszewski, Elżbieta Trzop, Zbigniew Wróblewski, Karina Weron, Sławomir Wudarczyk Patronat: Prorektor ds. Nauczania, prof. dr hab. inż. Andrzej Kasprzak Dyrektor Instytutu Konstrukcji i Eksploatacji Maszyn, prof. dr hab. inż. Tomasz Nowakowski Projekt okładki i nadruku na płytę: Karolina Wójtowicz Wydano na podstawie dostarczonych materiałów. Wszelkie prawa zastrzeżone - żadna częśd niniejszej książki zarówno w całości, jak i we fragmentach, nie może byd reprodukowana w sposób elektroniczny, fotograficzny i inny bez zgody wydawcy i właścicieli praw autorskich. Copyright by Grupa Ko-oper, Politechnika Wrocławska, Wrocław 2011 OFICYNA WYDAWNICZA POLITECHNIKI WROCŁAWSKIEJ Wyb. Stanisława Wyspiaoskiego 27, Wrocław oficwyd@pwr.wroc.pl ISBN

4 Spis treści Spis treści 3 I Architektura 8 Megastruktura przystanku. Integracja architektury z infrastrukturą - Elżbieta Komarzyńska-Świeściak Kształtowanie współczesnych idei architektonicznych. Analiza na przykładzie wybranych prac Witolda Cęckiewicza - Karolina Kosno-Basińska Projektowanie miasta. Badania naukowe w urbanistyce - Agnieszka Rutecka Porównanie kierunków rozwoju sieci rowerowych w miastach zachodniej Europy z rozwojem infrastruktury rowerowej we Wrocławiu - Aleksandra Zielińska II Nauki chemiczne 29 Izolacja i oczyszczanie bakteriofaga I11m oraz struktur zewnętrznych jego gospodarza - Justyna Bazan, Andrzej Gamian Zastosowanie i optymalizacja procesu wytwarzania inhibitorów korozji dla przemysłu motoryzacyjnego - Ewa Chmielewska, Krzysztof Przygodzki Związek między przewodnictwem elektrycznym fazy stałej, ciepłem molowym i strukturą krystaliczną związków M 3 LnX 6 - Ida Chojnacka, Leszek Rycerz Zastosowanie modelowych glicylowanych i fosforylowanych struktur węglowodanowych w badaniach biologicznych dotyczących poszukiwania wspólnych epitopów występujących w lipopolisacharydach bakterii Gram-ujemnych - Katarzyna Dzierzba, Jadwiga Pietkiewicz, Gabriela Pastuch-Gawołek, Andrzej Gamian

5 Klonowanie, ekspresja w układzie heterologicznym oraz oczyszczanie białek Chd64 i FKBP39 z Drosophila melanogaster - Małgorzata Kozłowska Nakładanie się rejonów destylacyjnych w trójskładnikowych mieszaninach heteroazeotropowych z granicami destylacyjnymi - Andrzej Ryszard Królikowski Glikozydy polialkoholi o właściwościach kompleksowania do jonów wapnia - krótka charakterystyka - Karolina Kubas Wychwytywanie CO 2 w procesie absorpcji membranowej - Szymon Modelski, Anna Witek-Krowiak, Anna Dawiec Sfery cyklodekstranowe jako sorbenty typu MIP - Eliza Nazar, Marek Bryjak Analiza bioinformatyczna i otrzymanie konstruktu umożliwiającego ekspresję w systemie bakteryjnym cytoplazmatycznej domeny białka neureguliny 3 - Mirosława Różycka Inteligentne układy separacyjne - Katarzyna Smolińska, Marek Bryjak Nanokompozyty LDPE/OMMT otrzymane na drodze wytłaczania - Konrad Szustakiewicz, Małgorzata Żabska, Jacek Pigłowski Otrzymywanie produktów glikacji będących odpowiednikami związków powstających podczas przetwarzania żywności - A. Bronowicka-Szydełko, J. Pietkiewicz, A. Palko-Łabuz, A. Gamian Właściwości grzybobójcze syntetycznych analogów allicyny - Katarzyna Szymborska-Małek, Anna Czarny, Urszula Nawrot, Ewa Zaczyńska, Elena Karpenko, Vira Lubenets Czy promieniowanie NIR destabilizuje strukturę DNA - działanie soli - Katarzyna Szymborska-Małek, Małgorzata Komorowska Badania węgli aktywnych z MCMB jako materiału elektrody kondensatora w układzie trójelektrodowym - Kamila Torchała, Jacek Machnikowski Nanokompozyty na bazie żywic poliestrowo-epoksydowych modyfikowane organifilizowanymi glinokrzemianami - Małgorzata Żabska, Konrad Szustakiewicz, Jacek Pigłowski

6 III Nauki techniczne 118 Miniaturowy ceramiczny reaktor biochemiczny - Paweł Bembnowicz Czujniki impedancyjne na mikrobelkach - Konrad Chabowski Stabilizacja chaosu z wykorzystaniem metod ewolucyjnych - Andrzej Cichoń Poszukiwania czynników chłodniczych z grupy substancji palnych i wybuchowych dla obiegów strumienicowych - Bartosz Gil Podwyższanie niezawodnosci sieci komputerowych z zastosowaniem przepływów anycast - Jakub Gładysz Porównanie jednofazowego silnika synchronicznego z magnesami trwałymi i jednofazowego silnika indukcyjnego - badania symulacyjne - Maciej Gwoździewicz Wpływ sztywności kontaktowej kół jezdnych na kształt wymuszenia kinematycznego - Marcin Jasiński Możliwości oceny jakości obrazu siatkówkowego w oku ze wszczepioną soczewką wewnątrzgałkową w sztucznym modelu oka - Agnieszka Jóźwik, Damian Siedlecki, Marek Zajac Modelowanie połączeń klinczowych użytych do łączenia elementów cienkościennych obciążonych udarowo - Paweł Kaczyński Wykorzystanie algorytmów obniżających entropię w celu zmniejszenia efektywności metod wykrywających zaszyfrowane dane - Michał Kędziora Równoległe rozwiązywanie równania Poissona metodą wielosiatkową na karcie graficznej - Andrzej Kosior, Henryk Kudela Zasada TPA w elektroenergetyce - Joanna Kott Krajowe regulacje wpływające na rozwój energetyki odnawialnej w Polsce - Joanna Kott Metodyka optymalizacji produkcji z zastosowaniem triz oraz dfss - Sebastian Koziołek, Mariusz Ptak

7 Zastosowanie metody dyfuzyjnej w oparciu o metodę różnic skończonych w modelowaniu pola akustycznego - modyfikacje warunków brzegowych - Jarosław Kraszewski Metoda TPM i jej wdrożenie w przemyśle - Joanna Krawczyk Konstrukcja dennicy wysokociśnieniowego zbiornika kompozytowego na ciecze i gazy - Piotr Krysiak Czynniki wpływające na niedokładność pomiaru aberracji - Malwina Lewandowska-Soboń, Marek Zajac Eksperymentalne badanie statystycznej zgodności selektora cech opartego o LARS/LASSO - Urszula Libal Układy jazdy maszyn podstawowych górnictwa odkrywkowego - Paweł Maślak Natura w technice - Emilia Mazgajczyk Energochłonność obrabiarki skrawającej na przykładzie tokarki - Janusz Maczka, Andrzej Roszkowski, Paweł Preś Technologie i systemy konwersji promieniowania słonecznego na energię elektryczną - Magdalena Nemś Eksperymentalne wyważanie zwałowarki taśmowej w kopalni węgla brunatnego - Jakub Nowak Badania nad biodegradacja zwiazków heterocyklicznych - Grzegorz Pasternak Pupilometria oczami lekarza - Martyna Pieniażek Eksperymentalna identyfikacja modeli modalnych ustrojów nośnych maszyn podstawowych górnictwa odkrywkowego - Damian Pietrusiak Wpływ zmiany temperatury na własności warstwy wierzchniej wybranych materiałów polimerowych - Anita Ptak Bezpieczeństwo pieszego: normy a rzeczywistość - Mariusz Ptak, Sebastian Koziołek Planowanie badań doświadczalnych konstrukcji zespolonych z ciągłymi łącznikami otwartymi - Sławomir Rowiński, Maciej Kożuch

8 Techniki CAx jako wsparcie zastosowania technologii wytwarzania przyrostowego w kryminalistyce - Małgorzata Rusińska, Edward Chlebus, Katarzyna Gonera, Jarosław Kurzac, Krzysztof Woźniak Projektowanie kompensacji luzu osiowego w pompach zębatych o zazębieniu wewnętrznym ewolwentowym - Damian Słodczyk Metody badania właściwości wytrzymałościowych gruntu mające zastosowanie w terramechanice - Damian Stefanow Badanie charakterystyk dynamicznych czujników ultradźwiękowych - Marek Stembalski, Wacław Skoczyński, Andrzej Roszkowski, Bartosz Marek Pomiar i numeryczna analiza kinetyki topografii rogówki - Marta A. Szmigiel, Malwina Lewandowska-Soboń, Henryk Kasprzak Struktura kinematyczna mechanizmu roboczego silnika zewnętrznego spalania - analiza wstępna - Jarosław Szrek Badania wpływu składowej magnetycznej 50 Hz na organizm człowieka - Dariusz Sztafrowski Charakterystyka stałych paliw wtórnych oraz ich walory energetyczne - Arkadiusz Szydełko, Wiesław Rybak Wydajne osadzanie cienkich warstw związków metodą rozpylania magnetronowego - Katarzyna Tadaszak Zastosowanie technologii zol-żel w niskotemperaturowych współwypalanych układach ceramicznych LTCC - Rafał Tadaszak Wytwarzanie kompozytów bioresorbowalnych z wykorzystaniem technologii laserowego selektywnego topienia proszków - Anna Woźna, Jacek Reiner, Tomasz Kurzynowski, Edward Chlebus Analiza stateczności ładowarko zwałowarki na podwoziu szynowym, na składowisku węgla brunatnego - Władysław Kluczkiewicz

9 Część I Architektura 8

10 Megastruktura przystanku. Integracja architektury z infrastrukturą. Elżbieta Komarzyńska-Świeściak 1 Streszczenie: W dobie zjawisk eksurbanizacji i urban growth terytorium architektury rozszerza się na węzły komunikacyjne, poprzemysłowe tereny, otoczenia autostrad, parkingi i przejścia podziemne, mosty i wiadukty, torowiska kolejowe, etc. W artykule przedstawiono badania autorki nad potencjałem integrowania architektury z infrastrukturą drogową na podstawie współczesnych realizacji i koncepcji architektonicznych. Słowa kluczowe: eksurbanizacja, infrabody, architektura, infrastruktura, most mieszkalny 1. Coraz mniej bieli Proporcja czarnych (przestrzenie prywatne) do białych pól (przestrzenie publiczne) schwarzplanu współczesnego Rzymu przedstawiałaby się z goła inaczej niż na mapie sporządzonej przez Giambattistę Nolliego w 1748 roku. Pomijając zmiany, jakie zaszły w warstwie funkcjonalnej budynków, istotnym czynnikiem różnicującym byłoby przede wszystkim to, że ulice oraz część placów nie należą już do sfery publicznej. Na historycznych rycinach Paryża, Rzymu czy Gdańska ulice i place właściwie nie mają wyznaczonych pasów jezdni i chodników. Ludzie spacerowali nimi swobodnie, toczyło się na nich życie. Dziś odnajdujemy ślady tego stanu rzeczy jedynie na starym mieście. Poza jego obrębem biegną drogi o dużym natężeniu ruchu- nierzadko tranzytowe. Coraz intensywniejszy- tylko dla naszej wygody- ruch kołowy przejmuje miasto i rozdziera je na kawałki. Komponujemy sobie własny obraz miasta z indywidualnych trajektorii wyznaczanych trasami samochodowymi. W konsekwencji publiczna przestrzeń staje się zlepkiem luźno powiązanych fragmentów- nieciągłych funkcji pozostających bez związku z miastem. Z jednej strony chcielibyśmy chronić przestrzeń publiczną i dbać o jej rozwój, a z drugiej nadal prowadzić mobilny i szybki styl życia. W efekcie miasto jest niejako skazane na swój fragmentaryczny i efemeryczny charakter. Można jedynie zadbać o to, by poszczególne jego części spiąć atrakcyjnymi łącznikami i zapewnić każdej z nich niezbędny program funkcjonalny. A wymagania dotyczące obszaru przestrzeni publicznych będą tylko rosły - według badań Europejskiej Agencji Środowiska za kilkanaście lat 80% obywateli Unii Europejskiej (niemal każdy zapewne z własnym samochodem) będzie mieszkało w miastach. Jak zatem zagęścić miasto nie hamując rozwoju sieci infrastruktury? 1 Zakład Architektury Użyteczności Publicznej, Wydział Architektury Politechniki Wrocławskiej, ul. B. Prusa 53-55, Wrocław, elzbieta.komarzynska@pwr.wroc.pl 9

11 Rys. 1. Przedstawione obszary reprezentują proporcjonalnie liczbę ludności, która przeniesie się do miast między 2002 a 2015 rokiem w danym kraju- mapa City Growth (źródło: 2. Megastruktura przystanku Koncentracja i integracja funkcji w policentrycznej megastrukturze związanej bezpośrednio z infrastrukturą jest modelowym antidotum na zjawiska eksurbanizacji i tzw. urban growth. Stosując tę strategię duża część wydartej nam przestrzeni mogłaby na powrót stać się częścią sfery publicznej. Dlatego coraz bardziej popularne na całym świecie stają się idee wielofunkcyjnych obiektów zintegrowanych z infrastrukturą drogową. Terytorium architektury rozszerza się na węzły komunikacyjne, otoczenia autostrad, parkingi, mosty i wiadukty. Wszelkie elementy infrastruktury punktowej systemu transportowego (przystanki, dworce, lotniska, megaparkingi) to naturalnie najkorzystniejsze lokalizacje dla intensywnych programów funkcjonalnych. O sile przyciągania i komercyjności tych miejsc świadczy wiele sytuacji. Chociażby to jak uzależniona jest popularność lokalu usługowego od jego odległości od przystanku komunikacji miejskiej. Zdarza się, że władze dostrzegają ten potencjał i planują inwestycję - np. dworzec kolejowy Berlin Hauptbahnhof Lehrter Bahnhof. Dobowa przepustowość niemieckiej świątyni transportu ze szkła i stali wynosi około 35 tysięcy pasażerów będących jednocześnie potencjalnymi klientami sklepów i punktów usługowych rozmieszczonych na trzech poziomach budynku. Najczęściej jednak to zwykli mieszkańcy czerpią z potencjału węzłów komunikacyjnych i samowolnie intensyfikują tam usługi w postaci nielegalnych targowisk. Nierzadko też węzły te stają się popularnym miejscem spotkań. Rys. 2. Berlin Hauptbahnhof - Lehter Bahnhof proj. Garkan, Mark & Partners 10

12 Surowe, szorstkie i z pozoru niekomercyjne terytoria stanowią wyzwanie i determinują kreatywne strategie dla miast. Potencjał niezaprogramowanych przestrzeni jest potężny i może być realizowany zarówno w nowych inwestycjach jak i wtórnie uzupełniać istniejąca siec transportową; w projektach o rożnej skali: od sztucznych krajobrazów z małą architekturą do wielkich założeń urbanistycznych. 3. (Nie)przeoczone konteksty Sąsiedztwo już istniejącej ruchliwej ulicy umiejętnie potraktowane przez projektanta paradoksalnie może tworzyć przyjazne środowisko dla specyficznego typu rekreacji. Świadczą o tym dwie holenderskie realizacje o małej skali: skatepark Westblaak w Rotterdamie oraz A8ernA w Zaanstad autorstwa biura NL Architects. W pierwszym przypadku dzięki inicjatywie samych skejtów zagospodarowano martwe miejsce między dwoma jezdniami w samym centrum Rotterdamu. Szorstkie otoczenie stanowi idealne tło dla rozgrywających się tu wydarzeń. Odgłosy uderzeń kółek deskorolek o rampę i subkulturowa muzyka komponują się z odgłosami ulicy. Z kolei A8ernA to miejsce spajające na nowo dwie części miasteczka brutalne rozdzielone drogą szybkiego ruchu. Aktywizacja przestrzeni pod drogowym wiaduktem (zaprojektowanie boiska do piłki nożnej i koszykówki, supermarket, marina, plac, parking) i wykorzystanie jej katedralnego charakteru przestrzeni przyczyniło się do ponownego połączenia obu fragmentów miasteczka. Planowanie naturalnego krajobrazu w obrębie dużych miast nie musi kłócić się z występowaniem stref infrastruktury transportowej. Co więcej, takie zderzenie ze sobą łagodnej natury i dynamicznej arterii może dać bardzo interesujący efekt. Poprzez zamianę nieczynnego wiaduktu kolejowego na park miejski Paryż (Promenade Plantée) i Nowy Jork (The High Line) zyskały nowe przestrzenie. Oba przykłady są adaptacją, jednak pomysł takiego lewitującego parku został również wykorzystany w nowej realizacji. Architekci z pracowni Weiss/Manfredi zaproponowali dla Olimpic Sculpture Park w Seattle sztuczną topografię zielonych połamanych płaszczyzn maskujących sieć drogową i kolejową położoną poniżej. Seattle otrzymało ikoniczny budynek-park łączący architekturę, inżynierię i krajobraz, odzyskując tym samym utracone wcześniej wybrzeże. Rys. 3. Olympic Sculpture Park w Seattle proj. Weiss/Manfredi Architects Co ciekawe i w Polsce pojawiają się projekty i realizacje noszące znamiona architektonicznej maski kryjącej ruchliwe arterie Centrum Nauki Kopernik zbudowane zostało 11

13 nad Wisłostradą, natomiast Muzeum Historii Polski w Warszawie ma powstać na kładce przerzuconej nad zbudowaną w PRL-u Trasą Łazienkowską, spajając w ten sposób na nowo XVIIIwieczny park Łazienek Królewskich. Rys. 4. Muzeum Historii Polski w Warszawie nad Trasą Łazienkowską proj. Paczowski et Fritsch Architectes 4. Węzły sieci Jeszcze bardziej zaawansowaną integrację architektury z infrastrukturą odnajdujemy w koncepcjach mających swój początek w wizji linearnego miasta Madryt urbanisty Arturo Soria y Mata oraz utopijnych miast metabolistów. Barnard Tschumi w swoich koncepcjach dla Rotterdamu (Triple Line), lotniska Kansai (projekt, 1988) czy Lozanny (projekt Bridge city, 1988), proponował miejskie generatory, czyli funkcjonalne hybrydy połączone z miastem poprzez infrastrukturę drogową. Z kolei pod koniec XX wieku Monolab Architects przeprowadzili pierwsze z wielu niezależnych studiów nazwane Infrabodies. Odcinek autostrady A20 położony na północ od Rotterdamu pełnił tu rolę materiału badawczego do programowanie pustych stref wokół arterii. Studium celowo nie zostało przeprowadzone zgodnie z rozporządzeniami i regulacjami prawnymi. Jego zadaniem było odkrycie ukrytego potencjału miejsc. Testowano sześć modelowych węzłów komunikacyjnych autostrady we wszystkich proponując zlokalizowanie ekstensywnego i różnorodnego programu funkcjonalnego. Masywne programy funkcjonalne na węzłach miałyby działać podobnie jak przystanki w mieście. Rys. 5. Infrabodies proj. Monolab Architects 12

14 Niedawno rozstrzygnięte konkursy architektoniczne: A New Infrastructure: transit Solutions for Los Angeles oraz Connecting Cleveland (1 nagroda- Cleve[r]land, proj. Influx_Studio) świadczą o tym, że na obszarach, gdzie ekstensywność sieci infrastruktury transportowej stała się problemem, szuka się już kreatywnych i proekologicznych rozwiązań. Aktualne i przyszłe problemy miast są stopniowo identyfikowane, a powstające koncepcje dowodzą tylko, że urbanistyka to nadal nieodkryty ląd. 5. Mosty- hybrydy Choć koncepcja fuzji architektury i infrastruktury wydaje się być młoda, sięga do idei średniowiecznych mostów mieszkalnych. Osiemsetna rocznica powstania najsławniejszego z nich - London Bridge- była pretekstem do przeprowadzenia konkursu przez RIBA na koncepcję jego współczesnego odpowiednika- London bridge 800: Design an Inhibited Bridge (1 nagroda Laurie Chetwood). W tym samym czasie w Niemczech debatowano nad koncepcją Living Bridge autorstwa BRT Architekten, które miałyby powstać w Hamburgu i w Dusiburgu. Oba projekty stoją pod znakiem zapytania, ze względu na skomplikowaną sytuacje prawną oraz sprzeciwy wśród miejscowych planistów i samych mieszkańców. Rys. 6. Living Bridge w Disuburgu proj. BRT Architekten Kiedyś popularność tych mostów mieszkalnych opierała się na ograniczonym procesie rozwoju miasta wewnątrz jego murów obronnych. Współczesne przesłanki- walka z eksurbanizacją - są właściwie podobne. Po latach zapomnienia idea mostu mieszkalnego powróciła, ma jednak tyle samo zwolenników, co przeciwników. Głownie, dlatego, że czytana jest jako obca forma ingerująca w panoramę miasta, zamykającą perspektywę widokową, wprowadzającą ograniczenia dla sąsiadujących z nią dzielnic i transportu wodnego. 6. Integracja versus reprezentacja Umiejętne wykorzystanie zasygnalizowanej tu strategii może być lekiem na całe zło współczesnych miast: fragmentację, eksurbanizm i zjawisku urban growth. Gdyby wiele niewykorzystanych i z pozoru nieprzyjaznych mieszkańcom stref infrastruktury programować jako przestrzenie i budynki publiczne doprowadziłyby to do zwiększenia wydajności miasta, zmniejszenia nakładu kosztów i przywrócenia tożsamości wielu miejsc. Architektura nie jest tu autonomiczna jak w modernizmie (idea tabula rasa ), ale projektowana w ścisłej relacji z nerwami miasta- siecią komunikacyjną. Integracja ostatecznie zastępuje reprezentację. 13

15 Literatura [1] Corner J., Scofidio R., Designing the High Line: Gansevoort Street to 30th Street, Friends of the High Line, Nowy Jork, [2] Jodidio P., Olympic Sculpture Park, [in:] Green Architecture Now!, Taschen, Köln, [3] Koolhaas R., S, M, L, XL, Monacelli Press, USA, 1998, p.969 [4] Ouroussoff N., Gardens in the Air Where the Rail Once Ran, New York Times, [5] Tajima M., The city a playground, [in:] Nova Terra- Jaargang 5, 2005, nr 1, str [6] Tschumi B., Architecture and Disjunction, Cambridge : The Massachusetts Institute of Technology Press, 1996 [7] Tschumi B., Event-cities, Cambridge, Cambridge, Massachusetts ; London : The Massachusetts Institute of Technology Press, [8] van Kuilenburg J.W., Infrabodies, ARCH+, no. 147, August 1999, p [9] van Kuilenburg J.W., Infrabodies, [in:] Monolab texts- the green booklet, Monolab Architects, Rotterdam, MEGASTRUCTURE OF THE BUS STOP INTEGRATION OF ARCHITECTURE AND INFRASTRUCTURE Due to city fragmentation, urban growth and simultaneous demand for flexible and multifunctionally programmed buildings- there is new kind of context the architecture nowadays has to deal with in modern cities. Architecture territory spreads on sites which have never been considered before: infrastructure nodes, postindustrial brownfields, highway surroundings, underground garages and passages, bridges and viaducts, rail tracks, etc. In this paper- basing on chosen realized projects and design concepts- were analyzed potentials coming form integration of architecture and infrastructure. The premise of my research begins with the intent to study ways in which the contemporary city grows considering this interesting new kind of relationship. There is outlined in the conclusion that these new kinds of hybrid urban form (architecture+infrastructure) can have possible outcomes on the city and on the theoretic scene of contemporary architecture. 14

16 Kształtowanie współczesnych idei architektonicznych. Analiza na przykładzie wybranych prac Witolda Cęckiewicza Karolina Kosno-Basińska1 Streszczenie: Artykuł jest próbą zdefiniowania czynników, które wpłynęły na kształt idei architektonicznych od połowy XX wieku do czasów współczesnych. Analizę przeprowadzono na przykładzie wybranych prac projektowych Witolda Cęckiewicza, którego twórczość obejmuje ten okres. Słowa kluczowe: idea architektoniczna, tradycja, nowoczesność, Witold Cęckiewicz 1. Wprowadzenie Dwa główne kierunki, które ukształtowały architekturę XX wieku: ruch nowoczesny i postmodernizm stoją w opozycji do siebie. Dzieli je przepaść zarówno w kwestiach dotyczących roli architekta-twórcy, sposobu kreowania obiektu, jego formy i funkcji, jak i implikacji społecznych, ekonomicznych i politycznych. Istnieje jednak płaszczyzna, która łączy oba kierunki. Jest nią przekonanie o sile znaczenia formy 2, o potędze architektury, która może przekazywać znaczenia 3, idee. Architektura jest tą dziedziną sztuki, z której utworami mamy kontakt na co dzień. Jako użytkownicy przestrzeni wszyscy stajemy się odbiorcami dzieł architektonicznych. Architekt aranżuje scenę, na której toczy się nasze życie 4. Od sposobu, w jaki ukształtuje tę przestrzeń zależy jakość naszego życia i funkcjonowania. Obiekt architektoniczny nadaje rzeczywistości nowe ramy. Te nowe formy, jak twierdził Sigfried Giedion, wybitny krytyk architektury, oddziaływają z kolei na życie, z którego wyrosły 5. Architektura jest, zatem, ściśle związana z rzeczywistością codziennego życia: z niej wypływa i bezpośrednio ją kreuje. Warto zatem zastanowić się, co sprawia, że obiekt architektoniczny zyskuje określoną formę. Warto rozważyć, co wpływa na kształt danego dzieła, by móc lepiej zrozumieć przestrzeń, która nas otacza. Poznanie czynników wpływających na ideę architektoniczną pozwoli nam na odkrycie przekazu, który autor obiektu zakodował w swoim utworze dla odbiorcy. Jako, że architektura jest dyscypliną twórczą, działającą na pograniczu między rejonami doznań estetycznych i praktycznego działania 6 postaram się przeanalizować czynniki kształtujące jej idee, a wynikające zarówno z aspektów formalnych i funkcjonalnych. Badania zostaną przeprowadzone na przykładzie wybranych realizacji architektonicznych autorstwa Witolda Cęckiewicza, polskiego architekta o bogatym dorobku twórczym, który obejmuje okres od lat pięćdziesiątych XX wieku i rozwija się do dnia dzisiejszego. 1 Wydział Architektury Politechniki Wrocławskiej, ul. B. Prusa 53-55, karolinakosno@vp.pl D. Ghirardo, Architektura po modernizmie, Wydawnictwo VIA, Toruń Tamże 4 S. Rasmussen, Odczuwanie architektury, Wydawnictwo Murator, Warszawa S. Giedion, Przestrzeń, czas, architektura. Narodziny nowej tradycji, Państwowe Wydawnictwo Naukowe, Warszawa Tamże 2 15

17 2. Ambasada polska w New Delhi W definiowaniu elementów kształtujących ideę architektoniczną szczególną rolę pełni lokalizacja czyli duch miejsca wyrastający z tradycji, historii i kultury. Przykładem realizacji, w której szacunek twórców stał się gwarantem zachowania kultury miejsca7 jest kompleks obiektów ambasady polskiej oraz przedstawicielstwa Ministerstwa Handlu Zagranicznego w New Delhi, w Indiach. Założenie architektoniczno - urbanistyczne powstało w latach siedemdziesiątych w oparciu o zwycięską koncepcję autorstwa Witolda Cęckiewicza i Stanisława Deńko. Na kształt idei architektonicznej miały wpływ nie tylko wymagania konkursowe dotyczące reprezentacyjności obiektu i jednakowego jego odbioru ze wszystkich stron. W projekcie przywiązano szczególną wagę do kontekstu wynikającego z lokalizacji. Rys. 4. Wewnętrzne patio Ambasady PRL w New Delhi. Rys. 5. Widok na kompleks z zewnątrz. Założenie składa się z głównego budynku ambasady wyniesionego na wysokość 11m oraz zespołu o funkcjach towarzyszących: socjalnej i mieszkaniowej. Wyniesienie ponad poziom terenu pozwoliło uzyskać efekt lekkości i unoszenia obiektu ponad otaczającą zielenią 8. Kompleks budynków tworzy harmonijną całość poprzez wyrównanie linii zabudowy, zaprojektowanie podwójnych dachów oraz wprowadzenie basenu dekoracyjnego łączącego wszystkie części zespołu. Wnętrze obiektu ambasady stanowi patio z podcieniami w postaci ażurowych płaszczyzn. W połączeniu z podwójnymi fasadami o podobnej, ażurowej formie obiekt zyskuje wrażenie lekkości, a w wewnętrznych dziedzińcach tworzy niezwykłą grę światła, dając jednocześnie cień i chwilę wytchnienia w gorącym klimacie Indii. Poza jednorodnym charakterem całego założenia i mistrzowskim operowaniem światłem 9 kompleks Ambasady polskiej w New Delhi doskonale nawiązuje do ducha miejsca, z którego czerpie inspirację. 3. Kaplica cmentarna na Salwatorze w Krakowie Salwator jest dzielnicą Krakowa, przez którą prowadzi trasa spacerowa w kierunku Kopca Kościuszki, celu wycieczek mieszkańców miasta i turystów. Na tej trasie położony jest Cmentarz 7 Parafraza cytatu: Kultura twórcy staje się [ ] gwarantem szacunku dla kultury regionu w: W. Cęckiewicz, Krótkie eseje i najkrótsze myśli o architekturze, Wydawnictwo Politechniki Krakowskiej, Kraków T. P. Szafer, Nowa architektura polska. Diariusz lat , Arkady, Warszawa Stwierdzenie Władysława Stróżewskiego ze Słowa Wstępnego w: W. Cęckiewicz, Krótkie eseje i najkrótsze myśli o architekturze, Wydawnictwo Politechniki Krakowskiej, Kraków

18 Salwatorski. Jeszcze w XIX wieku, skromna nekropolia, wraz z dynamicznym rozwojem miasta w ciągu ostatniego stulecia stała się miejscem pochówku wielu znanych osobistości. Po powiększeniu obszaru cmentarza zaszła konieczność wybudowania nowej kaplicy, która pomieściłaby wiernych i zapewniłaby godne miejsce pożegnania bliskiej osoby. Zadania tego podjął się Witold Cęckiewicz, będący autorem licznych obiektów sakralnych w Polsce. W projekcie kaplicy cmentarnej szczególną uwagę architekt przywiązał do głębokiej symboliki miejsca oraz charakteru i przeznaczenia obiektu. Te czynniki miały zasadniczy wpływ na kształt idei architektonicznej. Kaplicę zlokalizowano na zakończeniu głównej alei nekropolii co w sferze przestrzennokompozycyjnej zamyka perspektywę, zaś w warstwie symbolicznej oznacza śmierć będącą finałem naszej ziemskiej wędrówki. Kaplica cmentarna stanowi bramę do nowego świata. Widnieje na niej napis, który daje nadzieję: Vita non tollitur, oznaczający, że życie nie kończy się, nie ulega zniszczeniu. Pod względem kompozycyjnym obiekt składa się z prostej, jasnej bryły oraz dzwonnicy, która, według tradycji, stanowi latarnię dla zmarłych. W płaszczyźnie głównej elewacji budynku wycięta jest przeszklona sylweta starej kaplicy. Zabieg ten jest ukłonem w stronę historii i tradycji przy użyciu współczesnego środka wyrazu artystycznego. Rys. 1. Główna elewacja kaplicy cmentarnej na Salwatorze. Rys. 2. Wnętrze kaplicy z prezbiterium. Rys. 3. Witraże. Drogę życia symbolizuje pas posadzki mający swój początek w głównej alei cmentarza. Początkowo jasny, staje się ciemniejszy w miarę zbliżania się do wejścia do kaplicy bramy do drugiego świata. Pas posadzki jest kontynuowany również we wnętrzu kierując uwagę odbiorcy na ścianę z tabernakulum. Tutaj właśnie, w miejscu będącym symbolem oczyszczenia, ciemny pas przechodzi w jasną, złocistą smugę stworzoną z imion z Litanii do Wszystkich Świętych. 10 Nad ołtarzem zawieszona jest ażurowa postać Chrystusa Zmartwychwstałego, według tradycji katolickiej, Zwycięzcy śmierci. Zwieńczeniem zatem drogi życia jest spotkanie się ze Zmartwychwstałym i, po oczyszczeniu przez Najświętszy Sakrament w tabernakulum, możliwość dołączenia do grona świętych. Wszystkie elementy składające się na kształt założenia mają zatem swoje uzasadnienie funkcjonalne, ale również naznaczone są głęboką symboliką związaną z charakterem, funkcją i lokalizacją obiektu. 10 W. Cęckiewicz, Od idei do sacrum, Alma Mater, nr 57-58/2004, Wydawnictwo Uniwersytetu Jagiellońskiego, Kraków

19 4. Podsumowanie Obiekt architektoniczny powstaje w określonym miejscu i czasie, dla zdefiniowanego użytkownika i celu, w konkretnych uwarunkowaniach, m.in. historycznych, społecznych i kulturowych. Wszystkie te czynniki tworzą złożony, wielowątkowy kontekst. Od inwencji twórczej i możliwości autora zależy, które z tych elementów i w jakim stopniu uformują ideę i ostateczny wyraz estetyczny projektowanego obiektu. Elementy kształtujące ideę architektoniczną można podzielić na materialne oraz niematerialne. Wynikają one z rzeczywistych, materialnych uwarunkowań przestrzennych oraz z czynników, które funkcjonują w obrębie wyobraźni, pamięci i skojarzeń. Podobny podział charakteryzuje płaszczyzny odbioru idei. Przekaz skierowany przez twórcę, odbiorca odczytuje zarówno na poziomie materii, jak i w sferze doznań zmysłowych, związanych z odczuciami i emocjami, które pojawiają się w danej przestrzeni. Witold Cęckiewicz określił ideę jako przeżycie intelektualne, które poprzez wyobraźnię nabiera wyrazu, staje się przekazem dla odbiorcy. 11 Aby właściwie zrozumieć ten przekaz, który w swoim dziele zawarł architekt, warto zgłębić czynniki, które na niego wpłynęły, nadały mu ostateczny kształt. Wówczas interpretacja dzieła architektonicznego może stać się prawdziwą intelektualną podróżą po niezgłębionych obszarach historii, kultury, estetyki i tradycji. Literatura [1] W. Cęckiewicz. Od idei do sacrum. Alma Mater. Wydawnictwo Uniwersytetu Jagiellońskiego. Nr 57-58/2004. Kraków 2004 [2] W. Cęckiewicz. Krótkie eseje i najkrótsze myśli o architekturze. Wydawnictwo Politechniki Krakowskiej. Kraków 2008 [3] D. Ghirardo. Architektura po modernizmie. Wydawnictwo VIA. Toruń 1999 [4] S. Giedion. Przestrzeń, czas, architektura. Narodziny nowej tradycji. Państwowe Wydawnictwo Naukowe, Warszawa [5] S. Rasmussen. Odczuwanie architektury. Wydawnictwo Murator. Warszawa 1999 [6] T. P. Szafer. Nowa architektura polska. Diariusz lat Arkady. Warszawa 1981 [7] CREATING CONTEMPORARY ARCHITECTURAL IDEAS. ANALYSIS ON THE BASIS OF WITOLD CĘCKIEWICZ'S CHOSEN WORKS. Architectural object is created in a particular place and time for the defined objective and users, in specific historical, social, cultural and other circumstances. All these factors form a complex, multi-threaded context. Author s creativity and possibilities determine these factors and their influence on an aesthetic expression of the idea. The elements affecting the architectural concept can be divided into tangible and intangible. They result from the actual physical and spatial conditions and also from factors that operate within the imagination, memory and associations. Witold Cęckiewicz described the idea as an intellectual experience, that through imagination becomes a message to the recipient 12. In order to understand this message, it is worth to explore factors that contributed to it and gave it its final shape. Then the interpretation of an architectural work can become a real intellectual journey to the impenetrable areas of history, culture, aesthetics and tradition Tamże Tamże 18

20 Projektowanie miasta. Badania naukowe w urbanistyce Agnieszka Rutecka 1 Streszczenie: Miasto to zestawienie ludzi i budynków na pewnym terenie. To także bardzo dynamiczny układ fizyczny, uporządkowany zbiór wartości wielu parametrów. Uproszczenie zagadnienia umożliwiło jego badanie przez analogię do termodynamiki, teorii gier i ewolucji. Z drugiej strony - projektowanie wizji przyszłości w obliczu zmieniających się możliwości wynikających z rozwoju technologii. Słowa kluczowe: urbanistyka, miasto, datascape, MVRDV, gry badawcze, ewolucjonizm 1. Wprowadzenie Każda epoka ma swój własny sposób organizacji przestrzeni. Zabytkowa, często średniowieczna tkanka miasta znacznie różni się od otaczającej ją współczesnej urbanistyki. Centralny plac lub ulica targowa z reprezentacyjnymi budynkami wokół, wąskie ulice, zwarta zabudowa, niewielkie kwartały, okalające całość mury miejskie i fosa wiele mówią o charakterze ówczesnego miasta i jego mieszkańców. Barcelonę, pierwsze miasto nowoczesne zaprojektował Ildefonso Cerdá w układzie szachownicowym z wielkimi diagonalnymi arteriami ułatwiającymi szybkie przemieszczanie. Podobny układ, bez względu na ukształtowanie terenu, charakteryzuje większość dużych amerykańskich miast. W przeciwieństwie jednak do Barcelony, gdzie ulice stały się miejskim salonem, układ ortogonalny w USA był odpowiedzią na dramatyczny wzrost liczby ludności. Prosta, modularna siatka dawała możliwość niemal nieskończonej kontynuacji. Wcześniej niż w stolicy Katalonii, szerokie arterie połączyły ważne punkty na mapie Paryża nienaturalnie przecinając zbitą tkankę zabudowy. Bezkompromisowa wizja barona Georgesa Haussmanna uwzględniała także utworzenie wielkich parków, zielonych kręgów wokół miasta i charakterystycznych gwiaździstych placów. W historii urbanistyki pojawiło się wiele rozwiązań totalnych lub utopijnych. Gigantyczne osiedla z wielkiej płyty z niemal niczym nieograniczoną przestrzenią wokół to wypaczony obraz modernistycznej wizji przebudowy historycznego centrum Paryża - Plan Voisin stworzonego przez Le Corbusiera. Pod koniec XIX i w XX wieku powstało wiele projektów miast idealnych takich jak ułożone pasmowo wzdłuż sieci drogowej miasta liniowe, uwzględniające potrzebę zdrowego życia w kontakcie z naturą miasta-ogrody, czy próba rozwiązania problemu przeludnienia w istniejących miastach Spatial City Yona ego Friedmana zakładające utworzenie drugiej warstwy zabudowy metrów ponad istniejącą. Na uwagę zasługuje też zaprojektowane w latach 50. zeszłego wieku przez Franka Lloyda Wrighta Broadacre City. W opozycji do Le Corbusiera i jego skumulowanego założenia dla 3 mln, Wright połączył w swojej koncepcji zalety miasta i wsi. Problem dużych odległości rozwiązał za pomocą helikopterów i biegnącej estakadą ulicy obsługującej obszar. Analizy, eksperymenty naukowe i gry badawcze służą rozwojowi współczesnej nauki i techniki. Pod koniec lat 90. XX wieku Winy Maas, współzałożyciel grupy architektonicznej MVRDV stworzył metodę datascape polegającą na przedstawieniu problemu architektonicznego lub urbanistycznego w formie czystych, pozbawionych nacechowania i kontekstu danych. Forma taka pozwala na badanie architektury i urbanistyki podobnie jak każdego innego zagadnienia naukowego. Problem rozkłada się na części pierwsze, różnym właściwościom nadając różnej wagi. 1 Politechnika Wrocławska, Wydział Architektury, ul. Prusa 53/55, Wrocław, arutecka@gmail.com 19

21 Przeprowadza symulacje, porównania, poszukuje analogii do znanych zjawisk. Architekt wybiera przedmiot badania. Nie wpływa na wyniki analiz, ale ocenia je i decyduje o dalszym kierunku ich przebiegu. Administruje eksperymentem, ale nie tworzy rozwiązania jako nieomylny twórca. 2. Badania naukowe czy wróżenie z fusów? jest to opowieść science fiction o przestrzeni, która nie ma końca w przyszłości Winy Maas 2 Próbę swego rodzaju przewidywania przyszłości podjęli w 2006 r. w ramach warsztatów na Wydziale Architektury i Urbanistyki Uniwersytetu Wisconsin-Milwaukee projektanci z biura MVRDV, a jednocześnie pierwsi laureaci Nagrody Marcusa, przyznawanej przez tę uczelnię. Podjętym zagadnieniem były konsekwencje wynikające ze stworzenia latającego samochodu. Latający samochód to jeden z najpopularniejszych symboli nowoczesnego miasta. Pomysł pierwszy raz opisano już siedem lat po wynalezieniu auta przez Karla Benza, trzy lata po pierwszym locie braci Wright. Motyw przez cały XX wiek pojawiał się w niemal każdym filmowym przedstawieniu miasta przyszłości, 3 gdzie nowe pojazdy zapewniały nie tylko transport, ale również jak w Łowcy androidów w reżyserii Ridleya Scotta były synonimem władzy. Filmowe miasta to często niemal unoszące się w chmurach budynki jak w serialu animowanym z lat 60. Jetsonowie, czy Cloud City z piątej części Gwiezdnych wojen Georga Lucasa. Z drugiej strony w Raporcie mniejszości Stevena Spielberga miasto szczelnie wypełnia przestrzeń. To plątanina budynków, dróg poziomych i pionowych, poruszających się po nich pojazdów i ludzi. Nasuwają się pytania: która wizja jest bliższa prawdy? Czy jesteśmy w stanie ocenić prawdopodobieństwo ich urzeczywistnienia? Czy znając mechanizmy współczesnego miasta możemy określić jak by się ono zmieniło w obliczu nowych możliwości? W topologii znając definicję danego bytu możemy obserwować jego wizualne przemiany zmieniając środowisko, przestrzeń, w której się znajduje. Przykładem tego zjawiska przedstawionym na rys.1. jest metamorfoza koła przy różnym sposobie mierzenia odległości, czyli różnej metryce. Obiekt pozostał taki sam choć dla obserwatora przyjął różne formy: kwadratu w metryce miasto i latawca w rzece. Analogiczną metodę można zastosować do badania zjawisk rzeczywistych. Rys. 1. Identyczne koła o środku w (0,0) i promieniu 1 oraz o środku w (3,1) i promieniu 1.5 na płaszczyźnie z metryką euklidesową (standardową) i metryką rzeka i metryką miasto. 4 Przedstawienie trójwymiarowej przestrzeni na płaszczyźnie jest bardzo łatwe. Wynikające z tego zniekształcenia, jak rozciągnięcie bieguna na mapie do postaci równoleżnika nie utrudniają jej czytania. Dużo trudniejsze jest przejście z przestrzeni dwu- do trójwymiarowej, racjonalne jej 2 cytat pochodzi z książki KM3. Excursions on Capacities, pod red. Winy ego Maasa, [4], tłumaczenie własne 3 Skycar City. A Pre-emptive History, pod red. Winy ego Maasa i Grace La, str 2-3, [1] 4 Koło to zbiór punktów odległych od pewnego punktu zwanego środkiem koła nie bardziej niż na zadaną odległość (promień). W metryce rzeka odległość między punktami równa jest sumie odległości punktów od rzeki (osi ox) i długości odcinka rzeki między doprowadzającymi do niej ścieżkami. Odległość dwóch punktów w metryce miasta to suma wartości bezwzględnych różnic ich współrzędnych, innymi słowy suma długości najkrótszej drogi jaką musimy pokonać z punktu do punktu po odcinkach siatki ortogonalnej. 20

22 zapełnienie i funkcjonalne wykorzystanie. Miasto trójwymiarowe to miasto, którego każdy wymiar/współrzędna jest równoważny. W takim rozumieniu trójwymiarowość współczesnej metropolii jest pozorna. Składa się ona bowiem z płaszczyzny terenu najbardziej zatłoczonej i wyeksploatowanej oraz zbioru prostych do niej prostopadłych - budynków. Zmiana naszego położenia, przejście z jednego obiektu do innego wymaga każdorazowego zejścia na poziom zero, podobnie jak ma to miejsce w przestrzeni z metryką rzeka. W obliczu stale zwiększającej się liczby ludności Ziemi, takie rozwiązanie graniczy z marnotrawieniem zasobów. Celem researchu 3D City i późniejszych warsztatów Skycar City było stworzenie modelu miasta w pełni wykorzystującego każdy fragment przynależącej do niego przestrzeni. W oparciu o współcześnie dostępne technologie stworzono kilka typów latających aut. W zależności od sprawowanej funkcji zróżnicowano ich formę, wielkość, rodzaj napędu, sposób parkowania oraz wykorzystanie energii odnawialnej. Przedyskutowano problem stref bezpieczeństwa przy ich poruszaniu z różnymi prędkościami i wynikające z nich wielkości przekrojów dróg. Z kilku typów rozwiązań infrastruktury wybrano jeden, najlepszy z punktu widzenia projektantów, choć nie pozbawiony wad, i ten dalej rozwijano. W rezultacie otrzymano cztery koncepcje miasta trójwymiarowego: - Tower City zbliżone do współczesnej metropolii, gdzie infrastruktura drogowa stanowi sieć zajmującą przestrzeń pomiędzy wieżami budynków, - Swiss Cheese City zabudowa wypełnia całą przestrzeń. Drogi są w niej wydrążone. Problemem staje się brak światła i przewietrzania, a także brak elastyczności przestrzeni, - Coral City zabudowa nie ma bezpośredniego kontaktu z infrastrukturą drogową. Tworzy warstwy zapewniając dostęp światła i powietrza, - Garden City to Coral City, gdzie w strefie pomiędzy infrastrukturą drogową a budynkami zorganizowano ogrody i przestrzenie publiczne. Teoretyczne modele opisano i wykorzystano w projekcie rozwoju Tianjin w Chinach. Rys. 2. Przekrój/oś czasu miasta przyszłości ewoluującego w stronę coraz większej gęstości i trójwymiarowości: miasto współczesne Tower City Garden City Coral City Swiss Cheese City Autor: Trevor Patt Oczywistym jest, że przedstawione rozwiązanie nie jest jedyne, ani optymalne. Ze względu na mnogość napotkanych zależności, część z nich jako mniej ważna została odrzucona. Problem uproszczono. Powstały projekt ukazuje jedną z możliwości. Z zasady teoretyczny nie zamyka się na rozwiązania w danym momencie nieekonomiczne. 3. Miasto jako układ termodynamiczny Miasto jest niczym żywy organizm. Rodzi się, rośnie. Potrzebuje energii, żeby istnieć i się rozwijać. Mierzy się z przeciwnościami i katastrofami. W chwilach zagrożenia hibernuje, stara się dostosować lub walczy. Odbudowuje się, ewoluuje, a w przypadku braku energii umiera. Już w latach 60. Abel Wolman odniósł się do termodynamicznego aspektu miasta pisząc o jego metabolizmie. Jednak dopiero w XXI wieku zmierzono się z dynamicznym charakterem miasta 21

23 i regionu, zastępując statyczne dane i pomiary obserwacją gier badawczych, a także poszukując analogii między urbanistyką a ewolucją i teorią gier. Przykładem zainteresowania urbanistów może być aparat komórkowy. Stworzona w 1970 r. przez Johna Conway a Gra w życie na podstawie prostych reguł tworzy skomplikowane struktury. Nieskończona macierz włączonych i wyłączonych komórek zmienia się w kolejnych krokach powołując do życia kolejne organizmy, a inne unicestwiając. Algorytm określa stan badanej komórki na podstawie stanu komórek sąsiednich. Gra w życie ma znaczenie w procesach symulacji. Zamieniając reguły na zbiór możliwych zdarzeń otrzymamy mechanizm umożliwiający badanie struktury miejskiej. Ze względu na swoje skomplikowanie nie jest on możliwy do wykorzystania, ale wydaje się być milowym krokiem naprzód. 4. Podsumowanie Tylko nieliczne projekty totalne lub utopijne zostały zrealizowane. Większość pozostała na papierze, stając się obiektem dalszych analiz, lub zwykłą ciekawostką. Bez względu na to czy współczesne koncepcje i badania nad strukturą i charakterem miasta znajdą przełożenie na rzeczywistość, czy pozostaną w sferze marzeń samo ich powstanie świadczące o postawieniu urbanistyki w jednej linii z innymi naukami jest bardzo pozytywne. Projekty datascape pokazują, że tradycyjne projektowanie architektoniczne gra bardzo ograniczoną rolę. 5 Literatura [1] Skycar City. A Pre-emptive History, red. Winy Maas i Grace La, Actar, Barcelona 2007 [2] Sławomir Gzell, Miastotwórcza rola transportu w teorii urbanistyki, Czasopismo Techniczne z.3 Architektura z.1-a, s. 5-19, 2010 [3] Spacefighter. The Evolutionary City (Game:), red. MVRDV, DSD, Actar, Rotterdam 1999 [4] KM3. Excursions on Capacities, red. Winy Maas, Actar, 2006 [5] Abel Wolman, The metabolism of cities, Scientific American, s , 1965 [6] Mikołaj Wower, Przestrzeń mieszkalna XXI wieku oparta o łącza teleinformatyczne i zmianę zasady pracy, praca dyplomowa na Wydziale Architektury Politechniki [on-line], 2005, [7] D. Darcy, Crowded House, The New York Times Magazine [on-line], , THE CITY DESIGN. RESEARCH IN URBAN PLANNING The article refers to the changes that have occurred in urban design in the late twentieth century. It shows the opportunities provided by using a computer in the design process and also bringing the problem to the set of the most important parameters, which is the starting point for the datascape method. Design based on studies and researches was contrasted with the traditional one, which is based on knowledge and imagination of the author. The city is not only a collection of people and buildings in a certain area, but also a very dynamic physical system, an ordered set of values of many parameters. Simplification of the issues has enabled to conduct a research in urban design by analogy to thermodynamics, game theory and evolution. On the other hand, the design vision for the future in the face of changing opportunities arising from technological developments was outlined. 5 Słowa Barta Lootsma y, krytyka i historyka architektury, tłumaczenie własne 22

24 Porównanie kierunków rozwoju sieci rowerowych w miastach zachodniej Europy z rozwojem infrastruktury rowerowej we Wrocławiu. Aleksandra Zielińska 1 Streszczenie: Znaczna większość Polaków i decydentów postrzega rower wyłącznie jako urządzenie rekreacyjne. Tymczasem w wielu miastach Europy komunikacja rowerowa stanowi istotny elemenemt polityki transportowej miasta. Istnieje szereg sposobów m.in. urbanistycznych, które poprawiają środowisko miasta, aby było przyjaźniejsze rowerzystom. Środki urbanistyczne zastosowane na zachodzie zostaną przeanalizowane pod kątem możliwości realizacji we Wrocławiu i pod kątem obecnych przemian jakie zachodzą w tym mieście. Słowa kluczowe: rower, urbanistyka, polityka transportowa, miasto. 1. Wprowadzenie Nieodłącznym elementem kształtującym formę miasta i kierunki jego rozwoju, który należy uwzględnić oceniając jego istniejącą strukturę jest historia tego miasta. Wrocław pod tym względem nie należy do najszczęśliwszych. II Wojna Światowa sprawiła, że tradycyjna zabudowa Wrocławia w wielu miejscach została doszczętnie zniszczona. Do dziś można spotkać niezagospodarowane miejsca, które nie funkcjonują prawidłowo, wyrwy w zabudowie, place, w które ciężko tchnąć nowe życie. Do tego jeszcze ustrój polityczny kraju socjalizm, który widoczny na każdym kroku w żaden sposób nie nawiązywał do istniejącej zabudowy i kierował się swoimi własnymi prawami, które aktualnie nie spełniają wymagań stawianych przez rozwijające się miasta. Szerokie arterie komunikacyjne podzieliły miasto utrudniając poruszanie się pieszym i rowerzystom. Samochód stał się priorytetem do którego należało tkankę miejską przystosować w jak największym stopniu. Rewolucja samochodowa i związane z nią przemiany struktury miejskiej odbywały się w większości miast na świecie, jednak w tych dynamicznie się rozwijających już dawno postawiono na transport publiczny, rowerowy i rygorystyczne regułu wobec samochodu. W tym artykule przedstawię sposoby, dzięki którym Kopenhaga i Amsterdam stały się najbardziej sprzyjającymi rowerzystom miastami na świecie. Uważam, że każde miasto ma szansę takim się stać poprzez długoterminowe planowanie i konsekwentne realizowanie projektów. Należy pamiętać, że te dwa miasta przeszły długą i intensywną drogę w rozwijaniu transportu rowerowego (ok. 40 lat), w której integracja programów transportowych, cierpliwość i regularne badania ruchu są niezbędne do osiagnięcia sukcesu. 2. Przypadek Kopenhagi Kopenhaga jest miastem posiadającym ok. 500 tys. mieszkańców, wraz z aglomeracją liczba zwiększa się do1,7 mln ludzi. Dzięki długiej historii komunikacji rowerowej i jej wysokiemu udziałowi w podróżach, miasto reklamuje się jako miasto rowerzystów. Należy jednak pamiętać, 1 Zakład Urbanistyki Wydziału Architektury, Politechnika Wrocławska; a.zielinska.pp@gmail.com 23

25 że przeszło ono szereg długoterminowych przemian, aby funkcjonować w taki sposób jak dziś. Pierwsze drogi rowerowe powstały wokół tzw. jezior (The lakes) w centrum Kopenhagi już w 1910 roku. Wówczas natężenie ruchu rowerzystów w tym rejonie było tak wysokie, że zmusiło planistów do stworzenie dodatkowej przestrzeni tylko dla rowerów. Obecnie wokół tych zbiorników znajduje się długa na ok.6 km trasa spacerowo rowerowa. Jak wiele miast na świecie do Kopenhagi także przyszła rewolucja samochodowa. Miasto zaczęło się dostosowywać do co raz to popularniejszego środka transportu. Skutkowało to uciążliwością w poruszaniu się po mieście poprzez wszechobecne korki, nieatrakcyjny krajobraz miejski, wszechobecne parkingi samochodowe i spaliny. Najwięcej pozytywnych dla rowerzystów i pieszych przemian miejskich odbyło się po roku Wtedy to jako pierwszą wyłączono z zupełnego ruchu samochodów ul. Stroget. Stała się ona pieszo-rowerowym pasażem. Od tego momentu przedsięwzięć zabierania przestrzeni samochodom i przeznaczanie jej pieszym i rowerzystom było co raz więcej. Duński urbanista Jan Gehl mówi,że najważniejszym kluczem do pozytywnych przemian było stworzenie rozbudowanej sieci dróg rowerowych, bez których wysokiej jakości przestrzenie publiczne, które widzimy dziś nie byłyby możliwe. Jednym z najważniejszych elementów planowania sieci dróg rowerowych w mieście jest ustalenie celów polityki rowerowej, którą będzie się rzetelnie realizowało przez dany okres czasu. Aktualna polityka rowerowa Kopenhagi [6] obejmuje okres lat Jednym z jej głównych założeń jest zwiększenie udziału podróży rowerem do pracy i szkły do 50% wszystkich przemieszczeń i zredukowanie liczby wypadków z udziałem rowerzystów o 50%. Dodatkowo miasto ma na celu zwiększenie poczucia bezpieczeństwau u rowerzystów z obecnych 57% do 80%. Planuje się także zwiększenie prędkości podróżowania rowerzystów poprzez zasosowanie lepszych materiałów zmniejszających opory toczenia na drodze rowerowej i zwiększenia zasady pierwszeństwa przejazdu poprzez odpowiednią organizację skrzyżowań. Jak wcześniej już wspomniano Kopenhaga ma długą historię roweru miejskiego. Już w 1934 r. miasto miało 130 km dróg rowerowych [7]. Od tamtego czasu infrastruktura rowerowa cały czas się rozwijała, mniej lub bardziej dynamicznie osiągając w 2004 r. długość 345 km odseparowanych pasów rowerowych i 14 km pasów wydzielonych z jezdni. Wtedy też przeznaczono ogromny budżet 16 mln na wybudowanie kolejnych 50 km dróg rowerowych do 2015 roku. Sieć rowerowa jest uzupełniona o system zielonych dróg, które nie pokrywają się z komunikacją drogową i prowadzą przez system zieleni miejskiej. Są one także bardzo atrakcyjne pod względem rekreacyjnym. Kopenhascy projektanci planowania transportu preferują odseparowane drogi rowerowe, niż wydzielane pasy w jezdni. To drugie jest postrzegane jako rozwiązanie tymczasowe i bardziej niebezpieczne dla rowerzystów. W Kopenhadze generalnie drogi rowerowe są lokalizowane po obu stronach drogi. Taka ścieżka znajduje się parę centymetrów ponad poziomem jezdni i jest ograniczona krawężnikami również od strony chodnika. Większość istniejących ścieżek jednokierunkowych ma szerokość ok. 2,2 m, jednak jest ona weryfikowana badaniami ruchu i te drogi o wysokim natężeniu rowerzystów są poszerzane do 3 m. Dodatkowo w celu zwiększenia bezpieczeństwa na skrzyżowaniach nawierzchnia drogi rowerowej jest malowana jasnoniebieską farbą. Jednak nie zawsze jest pieknie i idealnie. Badania społeczne [5] wskazują, że ponad połowa rowerzystów jest niezadowolona z jakości dróg rowerowych. W czasie godzin szczytu na kluczowych odcinkach sieci rowerowej tworzą się korki z liczbą 2300 rowerzystów/h [3, 4]. Takie korki tworzą się w róznych miejscach, które po zsumowaniu dają 3-4 km długości. Jest to liczba, którą możnaby zignorować, jednak jest uważana za powazny problem, wobec którego stosowane są odpowiednie środki zaradcze. 24

26 Pomijając prężny rozwój infrastruktury rowerowej, która zapewnia wielki sukces komunikacji rowerowej, należy wspomnieć o innych czynnikach równie ważnych warunkujących powodzenie roweru w mieście. Kopenhaga ma relatywnie płaski teren, który nie utrudnia jazdy na rowerze. Posiada zwartą zabudowę o zróznicowanych funkcjach, dzięki której dystanse podróży ulegają skróceniu. Jeżeli okoliczny teren jest odpowiednio nasycony w usługi nie ma potrzeby jechać gdzieś dalej, w celu zaspokojenia swoich potrzeb. Bardzo dobre efekty przynoszą także rozbudowane programy edukacyjne dla dzieci i akcje promujące jazdę na rowerze. 3. Amsterdam wzorcowe miasto rowerowe Amsterdam posiada ok mieszkańców, wraz z aglomeracją liczba mieszkańców przekracza 2 mln. Miasto to osiągnęło bardzo wysoki procent podróży rowerem. W 2003 roku 50% mieszkańców korzystało z roweru codziennie, 85% jeździło przynajmniej raz w tygodniu [2]. W Amsterdamie wszyscy jeżdżą na rowerze niezależnie od płci, wieku, czy stopnia zamożności. Miasto ma idealne warunki do rozwoju tego środka transportu. Liczne wąskie uliczki, mosty i kładki nad kanałami są często niewygodne dla poruszania się samochodem zwłaszcza w rejonie centrum. Do tego podobnie jak w Kopenhadze topografia terenu i układ urbanistyczny zachęcają wręcz do korzystania z roweru. W połowie XX wieku to głównie rower służył podróżowaniu do pracy, obiektów oświaty, do celów towarzyskich i rekreacyjnych. Do 1995 r. udział roweru w całkowitej liczbie podróży wynosił ok. 75%. W późniejszych latach udział ten drastycznie spadł na korzyść posiadania samochodui podróżowania nim. Pod koniec lat 50-tych XX wieku nastąpił proces suburbanizacji. Wielu mieszkańców masowo przeprowadziło się na przedmieścia zwiększając tym samaym dystans podróży, który stawał się mniej osiągalny dla roweru, za to bardzo wygodny do pokonania samochodem. Nagły wzrost liczby samochodów był powodem poważnych zatorów komunikacyjnych w centrum miasta. Wiele ulic okazało się być za wąskich dla samochodu, a wiele skrzyżowań miało zbyt małą przepustowość. Na skutek problemów komunikacyjnych w mieście duża część biznesu przeniosła się z centrum na obrzeża miasta. Dzielnica portowa i jej okolica opustoszały. Proces suburbanizacji postępował dalej. Doprowadziło to do zupełnej zmiany dotychczasowego modelu przemieszczeń mieszkańców. W latach 60-tych doszło do drastycznego wzrostu problemu zapewnienia miejsc parkingowych w mieście. Tu władze miasta stanęły przed poważnym pytaniem, czy dostosować miasto do potrzeb motoryzacyjnych, czy obrać zupełnie przeciwny kierunek? W latach 70-tych udział roweru w podróżach spadł do 25%. Aby zmienić ten stan rzeczy społeczności rowerowe i lokalne ugrupowania rozpoczęły cykl rowerowych kampanii promocyjnych i informacyjnych dla mieszkańców i władz miasta. Społeczna akceptacja została wsparta dodatkowo ogólną chęcią do zabezpieczenia przed degradacją historycznego i kulturowego centrum oraz zwiększenia jego dostępności. W 1978 r. wybrano nowe władze miasta, które skupiły się na rozwoju infrastruktury rowerowej rozbudowując istniejącą sieć i regularnie badając trendy w podróżowaniu. Od tego momentu udział roweru w podróżach ciągle wzrastał. W 1980 r. rowerem odbywanych było 31% podróży, a w 2005 r. 37%. Na przestrzeni tego okresu współczynnik korzystania z samochodu prawie się nie zmienił (42% w 1985 r., 41% w 2005 r.), natomiast udział transportu publicznego spadł z 27% do 22% [7, 2]. Sieć rowerowa Amsterdamu opiera się na radialnym układzie dróg rowerowych skierowanych do centrum miasta, w większości wybudowanych w latach 80-tych, łączących dzielnice mieszkaniowe, dzielnice biznesu i pracy oraz centrum. Taki układ ma swoje odzwierciedlanie w badaniach transportowych, które wskazują na 55% udział podróży rowerem w obrębie centrum (dane z 2000 r.). W 2007 roku miasto miało 450 km ścieżek i dróg rowerowych. 200 km to odseparowane ścieżki rowerowe, 200 km w strefach 30 km/h i 50 km dróg przy ulicach o dopuszczonej prędkości 50 km/h. 25

27 Głównymi założeniami polityki transportowej Amsterdamu jest promowanie niezmotoryzowanych środków transportu i zwiększenie dostępności centrum. Zostały także zdefiniowane problemym takie jak wysoki wskaźnik kradzieży rowerów, brak bezpiecznych parkingów, niski poziom bezpieczeństwa ruchu i długie oczekiwanie na zielone światło. W odpowiedzi na te problemy powstał plan Choosing for Cyclist , do którego dodatkowo włączono rozbudowę istniejącej infrastruktury i program zachęcania młodych ludzi do podróżowania rowerem. Na ten cel został przeznaczony budżet w wysokości 40 mln, który wraz z innymi źródłami finansowania w ciągu 4 kolejnych lat wzrośnie do 70 mln. Planuje się także osobne fundusze na rozbudowę i poprawę parkingów rowerowych i zwiększenie liczby stref 30 km/h. Należy także wspomnieć, że w Amsterdamie podobnie jak w Kopenhadze istnieje dobrze rozwinięty program edukacji rowerowej dla dzieci, który uczy zasad poruszania się po mieście i zwiększa umiejętności jazdy na rowerze [2]. Podobnie jak w Danii amsterdamscy projektanci dróg rowerowych planują przebudowę sieci rowerowej polegającej na tworzeniu odseparowanych dróg rowerowych. Poprawę bezpieczenstwa zapewniło także duże ograniczenie możliwości wjazdu samochodem do centrum miasta. Od ponad 40 lat władze miasta redukowały tam liczbę parkingów i podnosiły ceny biletów parkingowych, co skutecznie zniechęciło mieszkańców do jazdy samochodem. Wiele ulic jest jednokierunkowych lub przeznaczonych wyłącznie dla pieszych i rowerzystów. 4. Wrocław Miastem przyjaznym rowerzystom Historia naszego miasta i kraju nie należy do najspokojniejszych. W czasie II Wojny Światowej Wrocław został zniszczony w ok. 70%, czego skutki odczuwalne są do dzisiaj. Tradycyjny układ urbanistyczny miasta został mocno zniszczony, powstały puste place, wyrwy w zabudowie. Częściowo udało się odtworzyć zniszczoną tkankę miejską, jednak odbudowanie wcześniejszej struktury miasta jest już niemożliwe. Nastepnie wielkie przemiany miejskie przyszły wraz z nowym ustrojem politycznym, socjalizmem. Był to okres niezbyt korzystny dla urbanistyki, gdyż powstawały wtedy obiekty w żaden sposób nie nawiązujące do istniejących. Liczne wieżowce, gigantycznych osiedla z wielkiej płyty, tudzież powtarzalne na wielką skalę nudne projekty takich samych domów, znacznie zmieniły wizerunek Wrocławia. Na okres socjalizmu przypadła rewolucja samochodowa, którą jednak nie każdemu dane było się cieszyć. Liczne ubytki w zabudowie posłużyły jednak do budowania układu komunikacyjnego składającego się w dużej mierze z szerokich arterii, wielkich skrzyżowań, które dzisiaj postrzegane są jako mało funkcjonalne bariery miejskie. We Wrocławiu takimi realizacjami są m. in. ul. Kazimierza Wielkiego, która odcina ścisłe centrum miasta od jego południowej części utrudniając penetrowanie tej części miasta pieszym, plac Społeczny, który jest wielkim węzłem komunikacyjnym unieruchomionym na wszystkich kierunkach w godzinach szczytu. Po roku 1989 r. przyszedł czas, w którym prym wiódł samochód. Właściwie do dziś własny samochód jest postrzegany w Polsce jako symbol dostatku i luksusu. W krajach Europy Zachodniej, gdzie już od lat 60-tych XX wieku samochód był powszechnie dostępny dziś odchodzi się już od niego jako głównego środka transportu. Patrząc na przypadki Kopenhagi i Amsterdamu, które już borykały się z problemem zatorów komunikacyjnych spowodowanych zbyt dużą liczbą samochodów należy uczyć się na ich błędach i stosować środki zaradcze już teraz. Infrastruktura rowerowa we Wrocławiu zaczęła się pojawiać dopiero w 1996 roku, gdy został podjęty przez ZDiK plan budowy 100 km ścieżek rowerowych, w całości zrealizowany. Jednak projekt ten nie spełniał lub tylko w małym stopniu spełniał konieczne wymogi spójności, bezpośredniości, atrakcyjności, bezpieczeństwa i wygody [1], charakterystyczne dla prawidłowo rozwiniętej struktury sieci rowerowej. W następnych latach powstawały organizacje pozarządowe, które zajmowały się promowaniem roweru w mieście, działające na rzecz rozbudowy infrastruktury 26

28 rowerowej wraz z władzami miasta. Są to Koalicja Rowerowy Wrocław (działalność w latach ), Wrocławskie Porozumienie Rowerowe zrzeszające kilka mniejszych organizacji (2006) i najprężniej działająca Wrocławska Inicjatywa Rowerowa, która pomaga opiniować projekty drogowe pod kątem udogodnień rowerowych, organizuje warsztaty edukacyjne i prowadzi działania promujące miejski rower [9]. W roku 2005 opracowana została i przyjęta Koncepcja Podstawowej Sieci Tras Rowerowych oraz Standardy Projektowe i Wykonawcze dla Systemu tras Rowerowych Miasta Wrocław, które świadczą o pierwszych krokach do uwzględnienia roweru jako środka transportu. Obecnie Wrocław posiada ponad 160 km dróg rowerowych. Rys. 1. prezentuje przyrost liczby km w latach. Rys. 1. Przyrost liczby kilometrów ścieżek rowerowych we Wrocławiu [10]. Pomimo dużej liczby w dalszym ciągu jest to jeszce układ niespójny. Wszystkie drogi rowerowe wybudowane w 2009 r. zostały głównie zrealizowane w ramach zadań inwestycyjnych obejmujących kompleksowe przebudowy dróg. Tylko 73 % ścieżek jest utwardzonych nawierzchnią asfaltową lub betonową, a projekty często realizują niewłaściwe rozwiązania techniczne czyniąć ścieżki niedogodnymi dla rowerzystów. Bardzo ważnym momentem dla rozwoju infrastruktury rowerowej Wrocławia było stworzenie nowego stanowiska oficera rowerowego w Urzędzie Miasta Wrocławia, które w 2007 r. objął Daniel Chojnacki. Zapoczątkowało to wiele pozytywnych przemian takich jak uchwalenie Polityki Rowerowej Wrocławia (Uchwała Nr LV/1688/10 Rady Miejskiej Wrocławia z dnia 14 października 2010 r.), która jest podstawowym dokumentem wspomagającym rozwój rowerowy we Wrocławiu. Zakłada ona osiągnięcie 10% udział ruchu rowerowego w liczbie podróży niepieszych do 2015 r. i dalszy wzrost do 15% do 2020 r. Zapewnienie wysokiej jakości życia w mieście i możliwości bezpiecznego i komfortowego podróżowania rowerem będzie sie odbywało pod hasłem Wrocław miasto przyjazne rowerzystom. Polityka zakłada także rozpowszechnianie bezpiecznego zachowania w ruchu u kierowców i rowerzystów, osiągnięcie spójności sieci, integracji z komunikacją zbiorową, budowę poparcia społecznego i działania promujące rower. Widoczne są już poważne zmiany w rejonie starego miasta gdzie zabierane są miejsca parkingowe samochodom na rzecz parkingów rowerowych. W całym mieście na ulicach jednokierunkowych powstają kontrapasy dla rowerów, tworzone są śluzy rowerowe i redukowane pasy samochodowe na rzecz dróg rowerowych jak to ma miejsce na ul. Kazimierza Wielkiego. Wrocław posiada bardzo korzystne uwarunkowania do spełnienia tych postulatów takie jak ciepły klimat, układ urbanistyczny, topografia terenu czy duża liczba młodych ludzi. Problemy miejskie w postaci korków, trudności z zaparkowaniem w rejonie centrum i sezonowych remontów są czynnikami wspomagającymi przesiadanie się na rower. Jednak powstające udogodnienia dla rowerzystów wiążą się z łączeniem strumienia samochodowego z rowerowym takie np. jak śluza rowerowa, która jest częścią pasa ruchu przeznaczoną do zatrzymywania się wyłącznie rowerów, zlokalizowana pomiędzy linią zatrzymań dla samochodów a skrzyżowaniem. Jej zadaniem jest 27

29 umożliwienie rowerzystom jako pierwszym ruszenie na zielonym świetle. A przecież czołowe miasta rowerowe dążą do segregacji ruchu rowerowego, która porwadzi do zwiększenia bezpieczeństwa. W trakcie realizacji jest także projekt roweru miejskiego zintegrowanego z kartą miejską Urban Card, składający się ze 140 rowerów i 17 stacji rowerowych zlokalizowanych w strategicznych punktach miasta. Jest to dość kontrowersyjny projekt ze względu na fakt, że Wrocław jeszcze nie posiada odpowiednio rozbudowanej infrastruktury rowerowej i pieniądze przeznaczone na jego realizację byłyby lepiej zagospodarowane w inny sposób. 5. Podsumowanie Wrocław ma duże szanse, aby stać się rowerowym miastem. Opisane powyżej przypadki wskazują na to, że pomimo wielu trudności jest to możliwe. Należy jednak pamiętać, aby konsekwentnie realizować cele polityki rowerowej i integrować ją z innymi miejskimi projektami. Kopenhaga i Amsterdam pomimo dużego udziału podróży rowerem kontynuują działania zachęcające do korzystania z roweru tworząc programy dedykowane konkretnym grupom społecznym i wprowadzają ulepszenia techniczne, aby ten udział był jeszcze większy. We Wrocławiu wciąż tworzone są nowe drogi rowerowe i ułatwienia dla rowerzystów. Brakuje natomiast kampanii promocyjnych i edukacyjnych skierowanych do mieszkańców, dla których nota bene są one tworzone. Podsumowując dodam, że należy jeździć na rowerze, ponieważ rowerzyści generuja większą liczbę rowerzystów dzięki czemu wzrasta poziom bezpieczeństwa na drogach. Literatura [1] C.R.O.W. oraz ZG PKE: Postaw na rower. Podręcznik projektowania przyjaznej dla rowerów infrastruktury. Kraków [2] City of Amsterdam: Choosing for the cyclist; Bicycle program Amsterdam [3] City of Copenhagen: Bicycle Account. Kopenhaga [4] City of Copenhagen: Bicycle Account. Kopenhaga [5] City of Copenhagen: Bicycle Account. Kopenhaga [6] City of Copenhagen: Cycle Policy Kopenhaga [7] Dutch Bicycling Council: Continuous and integral: The cycling policies of Groningen and other European cycling cities. Fietsberaad Publication 7. Amsterdam [8] Jan Gehl: Cities for People. Washington Covelo London [9] [10] COMPARISON OF TRENDS IN DEVELOPING CYCLE INFRASTRUCTURE IN WESTERN EUROPEAN CITIES WITH CYCLE INFRASTRUCTURE IN WROCLAW. Dutch and Holland cities during last four decades have developed cycling infrastructure and cycling culture on very high level. They are the best example for successful multi-modal transport coordination and theirs experiences show that cycling can thrive even when people can afford for their own car. Wroclaw have very short history with city cycling. First essential cycling program was in 1996 when city council decided to built 100 km of bike paths. It was an excellent idea but execution went very bad. Bicycle system wasn t coherent nor attractive. Since 2007 city gain new cycle officer that is responsible for coordination and developing proper city bicycle system. Since that moment Wrocław has became litte more friendly for cyclist. 28

30 Część II Nauki chemiczne 29

31 Izolacja i oczyszczanie bakteriofaga I11m oraz struktur zewnętrznych jego gospodarza Justyna Bazan 1, Andrzej Gamian 1,2 Streszczenie: Lipopolisacharydy (LPS) pełnią istotną rolę w adsorpcji bakteriofagów do komórek bakterii Gram-ujemnych. Ze względu na zróŝnicowanie łańcuchów polisacharydowych (O-antygen) wiele bakteriofagów infekuje tylko wybrany szczep bakteryjny. Celem przedstawionych badań było poznanie, izolacja i oczyszczenie struktur odpowiedzialnych za prawidłowy przebieg adsorpcji w układzie E.coli D fag I11m. Słowa kluczowe: bakteriofagi, E.coli, lipopolisacharyd, O-antygen, oczyszczanie 1. Wprowadzenie Bakteriofagi pojawiły się wcześniej niŝ organizmy eukariotyczne i stanowią najstarszą oraz bardzo liczną i zróŝnicowaną grupę wirusów [1]. Ilość wirusów na świecie szacuje się na z czego znaczną większość stanowią wirusy bakteryjne [2]. Bakteriofagi występują we wszystkich środowiskach, atakując ponad 140 rodzajów bakterii [1]. Wirusy te przystosowały się do istnienia nawet w najbardziej ekstremalnych warunkach atakując takie grupy ekstremofili jak barofile, halofile [13], acydo- i alkalifile, a takŝe wszelkiego rodzaju termo- i psychrofile [2]. Gospodarzami bakteriofagów są nie tylko mikroorganizmy w formie wegetatywnej, ale równieŝ egzo- i endospory, pączki, a takŝe wszystkie moŝliwe formy morfologiczne [1]. Adsorpcja wirusa do bakterii jest początkowym etapem w cyklu rozwojowym bakteriofagów i wymaga obecności na powierzchni komórki bakteryjnej odpowiednich receptorów dla adhezyn fagowych. Szybkość adsorpcji jest wprost proporcjonalna do stęŝenia zarówno wirusa jak i bakterii [4]. Fagi specyficzne względem bakterii Gram-ujemnych wykorzystują jako receptor LPS (główne i boczne łańcuchy) i białka błony zewnętrznej. Natomiast fagi specyficzne w stosunku do bakterii Gram-dodatnich korzystają m.in. z kompleksów kwasów tejchojowych i C-węglowodanów. TakŜe takie struktury jak rzęski i wici czy pilusy płciowe są rozpoznawane przez fagi [7]. Lipopolisacharyd (LPS, endotoksyna bakteryjna) to heteropolimer, główny składnik błony zewnętrznej prawie wszystkich bakterii Gram ujemnych. W jego budowie moŝna wyróŝnić trzy podstawowe elementy: lipid A, rdzeń (wewnętrzny i zewnętrzny) oraz O-antygen [9, 14]. 2. Materiały i Metody a) Szczep bakteryjny i bakteriofag. Szczep bakteryjny Escherichia coli D (PCM 2674) oraz bakteriofaga I11m otrzymano z kolekcji PCM znajdującej się w IITD PAN we Wrocławiu. 1 Katedra i Zakład Biochemii Lekarskiej Akademia Medyczna im. Piastów Śląskich we Wrocławiu 1, Chałubińskiego 10, Wrocław, bazan.justyna@gmail.com 2 Instytut Immunologii i Terapii Doświadczalnej PAN we Wrocławiu, Weigla 12, Wrocław 30

32 3. Wyniki b) Wykorzystywane podłoŝa. Wykorzystano następujące podłoŝa: bulion cukrowy, podłoŝe McConkey a oraz agarowe. c) Określanie miana. Ilościowe oznaczanie faga przeprowadzano metodę wg. Gratti. Ilość bakterii w roztworze określano metodą RTD (Routine Test Dilution) [5]. d) NamnaŜanie i oczyszczanie preparatu fagowego. Hodowlę bakterii o OD 600 =1, zakaŝano bakteriofagiem (1 MOI) i inkubowano z wytrząsaniem do momentu zakończenia lizy (OD 600 0). Dodano chloroform (0,1% (w/v)), a resztki bakteryjne zwirowano przy (5000xg, 20 min., 4 C). Preparat bakteriofagowy zagęszczano i oczyszczano metodą PDL [8] z uŝyciem membrany PLCHK 100 kda w zestawie z mini-podstawką Pellicon (Millipore). e) Izolacja struktur powierzchniowych bakterii. LPS izolowano metodą fenolową [15], a preparat oczyszczono przez kilkukrotne ultrawirowanie (100000x g, 5h). Czystość preparatu sprawdzano obserwując widmo w zakresie nm. f) Metody analityczne. Do analizy preparatów wykorzystano standardowe metody laboratoryjne. StęŜenie białka oznaczano metodą wg. Lowry ego [10], a DNA zmodyfikowaną metodą wg. Dischego [12]. SDS-PAGE wykonano wg. Laemmli ego [6]. LPS barwiono odczynnikiem srebrowym [11], natomiast białka barwiono Coomassie Brilliant Blue R-250 [3]. Do hodowli zawierającej 10 9 cfu/ml dodano bakteriofaga w stosunku ilościowym 1:1. NamnaŜanie bakteriofaga I11m przeprowadzono zgodnie z opisem. Lizę hodowli bakteryjnej monitorowano mierząc gęstość optyczną roztworu i przerwano przez dodanie chloroformu po 4 godz. od dodania faga. Otrzymano 8*10 13 pfu/ml (plaque forming unit). Oczyszczanie preparatu fagowego przeprowadzono zgodnie z metodą PDL. Wydajność tej metody dla faga I11m wyniosła 25% i pozwoliła na odmycie poŝywki, pozbycie się resztek bakteryjnych (większych od 0,22µm) oraz metabolitów bakterii o masie mniejszej niŝ 100 kda. W oczyszczonym preparacie fagowym oznaczono stęŝenie białka (0,15 mg/ml) oraz DNA (47 µg/ml), a preparat fagowy poddano analizie elektroforetycznej w warunkach denaturujących (rys. 1). Rys. 1. Elektroforogram białek faga I11m. Rys. 2. Elektroforogram LPS Escherichia coli D Większość białek badanego faga posiada masę cząsteczkową w granicach kda, białek mniejszych od 40 kda jest znacznie mniej, natomiast 3 białka mają masę większą od 93kDa. Preparat zawiera duŝe stęŝenie białka o masie ok. 15 kda oraz 47 kda. 31

33 W celu uzyskania czystego LPS bakterii E. coli D, ekstrahowano tę endotoksynę metodą fenolową zgodnie z opisem. Odwirowano i zliofilizowano uzyskaną wcześniej hodowlę bakteryjną. Uzyskane 4 g suchej masy bakteryjnej poddano ekstrakcji. Preparat po ekstrakcji oczyszczano 3-krotnie na ultrawirówce. Pozbyto się zanieczyszczeń absorbujących w zakresie nm, a LPS E. coli D analizowano elektroforetycznie w warunkach denaturujących SDS-PAGE i barwiono metodą z odczynnikiem srebrowym. Na przedstawionym elektroforogramie (rys. 2) moŝna zaobserwować duŝe pasmo szybko wędrującego LPS, w skład którego wchodzi lipid A i region Kdo. 4. Wnioski Wykorzystywana w badaniach metoda oczyszczania wirionów bakteriofagowych ma znaczenie w uzyskiwaniu duŝych ilości czystego preparatu. Jej zaletą jest łatwe przejście ze skali laboratoryjnej do przemysłowej. Znane i stosowane dotychczas metody są trudne do wykorzystania przy oczyszczaniu duŝych ilości lizatu głównie ze względu na występujące w nich etapy strącania bakteriofaga i wielokrotnego wirowania. Przykładowo stosując popularną metodę oczyszczania fagów przez strącanie PEG6000 i wirowanie w chlorku cezu w przypadku małych ilości lizatu moŝna uzyskać lepszą o ok. 15% wydajność oczyszczania, jednak preparat oczyszczony w ten sposób jest zanieczyszczony resztkami bakteryjnymi. Metoda ta nie daje tak dobrych rezultatów w przypadku większych objętości lizatu, a ilość oczyszczonego preparatu jest uwarunkowana pojemnością probówek wirówkowych. W zastosowanej metodzie PDL wykorzystując membrany o odpowiedniej powierzchni i wielkości porów, moŝliwe jest jednorazowe oczyszczenie od 100 ml to kilku tysięcy litrów lizatu. W wirionie fagowym najliczniej występują białka tworzące kapsyd (główkę) faga. W przypadku faga T4 białka te mają masę kda. Istniejące podobieństwa pomiędzy profilem białkowym faga I11m oraz faga T4, pozwalają przypuszczać, Ŝe białko faga I11m o masie 47 kda jest głównym składnikiem kapsydu. Określenie typu lipopolisacharydu jest pierwszym etapem w charakterystyce gospodarza, będącego szczepem klinicznym, wyizolowanym od pacjenta. Widoczna na elektroforogramie (rys. 2) wyraźna, rozbudowana drabinka, świadczy o duŝej ilości podjednostek oligosacharydowych w strukturze LPS. Wszystkie te dane jednoznacznie wskazują, Ŝe uzyskany z E. coli D LPS, jest lipopolisacharydem gładkim. Wyizolowanie i oczyszczenie bakteriofaga I11m oraz najbardziej zewnętrznej struktury jego gospodarza bakterii E.coli D pozwoli na dalszą charakterystykę tego układu oraz umoŝliwi ocenienie roli struktur błony zewnętrznej bakterii w adsorpcji bakteriofaga I11m. Przedstawione w tej pracy wyniki są źródłem istotnych informacji dotyczących niescharakteryzowanego jak dotąd bakteriofaga I11m, oraz jego gospodarza- klinicznego szczepu bakterii Escherichia coli. Literatura [1] H.W. Ackermann, Bacteriophage observations and evolution, Res Microbiol 154, , 2003 [2] M. Breitbart, F. Rohwer, Here a virus, there a virus, everywhere the same virus?, Trends Microbiol, 13(6), , 2005 [3] C. Fernandez-Patron i wsp., Double straining of Coomassie Blue-Stained polyacrylamide gels by imidazole-sodium dodecyl sulfate-zinc reverse staining: sensitive detection of Coomassie Blue-undetected proteins, Anal Biochem, 224, ,

34 [4] E. Jawetz i wsp., Przegląd mikrobiologii lekarskiej, Państwowy Zakład Wydawnictw Lekarskich, 1991 [5] M. Kańtoch, Wybrane zagadnienia z nauki o bakteriofagach, Post Hig Med Dośw, 10, 47-86, 1956 [6] U.K. Laemmli, Cleavage of structural proteins during the assembly of the head of bacteriophage T4, Nature, 227, , 1970 [7] A.A. Lindberg, Bacteriophage Receptors, Annu Rev Microbiol, 27, , 1973 [8] T. Lipiński, A. Gamian, E. Zuziak, A. Korzeniowska-Kowal, A. Górski Purified bacteriophage preparation the manner of obtaining it and application, Publication number Pl (A1), 2008 [9] J. Lodowska, i wsp. Metody derywatyzacji komponentów liposacharydów w ocenie ich struktury chemicznej technikami chromatograficznymi, Post Hig Med Dośw., 60, , 2006 [10] O.H. Lowry, i wsp. Protein measurement with the Follin phenol reagent, J Biol Chem, 193, , 1951 [11] C.R. Merril, i wsp. Trace polipeptydes in cellular extracts and human body fluids detected by two-dimensional electrophoresis and highly sensitive silver strain, Proc Natl Acad Sci USA, 76, , 1979 [12] L. Messineo, J. D'amico, A test for ribose determination without interference from deoxyribose, Int J Biochem, 3(15), , 1972 [13] K. Porter, B.E. Russ, M.L. Dyall-Smith, Virus host interactions in salt lakes, Curr Opin Microbiol 10, , 2007 [14] D. Tichaczek Goska,A. Cisowska, Wybrane właściwości lipopolisacharydów bakterii Gram ujemnych zawierających mannan w łańcuchu O swoistym, Adv Clin Exp Med, 16(1), , 2007 [15] O. Westphal, K. Jann, Bacterial lipopolysaccharides: extraction with phenol-water and further applications of the procedure, w R. Whistler (red.), Methods in carbohydrate chemistry, 5, Academic Press, Inc., New York, N.Y ISOLATION AND PURIFICATION OF BACTERIOPHAGE I11M AND ITS HOST CELL ENVELOPE STRUCTURES Bacterial endotoxin (LPS, lipopolysaccharide) are part of the outer membrane of the cell wall of Gram-negative bacteria. This structure play a very important role in phage-host adsorption. LPS is responsible for phage attachment to bacterial cell surface and for many bacteriophages it is also the main adsorption receptor. LPS consists of three components or regions: Lipid A, an core (R-polysaccharide) and an O-polysaccharide. Because great variation occurs in the composition of the sugars in the O-side chain between species and even strains of Gram-negative bacteria, many phages are able to infect only one specific bacteria strain, but there are also phages with wide range of virulence. The main aim of this work was isolation and purification of phages and bacterial endotoxins, which are responsible for adsorption of phage I11m to Escherichia coli strain D. In this study standard biochemical and microbiological protocols as well as novel purification methods were used. The large amount of bacterial lysate was purified using PDL method and the phage protein profile was obtained. Isolation and purification of lipopolysaccharide allowed to characterize this endotoxin components. This work was essential for adsorption studies for clinical bacteria strain E.coli and lytic phage I11m. 33

35 Zastosowanie i optymalizacja procesu wytwarzania inhibitorów korozji dla przemysłu motoryzacyjnego Ewa Chmielewska 1, Krzysztof Przygodzki 2 Streszczenie: Opracowanie zawiera zarówno charakterystykę związków fosforoorganicznych, a także opis wytworzenia bisfosfonianów jako środków przeciwkorozyjnych. Zawiera także propozycję optymalizacji stosowania preparatów chemicznych zawierających fosfoniany mających zastosowanie w przemyśle motoryzacyjnym i gospodarstwie domowym. Zastosowanie bisfosfonianów wpływa na obniżenie kosztów produkcji, a także obniżenie kosztów eksploatacyjnych, ponadto zapobiega rozwojowi życia biologicznego - alg, bakterii i mikroorganizmów oraz nie powoduje zanieczyszczenia środowiska i ulega rozkładowi. Słowa kluczowe: inhibitory korozji, fosfoniany, bisfosfonian, ochrona środowiska 1. Wprowadzenie 1.1. Kwasy organofosfonowe Substancje określane jako kwasy organofosfonowe są pochodnymi kwasu fosfonowego H 3 PO 3 zawierającymi w strukturze węgiel organiczny oraz szereg podstawników, ostatecznie wpływających na właściwości danego kwasu. Zależnie od tego, jaki kwas organofosfonowy jest potrzebny, wybrany zostaje bieg reakcji chemicznej. Istnieje możliwość wytworzenia bardzo wielu kwasów organofosfonowych. Na rynku jest ich kilkadziesiąt, jednak najczęściej spotykanymi są kwas 1-hydroksyetano-1,1-difosfonowy oraz kwas 2-fosfonobutano-1,2,4-trikarboksylowy. Nierzadko spotykane są także: kwas etylenodiaminotetrametyleno-fosfonowy, kwas dietylenotriaminopentametylenofosfonowy, kwas amino-tri(metylenofosfonowy). Obok tych kwasów w sprzedaży istnieją także sole tych kwasów. Stosowane są one w preparatach o odczynie alkalicznym. Najczęściej jednak są sprzedawane w formie niezobojętnionej, jako kwasy, ponieważ umożliwia to ich łatwe zastosowanie w preparatach kwaśnych, często o bardzo niskim ph. Ponadto forma niezobojętniona daje producentom szersze możliwości użycia tego samego surowca: w formie kwasu do preparatów kwaśnych lub stworzenia z tego surowca w wytwórni żądanej soli, na przykład sodowej czy potasowej. Jest to istotne gdy produkuje się kilka preparatów o skrajnie różnym ph czy różnym składzie elektrolitów w recepturze. Kwasy organofosfonowe stosunkowo łatwo wprowadzają się do formułowanych preparatów. Ich rozcieńczanie czy zobojętnianie przebiega bez większych utrudnień i nie wymaga wysoce specjalistycznej aparatury. Dla porównania, niektóre powszechnie znane i stosowane substancje jak np. metakrzemian sodu, w niektórych przypadkach znacznie trudniej jest wprowadzić do formulacji niż najczęściej stosowane kwasy organofosfonowe. Związki fosforoorganiczne posiadają niezwykle szerokie spektrum aplikacji. Struktury te, ze względu na budowę, obecność połączenia węgiel-fosfor i właściwości, jakie wynikają z obecności tego fragmentu, mają zastosowanie w syntezie chemicznej, odgrywają ważną rolę w regulacji procesów biologicznych oraz mogą być użyteczne w różnych gałęziach przemysłu. 1 Politechnika Wrocławska, Wydział Chemiczny, Zakład Chemii Bioorganicznej, Wybrzeże Wyspiańskiego 27, Wrocław, ewa.chmielewska@pwr.wroc.pl 2 Zakład Syntezy Organicznej Synpeko Spółka Jawna, ul. Stawowa 75-77, Dobrzykowice, k.przygodzki@synpeko.pl 34

36 1.2. Czynniki chelatujace Struktury fosforoorganiczne są interesujące również jako czynniki chelatujące, a to ze względu na dobre właściwości kompleksujące np. jony metali. Te cechy pozwalają im mieć szerokie zastosowanie w przemyśle, jako dodatki do proszków do prania, czy też inhibitory korozji i kamienia kotłowego [3,5,9,12]. Woda stanowi uniwersalne medium chłodzące, które wykorzystywane jest w przemyśle na szeroką skalę. Jej użyteczność wynika głownie z jej niskiego kosztu idącego w parze z dużą wydajnością. Wysoką sprawność wodnych systemów chłodzących zakłócają jednak nieodłącznie związane z nimi procesy, takie jak wytrącanie i osadzanie się słabo rozpuszczalnych soli z przesyconego roztworu strumienia wody. Sposobem radzenia sobie z tymi procesami jest stosowanie odpowiednich dodatków, zwanych inhibitorami kamienia kotłowego lub też środkami antykorozyjnymi. Bardzo dużą rodzinę takich substancji stanowią związki fosforoorganiczne, których aplikowanie stało się rzeczą powszechną. Jednymi z popularniejszych inhibitorów stosowanych w przemyśle są: aminotrimetylenofosfonian (ATMP) oraz hydroksyetylidenobisfosfonian (HEDP) [5,13] (Rys. 1). OH H 2 O 3 P PO 3 H 2 H 2 O 3 P N PO 3 H 2 H 2 O 3 P PO 3 H 2 N N PO 3 H 2 PO 3 H 2 H 2 O 3 P HEDP ATMP Rys. 1. Struktura wybranych związków chelatujących. EDTMPA Aminometylenofosfoniany, które zawierają ugrupowanie N-CH 2 -PO 3 H 2 w cząsteczce, są szczególnie użyteczne przy kontrolowaniu powstawania kamienia kotłowego czy też korozji [4,9,12]. ATMP jest jednym z popularniejszych aminometylofosfonianów, który jest wykorzystywany do tych celów [3]. Jedną z jego zalet jest trwałość i odporność na warunki panujące w systemach wodnych. Jego działanie polega na adsorbowaniu się na powierzchni kryształu trudno rozpuszczalnej soli, dzięki czemu zatrzymuje jego wzrost. Podobnie działa EDTMPA (kwas etylenodiaminotetra(metylenofosfonowy) lub sól Ca/Na). Związek ten, podobnie jak ATMP, ma również zastosowanie jako inhibitor korozji w wodnych systemach chłodzących oraz tzw. boilerach, jednakże większą rolę odgrywa jako dodatek do detergentów. Kolejnym przykładem związku fosforoorganicznego, który posiada dobre właściwości kompleksujące jest kwas etidronowy (HEDP) (Rys. 1), znany również pod nazwą handlową jako Dequest Tworzy kompleksy z wapniem, żelazem i innymi jonami metali, lecz przede wszystkim jest rewelacyjnym inhibitorem kamienia kotłowego, powstałego przez osadzanie się węglanu wapnia oraz posiada właściwości zapobiegające tworzeniu się korozji na warstwach stalowych. 2. Badania 2.1.Bisfosfoniany Bisfosfoniany są doskonałymi preparatami chroniącym przed korozją i posiadającym dobre właściwości stabilizacji twardości. Ich stosowanie zapobiega powstawaniu twardych osadów i szlamów w układach wodnych oraz ogranicza negatywny wpływ twardości wody na eksploatację rurociągów, wymienników ciepła, mokrych elektrofiltrów i innych układów. Bisfosfoniany 35

37 skutecznie chronią przed korozją. Zastępują one wcześniej używane nieorganiczne fosforany ze względu na większą stabilność, mniejszą podatność na hydrolizę oraz zmiany ph i temperatury [7]. Bisfosfoniany są syntetycznymi analogami naturalnie występujących pirofosforanów, posiadającymi zamiast układu wiązań P-O-P (fosfor-tlen-fosfor), układ wiązań P-C-P (fosforwęgiel-fosfor) [10] (Rys. 2). HO O P O P OH O OH OH HO R 1 O O OH P P R 2 OH OH R 1 = H, OH, alkil, aryl R 2 = H, alkil, aryl Rys. 2. Wzory strukturalne kwasów: pirofosforowego (a) i gem-bisfosfonowego (b). Bisfosfoniany zostały otrzymane po raz pierwszy przez Von Baeyera i Hofmanna w 1897 i są znanymi czynnikami chelatującymi, podobnymi w działaniu do NTA lub EDTA. Obecnie bisfosfoniany są otrzymywane w wyniku trójskładnikowej reakcji kondensacji: ortomrówczanu trialkilowego, fosforynu dialkilowego i odpowiedniej aminy (I- lub II-rzędowej). Wykorzystana reakcja nie wymaga stosowania silnie toksycznych substratów ani drastycznych warunków reakcji. Syntezę tą drogą opisał jako pierwszy Maier [8], a udoskonalił później Ebetino [6]. Ogólna metoda syntezy wytwarzania nowych pochodnych kwasu aminometylenobisfosfonowego poprzez trójskładnikową kondensację została również opatentowana [11]. Ogólny schemat tej syntezy przedstawia Rys. 3. H N R R 1 HP(O)(OEt) 2 HC(OEt) 3 (EtO) 2 (O)P P(O)(OEt) 2 R 1 N R H 2 O/HCl (HO) 2 (O)P P(O)(OH) 2 N R R 1 Rys. 3. Synteza estrów i kwasów aminometylenobisfosfonowych Zdolność kompleksowania Jedną z kilku najważniejszych własności pochodnych kwasów fosforoorganicznych jest kompleksowanie jonów powodujących twardość wody. Regułą jest, że im mniej jonów powodujących twardość wody pozostaje nieskompleksowanych w roztworze, tym lepsze zdolności kompleksujące przejawia użyta substancja. Pochodne organofosfonowe, obecne na przykład w roztworze alkalicznego środka odtłuszczającego, mają daleko większą zdolność kompleksowania jonów powodujących twardość wody niż stosowany wcześniej trójpolifosforan sodowy. Ze zdolnością kompleksowania powiązana jest zdolność pochodnych organofosfonowych do ochrony przed osadzaniem się osadów mineralnych na powierzchni, nawet w przypadku, gdy ph roztworu myjącego jest bardzo wysokie i temperatura mycia także jest wysoka. Co więcej, już przy stężeniach fosfonianów daleko niższych niż byłoby to potrzebne, aby chemicznie związać jony powodujące twardość, proces nawarstwiania się osadów mineralnych zostaje zahamowany. Wystarcza stężenie rzędu kilku ppm. Kryształy węglanów czy siarczanów wapnia, osady tlenków żelaza albo krzemianów wapnia czy baru tracą możliwości niezakłóconego narastania Zdolność dyspergowania Niesłychanie ważną i wysoce korzystną cechą fosfonianów jest możliwość dyspergowania oderwanych od powierzchni zanieczyszczeń. Bardzo wygodnym jest, jeśli kompleksor może być 36

38 jednocześnie dyspergatorem. Jeden produkt w recepturze staje się wówczas zbędny. Fosfoniany wykazują dobrą zdolność dyspergowania oderwanych od powierzchni zanieczyszczeń pochodzenia organicznego i nieorganicznego, stąd uzasadnione jest ich zastosowanie we wszelkiego rodzaju preparatach służących do mycia albo prania w obiegu zamkniętym. Począwszy od alkalicznych preparatów myjących, poprzez preparaty uzdatniające do obiegów wody chłodzącej, na proszkach do prania skończywszy, wszędzie tam w trakcie stosowania preparatów konieczne jest skuteczne zawieszenie oderwanych od powierzchni zanieczyszczeń. Obecność fosfonianów pozwala uzyskać dobre efekty zawieszania zanieczyszczeń, ograniczając obecność dodatkowych substancji dodawanych tylko w tym celu. Formulacje mogą więc być znacznie uszczuplone o takie substancje jak karboksymetyloceluloza, poliakrylany czy też metakrzemiany Ochrona przed korozją Zdolność znacznego opóźniania korozji powierzchni metali jest niezwykle cenna dla producentów preparatów chemicznych oraz ich użytkowników. Każda technologia, zarówno w zakresie wyrobów chemii gospodarczej czy przemysłowej, niesie z sobą problem zużycia urządzeń produkcyjnych w wyniku ich korodowania. Niezależnie od tego, z jakich metali wykonane są części urządzeń, prędzej czy później ulegają procesom korozyjnym. Im później, tym lepiej, tym mniejsze koszty ponosi się na remont linii technologicznych. Efekt taki można osiągnąć nie tylko poprzez regularną konserwację urządzeń, ale także przez taki dobór surowców, aby jak najmniej niszczyły one urządzenia nie zubażając przy tym własności wytwarzanego produktu, a czasem wręcz uwydatniając jego cechy. Zastosowanie pochodnych organofosfonowych stwarza możliwości uzyskiwania takich efektów. Jeszcze ważniejsze jest jednak uzyskanie takiego produktu, aby jak najmniejszej korozji ulegała powierzchnia poddana jego działaniu. Fosfoniany obecne w wytwarzanych produktach w ilości już tak niewielkiej jak kilka miligramów w litrze, zdolne są do utworzenia na powierzchni metali swoistej powłoki chroniącej przed korozją. Szczególnie sole cynkowe kwasów organofosfonowych w odpowiednich formulacjach mogą skutecznie ochronić przed korozją miedź i jej stopy, aluminium oraz stal czarną. Zastosowanie kwasów fosfonowych, w szczególności kwasu 1-hydroksyetano-1,1-difosfonowego w kombinacji z kwasami zdolnymi do reakcji redoks daje jeszcze szersze możliwości niż tylko ochrona przed korozją. Możliwe jest zbudowanie na tej bazie także preparatów usuwających rdzę. Poprzez częściowe rozpuszczenie i przetransformowanie rdzy efekty działania takich preparatów są widoczne dość szybko Zastosowanie w preparatach czyszczących Wszystkie wymienione własności kwasów fosfonoorganicznych i ich soli mogą być i są wykorzystane z powodzeniem w produktach chemii gospodarczej. W szczególności wykorzystuje się tu ich zdolność zapobiegania tworzenia się nalotów i osadów z kamienia oraz skuteczne hamowanie procesów korozyjnych. Zawartość pochodnych organofosfonowych w formulacjach nie jest wysoka, ale z powodzeniem wystarczy do uzyskania dobrze działających preparatów. W przypadku preparatów czyszczących przeznaczonych do zastosowań profesjonalnych, zazwyczaj dodawane są nieco większe ilości fosfonianów, choćby ze względu na większe obciążenie powierzchni zanieczyszczeniami, wyższe stężenie preparatów, a czasem też wykorzystanie fosfonianów jako elektrolitów wraz z wodorotlenkami ustalającymi ph roztworów myjących. 3. Analityka i skuteczność Bisfosfoniany posiadają doskonałe właściwości stabilizacji twardości, skutecznie działają jako inhibitory korozji i substancje rozpraszające - dyspergent. W czasie długotrwałego obiegu 37

39 wody w układzie chłodniczym skutecznie ograniczają powstawanie różnego rodzaju osadów i gwarantują dobrą wymianę ciepła w urządzeniach. Po przekroczeniu progu stabilizacji wody nie powodują powstawania twardych osadów, szczególnie amorficznych i drobnokrystalicznych. Silne właściwości stabilizacji twardości (nawet w ekstremalnie twardej wodzie - do 70 o dh) osiągane są w zakresie ph 6,0 10,0, na które nie ma wpływu hydroliza. Bardzo duży wpływ na wielkość dozowania ma odczyn ph wody, jej twardość węglanowa i obciążenie termodynamiczne układu (warunki eksploatacji). Minimalna dawka wynosi 3,0 g/m 3. W większości układów dozuje się od 3,0 do 10,0 g/m Perspektywy W czasach, gdy wywierane są coraz większe naciski ze strony instytucji państwowych na stosowanie coraz to bezpieczniejszych dla środowiska i zdrowia człowieka substancji chemicznych, potrzebne jest poszukiwanie nowych rozwiązań, nie mniej skutecznych i nie droższych niż dotychczas stosowane. Powszechnie znany i stosowany NTA, mimo wielu zalet, swoje najlepsze dni ma już za sobą. Jego rakotwórcze działanie nie przysporzy mu entuzjastów. Z kolei EDTA, chyba najpowszechniej stosowany, nie może poszczycić się dobrą biodegradowalnością. Polifosforany, oprócz znakomitych zdolności usuwania zanieczyszczeń, są jednocześnie nawozem dla organizmów bytujących w wodzie i rozwijających się w sposób niekontrolowany, np. alg. Pochodne organofosfonowe wobec tych kryteriów są substancjami, dla których otwiera się coraz więcej miejsca na rynku. Brak doniesień o bioakumulacji w środowisku, niska toksyczność dla organizmów wodnych oraz bytujących w glebie, biodegradowalność w dłuższym okresie czasu (okres połowicznego rozpadu wynosi kilkadziesiąt dni), to cechy które są oczekiwane od substancji chemicznych towarzyszących człowiekowi w XXI wieku. Zastosowanie nowych pochodnych organofosfonowych zyskało szansę na stworzenie środków czyszczących, często o zupełnie nowych właściwościach, bez podnoszenia kosztów ich wytworzenia. Klienci używający takich produktów poprzez swoje zadowolenie stają się klientami lojalnymi, co jest ogromną wartością dla każdego producenta obecnego na silnie konkurencyjnym rynku. 5. Podsumowanie W pracy zaprezentowano metodę syntezy kwasów bisfosfonowych, które ze względu na swoją budowę, mogą mieć zastosowanie jako czynniki chelatujące. Związki zawierające grupy fosfonometyloaminowe (N-CH 2 P(O)(OH) 2 ) znane są od lat pięćdziesiątych XX wieku jako efektywne kompleksony jonów metali [1,2] i są używane jako inhibitory korozji na skalę przemysłową. Współczesnym przykładem jest otrzymanie pochodnych kwasu bis(aminometyleno)fosfonowego, stanowiących silne chelatory. Rosnąca sprzedaż pochodnych organofosfonowych jest dowodem wzrostu ich popularności, jednakże szereg korzystnych, czasem wręcz rzadko spotykanych właściwości tych kwasów pozwala na znacznie szersze ich zastosowanie, niż ma to miejsce obecnie. Zastosowanie bisfosfonianów w wytwarzanych przez firmę preparatach myjących wpływa na obniżenie kosztów produkcji, a także obniża koszty eksploatacyjne eliminując straty cieplne powodowane odkładaniem się kamienia kotłowego, produktów korozji oraz szlamów. Ponadto zapobiega rozwojowi życia biologicznego - alg, bakterii i mikroorganizmów oraz nie powoduje zanieczyszczenia środowiska i ulega rozkładowi. Literatura [1] C. V. Banks, R. E. Yerick, Chelating properties of N,N,N,N-tetrakis-(phosphonomethyl)-1,2- cyclohexanediamine. Anal. Chim. Acta 1959, 20,

40 [2] F. C. Bersworth, Alkylene polyamine methylene phosphonic acids. US Patent , 1952, Chem. Abstr. 1953, 47, 4360b. [3] K. D. Demadis, S. D. Katarachia, Metal-Phosphonate Chemistry: Preparation, Crystal Structure of Calcium-Amino-tris-Methylene Phosphonate and CaCO 3 Inhibition. Phosphorus, Sulfur and Silicon 2004, 179, 627. [4] K. D. Demadis, S. D. Katarachia, M. Koutmos, Crystal Growth and Characterization of Zinc (amino-tris-(methylenephosphonate)) Organic Inorganic Hybrid Networks and Their Inhibiting Effect on Metallic Corrosion. Inorg. Chem. Comm. 2005, 8, 254. [5] K. D. Demadis, A. Ketsetzi, Degradation of Water Treatment Chemical Additives in the Presence of Oxidizing Biocides: "Collateral Damages" in Industrial Water Systems. Sep. Sci. Tech. 2007, 42, [6] F. H. Ebetino, L. A. Jamieson, The design and synthesis of bone-active phosphinic acid analogues: 1. The pyridylaminomethane phosphonoalkylphosphinates. Phosphorus, Sulfur and Silicon 1990, 51/52, 23. [7] E. Kalman, Editorial, Trends in corrosion research. Electrochim. Acta, 2001, 46, [8] L. Maier, Organische phosphorverbindungen 75: Herstellung und Eigenschaften von Aminomethylendiphosphinaten und -diphosphonaten, RR 1 NCH[P(O)R 2 (OR 3 )] 2 und Derivaten.. Phosphorus, Sulfur and Silicon 1981, 11, 311. [9] A. T. Kan, G. Fu, M. B. Tomson, Adsorption and precipitation of an aminoalkylphosphonate onto calcite. J. Coll. Int. Sci. 2005, 281, 275. [10] M. J. Rogers, New insights into the molecular mechanisms of action of bisphosphonates. Curr. Pharm. Res., 2003, 9, [11] J. Sołoducho, R. Gancarz, P. Wieczorek, J. Korf, J.Hafner, B. Lejczak, P. Kafarski, Sposób wytwarzania nowych pochodnych kwasu aminometylenobisfosfonowego. PL Pat. No B [12] F. M. Sweeney, S. D. Cooper, Society of Petroleum Engineers International Symposium on Oilfield Chemistry, New Orleans, Louisiana 1993, paper SPE "Publikacja jest efektem realizacji stażu w projekcie Zielony Transfer współfinansowanego ze środków Unii Europejskiej w ramach Europejskiego Funduszu Społecznego, Poddziałania Wsparcie dla współpracy sfery nauki i przedsiębiorstw". APPLICATION AND OPTIMISATION OF PROCESSING OF FORMATION PHOSPONATES AS CORROSION INHIBITORS FOR AUTOMOTIVE INDUSTRY A corrosion inhibitor is a chemical compound that, when added to a liquid or gas, decreases the corrosion rate of a material, typically a metal or an alloy. The effectiveness, or corrosion inhibition efficiency, of a corrosion inhibitor is a function of many factors, including but not limited to: fluid composition, quantity of water, and flow regime. If the correct inhibitor and quantity is selected then it is possible to achieve high, 90-99%, efficiency. Some of the mechanisms of its effect are formation of a passivation layer, that is a thin film on the surface of the material that stops access of the corrosive substance to the metal, inhibiting either the oxidation or reduction part of the redox corrosion system (anodic and cathodic inhibitors), or scavenging the dissolved oxygen. One of the corrosion inhibitors are phosphates and bisphosphonates. Bisphosphonates are nonhydrolyzable analogs of pyrophosphate that contain stable P-C-P bonds rather than labile P-O-P bonds. The simplest procedure for preparation of aminomethylenebisphosphonates relays on threecomponent reaction between primary or secondary amine, triethyl orthoformate and diethyl phosphite, followed by acid hydrolysis. The suitability of any given chemical for a task in hand depends on many factors, from the material of the system they have to act in, to the nature of the substances they are added into and their operating temperature. 39

41 Związek między przewodnictwem elektrycznym fazy stałej, ciepłem molowym i strukturą krystaliczną związków M 3 LnX 6 Ida Chojnacka 1, Leszek Rycerz 1 Streszczenie: Zmierzono ciepła molowe oraz przewodnictwo elektryczne związków M 3 LnX 6. Na tej podstawie dokonano ich podziału na dwie grupy: grupę związków mających wyłącznie odmianę wysokotemperaturową o strukturze elpasolitu, i grupę związków mających zarówno odmianę wysokotemperaturową, jak i odmianę niskotemperaturową o strukturze jednoskośnej. Stwierdzono występowanie w badanych związkach zaniku uporządkowania podsieci kationowej tworzonej przez jony litowca. Słowa kluczowe: związki M 3 LnX 6, ciepło molowe, przewodnictwo elektryczne 1. Wprowadzenie Układy dwuskładnikowe halogenki lantanowców(iii) halogenki litowców są niezwykle interesujące zarówno z czysto naukowego punktu widzenia, jak i ze względu na ich szerokie wykorzystanie w wielu nowoczesnych technologiach. Znajdują zastosowanie między innymi do otrzymywania metalicznych lantanowców i ich stopów, przeróbki odpadów nuklearnych i zużytego paliwa jądrowego, czy też do produkcji wysokociśnieniowych lamp halogenowych. Cechą charakterystyczną układów LnX 3 MX (Ln = lantanowiec, M = litowiec, X = halogenek) jest występowanie w nich związków o różnej stechiometrii (np. M 3 LnX 6, M 2 LnX 5, MLn 2 X 7 ). W większości układów zawierających KX, RbX i CsX występuje kongruentnie topiący się M 3 LnX 6 (3:1), który wykazuje największą stabilność w porównaniu do związków o innej stechiometrii. 2. Wyniki Szereg związków M 3 LnX 6 zbadano za pomocą różnicowego kalorymetru skaningowego (DSC). Wyznaczono ich temperatury oraz entalpie przemian fazowych [1]. Następnie wykonano pomiary ich ciepła molowego w fazie stałej oraz ciekłej. Do opisu zależności ciepła molowego (J mol -1 K -1 ) od temperatury zastosowano wielomian C p (J mol -1 K -1 ) = A + BT + CT 2 + DT -2 (1) Następnie wykonano pomiary przewodnictwa elektrycznego fazy stałej omawianych związków. Porównanie ciepła molowego i przewodnictwa elektrycznego w funkcji temperatury dla wybranych układów przedstawiono na rysunkach 1 i 2. Tworzenie związku K 3 NdCl 6 widoczne na wykresie (rys. 1) ciepła molowego doskonale pokrywa się ze skokowym wzrostem przewodnictwa elektrycznego. W temperaturze około 100 K powyżej T tworz obserwuje się kolejny, chociaż znacznie mniejszy skok przewodnictwa fazy stałej (w innych przypadkach może to być jedynie załamanie na krzywej). Sądzono, że jest on spowodowany nieznacznym odchyleniem badanych związków od stechiometrii, jednak stwierdzono, że pokrywa się z minimum ciepła molowego K 3 NdCl 6. Ostatni efekt obserwowany na obu krzywych, to topnienie badanego związku, z wyraźnie widocznym procesem przedtopnienia. 1 Zakład Metalurgii Chemicznej Politechniki Wrocławskiej, ul. Smoluchowskiego 23, Wrocław, ida.chojnacka@pwr.wroc.pl. 40

42 C p / J mol -1 K T top 250 T tworz T / K log / S m -1 Rys. 1. Zależność ciepła molowego (kółka) i przewodnictwa elektrycznego (kółka wypełnione i linia) K 3 NdCl 6 od temperatury [1] Opisane na przykładzie K 3 NdCl 6 zależności temperaturowe ciepła molowego związków M 3 LnX 6 związane są z ich strukturą krystaliczna. Tworzą się one w podwyższonych temperaturach w reakcji związków M 2 LnX 5 o strukturze typu K 2 PrCl 5 (Pnma, Z = 4) z MX. Reakcja tworzenia związana jest ze zmianą struktury krystalicznej (przemiana fazowa z głęboką przebudową struktury), a efektem jest powstawanie związków M 3 LnX 6 o strukturze regularnej typu elpasolitu (Fm3m, Z = 4). Podczas chłodzenia ulegają one rozkładowi do substancji wyjściowych C p / J mol -1 K -1 log / S m T top T tworz? T przem T / K Rys. 2. Zależność ciepła molowego (kółka) i przewodnictwa elektrycznego (linia) K 3 TbBr 6 od temperatury [1] 41

43 W przypadku m.in. K 3 TbBr 6 sytuacja jest nieco inna (rys. 2). Związek ten ma odmianę wysokotemperaturową o strukturze elpasolitu i odmianę niskotemperaturową o strukturze jednoskośnej typu Cs 3 BiCl 6 (C2/c, Z = 8), a przejście z jednej struktury do drugiej jest przemianą fazową bez głębokiej przebudowy struktury. Odmiana niskotemperaturowa nie ulega rozkładowi do K 2 TbBr 6 i KBr podczas chłodzenia i w temperaturze pokojowej istnieje w postaci fazy metastabilnej. Wyraźnie widoczny skok przewodnictwa elektrycznego fazy stałej odpowiada przemianie fazowej odmiana niskotemperaturowa odmiana wysokotemperaturowa. Często na krzywej występuje dodatkowy efekt (załamanie) w temperaturze odpowiadającej minimum na krzywych temperaturowej zależności ciepła molowego. 3. Podsumowanie Wszystkie związki M 3 LnX 6 można podzielić na dwie grupy. Pierwsza z nich (m.in. K 3 CeCl 6, K 3 PrCl 6, K 3 NdCl 6, Rb 3 LaCl 6, K 3 NdBr 6, Rb 3 LaBr 6 ) to związki mające wyłącznie odmianę wysokotemperaturową o strukturze regularnej typu elpasolitu, których tworzenie przebiega w podwyższonych temperaturach z M 2 LnX 5 oraz MX i jest przemianą fazową z głęboką przebudową struktury. Związki należące do drugiej grupy (m.in. K 3 TbCl 6, Rb 3 CeCl 6, Rb 3 PrCl 6, Rb 3 NdCl 6, Rb 3 TbCl 6, Rb 3 NdBr 6, K 3 TbBr 6, Rb 3 TbBr 6, Rb 3 NdI 6 i wszystkie związki Cs 3 LnX 6 ) mają zarówno odmianę wysokotemperaturową o strukturze elpasolitu, jak i odmianę niskotemperaturową o strukturze jednoskośnej typu Cs 3 BiCl 6, a przejście jednej odmiany w drugą jest przemianą fazową bez głębokiej przebudowy struktury. Dwa spośród badanych związków jodkowych (K 3 NdI 6, Rb 3 LaI 6 ) mają cechy zarówno grupy pierwszej (tworzenie się w podwyższonych temperaturach), jak i grupy drugiej ( mają odmianę nisko- i wysokotemperaturową). Temu podziałowi odpowiada charakterystyczna zależność ciepła molowego od temperatury. W pierwszej grupie związków mamy do czynienia monotonicznym wzrostem C p ze wzrostem temperatury, aż do osiągnięcia T tworz związku M 3 LnX 6. Następnie ciepło molowe maleje ze wzrostem temperatury, aż do osiągnięcia minimum w temperaturze około K powyżej T tworz. Druga grupa charakteryzuje się zdecydowanie nienaturalnie wysokim wzrostem ciepła molowego dla odmiany niskotemperaturowej. Na wzrost ten nakłada się przemiana fazowa pierwszego rodzaju (odmiana niskotemperaturowa odmiana wysokotemperaturowa). Następnie C p odmiany wysokotemperaturowej maleje, aż do osiągnięcia minimum w temperaturze około K powyżej T tworz, analogicznie jak dla pierwszej grupy związków. Zmiany przewodnictwa elektrycznego wynikają ze stopniowo przebiegającego zaniku uporządkowania w jednej z podsieci jonowych (w przypadku związków M 3 LnX 6 - tworzonej przez jony litowca) co powoduje sukcesywny wzrost liczby nośników ładunku elektrycznego. O Keeffe i Hyde [2] nazywają ten typ przemiany stopniową przemianą porządek-nieporządek. Dla odmiany wysokotemperaturowej związków M 3 LnX 6 (o strukturze elpasolitu) poprawy wzór powinien mieć postać M 2 M LnX 6. Jony lantanowca znajdują się w otoczeniu sześciu jonów chlorowca tworząc oktaedry (LnX 6 ). 1/3 jonów metalu alkalicznego (M ) zajmuje luki oktaedryczne a pozostałe 2/3 jonów metalu alkalicznego (M) zajmują luki tetraedryczne utworzone przez ciasno upakowane oktaedry (LnX 6 ). Tak więc każdy z jonów M znajduje się w otoczeniu sześciu, a każdy z jonów M w otoczeniu dwunastu jonów chlorowca. W niskich temperaturach oktaedry (LnX 6 ) ulegają deformacji i rotacji, która powoduje zmniejszenie liczby koordynacji jonów M i M odpowiednio do 11 i 8. Zanik uporządkowania podsieci kationowej w grupie związków M 3 LnX 6 mających jedynie odmianę wysokotemperaturową następuje w sposób nieciągły. Skokowy wzrost przewodnictwa elektrycznego w temperaturze tworzenia związków (T tworz ) związany jest z pojawieniem się możliwości migracji jonów metalu alkalicznego, będących nośnikami ładunku elektrycznego, w przestrzeni komórki elementarnej. Dodatkowy skokowy wzrost przewodnictwa elektrycznego 42

44 (lub załamanie) odmiany wysokotemperaturowej omawianych związków, następujący w temperaturze odpowiadającej minimum na krzywej ciepła właściwego może być przypisany stanowi kompletnego strukturalnego nieporządku. W drugiej grupie związków M 3 LnX 6 zanik uporządkowania podsieci kationowej tworzonej przez jony metalu alkalicznego następuje w sposób ciągły. Rozpoczyna się on już w odmianie niskotemperaturowej w temperaturze znacznie niższej od temperatury przemiany fazowej, o czym świadczy nienaturalny wzrost ciepła molowego ze wzrostem temperatury, i kończy w odmianie wysokotemperaturowej. Literatura [1] Leszek Rycerz, Termochemia halogenków lantanowców i związków tworzących się w układach halogenki lantanowców halogenki litowców, Oficyna Wydawnicza Politechniki Wrocławskiej, Wrocław [2] M. O Keeffe, B.G. Hyde, Phil Mag., 33 (1976) 219. CORREATION BETWEEN ELECTRICAL CONDUCTIVITY OF SOLID PHASE, HEAT CAPACITY AND THE CRYSTAL STRUCTURE OF M 3 LNX 6 COMPOUNDS Heat capacity and electrical conductivity have been determined for M 3 LnX 6 compounds that are formed in LnX 3 -MX binary systems (Ln = lanthanide; M = alkali metal; X = halide). These compounds can be divided into two groups. Compounds having only a high-temperature modification (of cubic, elpasolite-type crystal structure). They are form at elevated temperatures, and their formation is a reconstructive phase transition. The compounds of the second group have both high-temperature modification (of cubic, elpasolite-type crystal structure), and lowtemperature modification (monoclic, Cs 3 BiCl 6 -type crystal structure). Transition from the low- to high-temperature modification is a non-reconstructive phase transition. The specific behaviour of the relationships: molar heat capacity temperature, and electrical conductivity of a solid phase temperature for the M 3 LnX 6 compounds is most likely connected with a disordering of cationic sublattice formed by alkali metal ions. 43

45 Zastosowanie modelowych glicylowanych i fosforylowanych struktur węglowodanowych w badaniach biologicznych dotyczących poszukiwania wspólnych epitopów występujących w lipopolisacharydach bakterii Gram-ujemnych Katarzyna Dzierzba 1, Jadwiga Pietkiewicz 1, Gabriela Pastuch-Gawołek 2, Andrzej Gamian 1,3 Streszczenie: Liczne doniesienia dowodzą, że lipopolisacharydowe struktury bakteryjne zawierają kwaso- i alkalilabilne elementy niecukrowe, np.: glicynę oraz fosforany jako podstawniki reszt hydroksylowych cukrów. Metody ich lokalizacji i określanie ich funkcji są trudne, dlatego w badaniach własnych wykorzystywane są syntetyczne cukrowe związki modelowe imitujące naturalny epitop glicylowy, uważany za powszechnie występujący w szczepach bakteryjnych odpowiedzialnych za rozwój posocznicy. Słowa kluczowe: sepsa, posocznica, epitop glicylowy, syntetyczne glikokoniugaty 1. Epidemiologia posocznicy Posocznica zwana potocznie sepsą jest zespołem bardzo poważnych objawów chorobowych będących odpowiedzią na czynnik infekcyjny, zwykle pochodzenia bakteryjnego, chociaż za rozwój sepsy mogą być także odpowiedzialne grzyby czy wirusy [1]. W warunkach szpitalnych, gdzie prowadzone są statystyki zachorowalności na posocznicę najczęściej obserwowanymi zakażeniami bakteryjnymi są infekcje wywołane przez bakterie Gramujemne takie jak: Acinetobacter baumanni [2, 3], Pseudomonas aeruginosa [3], Escherichia coli, Klebsiella pneumoniae [4, 5], czy bakterie Gram-dodatnie takie jak: Staphylococcus aureus lub inne paciorkowce [5]. Wśród grzybów najczęściej notowaną infekcją obok zakażenia bakteryjnego, jest obecność drożdżaka Candida albicans [6]. W warunkach pozaszpitalnych, za rozwój sepsy odpowiedzialne są przede wszystkim patogeny wywołujące ciężkie powikłania np.: zapalenie opon mózgowo-rdzeniowych, takie jak: Neisseria meningitidis, Haemophilus influenzae czy Streptococcus pneumoniae [7, 8]. Oddziały intensywnej terapii są miejscami, w których najczęściej spotyka się przypadki posocznicy wśród chorych, zwłaszcza w stanach zagrażających ich życiu. Poza tym niejednokrotnie proces starzenia się populacji, duża częstość występowania chorób przewlekłych, oraz okresowe bądź chroniczne zaburzenia odporności, a także stosowanie na szeroką skalę antybiotyków i innych leków, czy liczba wykonywanych inwazyjnych zabiegów medycznych, mogą wpływać na większą zachorowalność. Poza szpitalem sepsa dotyka głównie dzieci i młodzież oraz osoby starsze i osłabione, często narażone na infekcje bakteryjne, które niewłaściwie leczone mogą być bardzo groźne dla ich zdrowia i życia. 1 Katedra i Zakład Biochemii Lekarskiej, Akademia Medyczna we Wrocławiu, ul. Chałubińskiego 10, Wrocław, katarzyna.dzierzba@gmail.com 2 Katedra Chemii Organicznej, Bioorganicznej i Biotechnologii, Wydział Chemiczny Politechniki Śląskiej, ul. Krzywoustego 4, Gliwice 3 Laboratorium Mikrobiologii Lekarskiej, Instytut Immunologii i Terapii Doświadczalnej PAN im. L. Hirszfelda, ul. Weigla 12, Wrocław, gamian@iitd.pan.wroc.pl 44

46 Sepsa jest wciąż istotnym problemem medycznym i terapeutycznym. Jest niebezpieczna z powodu rozwoju ogólnoustrojowej reakcji zapalnej (ang. Systemic Inflammatory Response Syndrome, SIRS). Zespół SIRS jednak różni się znacząco w przebiegu od ciężkiej sepsy (ang. severe sepsis) i wstrząsu septycznego (ang. sepsis shock). Jest to reakcja organizmu na czynnik zakaźny (najczęściej bakteryjny lipopolisacharyd, LPS). Zaostrzona infekcja z kolei stymuluje układ immunologiczny, w następstwie prowadząc do wydzielenia cytokin oraz mediatorów o charakterze pro- i anty-zapalnym takich jak: TNF-, IL-6, IL-1, IL-8, leukotrienów, czynnika aktywującego płytki krwi (PAF), tlenku azotu (NO), reaktywnych form tlenu (RTF) (Rys.1) [9, 10]. Rys. 1. W następstwie lizy komórki bakteryjnej dochodzi do uwolnienia LPS (A), rozpoznawanego przez białko wiążące LPS LBP (ang. LPS-binding protein) (B). Monocyty, makrofagi i neutrofile wyposażone w powierzchniowe receptory LPS białka CD-14 wychwytują kompleks LBP-LPS (B). Przy udziale białka MD-2 zostaje przekazany sygnał do wnętrza komórek przy pomocy receptorów TLR-2 /4 (C). Kolejno dochodzi do indukcji ekspresji genów kodujących mediatory reakcji zapalnej (D). Powoduje to wyrzut cytokin i chemokin i rozwój uogólnionej reakcji zapalnej (SIRS). W następstwie obserwowane jest także rozsiane wykrzepianie wewnątrznaczyniowe (DIC), zespół ostrej niewydolności oddechowej (ARDS) oraz niewydolność wielonarządowa (MODS) (E) [11]. Wówczas typowymi objawami w początkowym okresie sepsy są: czynność serca powyżej 90 uderzeń na minutę, temperatura ciała poniżej 36 C lub powyżej 38 C, częstość oddechów spontanicznych powyżej 20 na minutę, w badaniu gazometrycznym krwi tętniczej zawartość CO 2 wynosi poniżej 4,3 kpa (32 mmhg), a liczba leukocytów we krwi waha się poniżej 4000 komórek w mm 3 lub powyżej komórek w mm 3. Dodatkowo może wystąpić zapalenie opon mózgowordzeniowych, a w kolejnych etapach charakterystyczna jest niewydolność wielonarządowa 45

47 i wieloukładowa. Stwierdzenie objawów SIRS wystarcza, aby rozpoznać u chorego sepsę. Kolejno w badaniach mikrobiologicznych ma miejsce potwierdzenie obecności specyficznego patogenu odpowiedzialnego za rozwój choroby. Szybkie pogarszanie się stanu ogólnego pacjenta ze stwierdzoną w badaniach sepsą prowadzi do rozwoju wstrząsu septycznego, mającego miejsce w omencie wyczerpania się mechanizmów kompensacyjnych organizmu chorego. Śmiertelność na tym etapie jest bardzo duża, bo wynosi aż ok. 40 %. W tym stanie charakterystyczna jest niewydolność wielonarządowa (ang. Multiple Organ Dysfunction Syndrome, MODS) obejmująca niewydolność układu krążenia, oddychania, krzepnięcia, nieodwracalne niszczenie tkanek wątroby i nerek [12, 13, 14, 15]. Dane statystyczne dotyczące śmiertelności ogólnej w przebiegu sepsy wynoszą 20 %,w ciężkiej sepsie 40 %, a we wstrząsie septycznym aż 60 %. W Stanach Zjednoczonych na sepsę zapada rocznie 750 tys. osób, spośród których 200 tys. umiera. W ciągu ostatnich 20 lat liczba chorych wzrosła niemal dwukrotnie. W Niemczech zachorowalność na sepsę szacowana jest na ok. 150 tys. przypadków, w tym połowa kończy się zgonem, mimo relatywnie nowoczesnej bazy medycznej. We Francji w 2003 r. odsetek chorych na sepsę wzrósł niemal dwukrotnie z 9 aż do 17 %. W Szkocji 46 % pacjentów Oddziałów Intensywnej Terapii (OIT) to chorzy na sepsę [16]. Poza tym hospitalizacja chorych na sepsę jest kosztowana i długotrwała, wymaga nowoczesnych terapii medycznych oraz stosowania drogich terapeutyków, wśród których można wyróżnić: glikokortykosteroidy, podawanie rekombinowanego ludzkiego aktywowanego białka C, antybiotykoterapię, płynoterapię, aplikowanie leków obkurczających naczynia krwionośne, nekroktemię, podawanie preparatów krwiopochodnych [14]. W Polsce 16 % pacjentów hospitalizowanych na oddziałach OIT ma rozpoznaną ciężką sepsę, a śmiertelność szacowana jest na 54 %. Na podstawie biuletynów rocznych pt.: Choroby zakaźne i zatrucia w Polsce publikowanych przez Pracownię Analizy Epidemiologicznej Skażeń Biologicznych Zakładu Epidemiologii Państwowego Zakładu Higieny działającego przy Narodowym Instytucie Zdrowia Publicznego w Warszawie, sporządzono wykresy przedstawiające zachorowalność w latach na wszystkie rodzaje sepsy (bez podziału na typ patogennego szczepu bakteryjnego) wg rocznych przedziałów czasowych zarówno w odniesieniu do Polski, ale także dla Województwa Dolnośląskiego. Analizując przedstawione dane statystyczne zaobserwowano tendencję wzrostową w zachorowalności na sepsę w ciągu kilku ostatnich lat, począwszy od 2003 roku. Między 2003 a 2008 rokiem zanotowano w sumie przypadków sepsy, z czego 404 na Dolnym Śląsku [17] (rys. 2). Fakt ten jest związany przede wszystkim z wprowadzeniem w 2005 roku nadzoru nad chorobami zakaźnymi w Polsce. Implementacja zmian dostosowała polskie przepisy w zakresie polityki epidemiologicznej do wymogów Unii Europejskiej. Zgodnie z Decyzją Komisji Europejskiej (2002/253/KE), na potrzeby nadzoru wprowadzono definicje przypadków chorób zakaźnych i zakażeń. Wprowadzono odpowiednie definicje dla 60 jednostek chorobowych, a przyjęty w nich podział rozpoznań na możliwe, prawdopodobne oraz potwierdzone zapewnił odtąd porównywalność danych międzynarodowych i dał możliwość wglądu w zakres i jakość diagnostyki chorób zakaźnych w kraju. Ponadto wzrost zachorowalności na sepsę może wiązać się z ogólnym wzrostem zapadalności na infekcje wirusowe bądź bakteryjne u Polaków, które w skutek niewłaściwego podejścia i braku odpowiedniego leczenia przekształciły się w niebezpieczną uogólnioną reakcję zapalną prowadzącą do posocznicy czy nawet do śmierci. 46

48 Rys. 2. Statystyczne ujęcie zachorowalności na sepsę w Polsce i w obrębie Województwa Dolnośląskiego jako procent notowanych przypadków w danym roku względem wszystkich stwierdzonych przypadków w latach (odpowiednio i 404 przypadków sepsy w Polsce i na Dolnym Śląsku w latch ). Wykresy sporządzono w oparciu o raporty epidemiologiczne pt.: Choroby zakaźne i zatrucia w Polsce publikowane corocznie przez Państwowy Zakład Higieny w Warszawie [17]. Ponadto na rysunku 3 pokazano typowe chorobotwórcze szczepy bakteryjne odpowiedzialne za rozwój określonego typu sepsy. Zalicza się do nich gronkowce, ale także przede wszystkim różne bakterie Gram(-) np.: pałeczki z rodzaju Salmonella czy Shigella, pałeczki okrężnicy Escherichia coli czy przecinkowiec cholery Vibrio cholerae. Rys. 3. Procentowy udział chorobotwórczych szczepów bakteryjnych w etiologii posocznicy w latach wg raportów epidemiologicznych pt.: Choroby zakaźne i zatrucia w Polsce publikowanych corocznie przez Państwowy Zakład Higieny w Warszawie [17]. W latach zanotowano odpowiednio ogólną liczbę potwierdzonych przypadków sepsy wg szczepu bakteryjnego, który wywołał ten stan tj rok: 2179 przypadków; 2006 rok: 2561 przypadków; 2007 rok: 3067 przypadków; 2008 rok: 3212 przypadki. 2. Cele prowadzonych prac badawczych Dotychczas istnieje wiele dowodów potwierdzonych eksperymentalnie o tym, że podstawnik glicylowy jest integralnym składnikiem LPS lokalizowanym w wielu bakteryjnych endotoksynach pochodzących z kilkudziesięciu szczepów różnych gatunków bakterii Gramujemnych. Składnik ten występuje w części rdzeniowej endotoksyny bakteryjnej, ale niezmiernie trudne jest jego uzyskanie w postaci niezdegradowanej [18]. 47

49 Duża labilność struktur zawierających podstawnik glicylowy na cukrach spowodowała, że w badaniach własnych wykorzystywane są syntetyczne związki modelowe otrzymywane w Katedrze Chemii Organicznej, Bioorganicznej i Biotechnologii Wydziału Chemicznego Politechniki Śląskiej w Gliwicach [19, 20]. Związki te stanowią rdzeń zaprojektowanego epitopu glicylowego, który wykorzystywany jest jako substrat do tworzenia koniugatów z białkami nośnikowymi np.: z surowiczą albuminą bydlęcą (BSA) oraz w celu ich immobilizacji na żelach do chromatografii powinowactwa. W kolejnych etapach otrzymywane produkty mają służyć do otrzymania surowic zwierzęcych, z których na kolumnach powinowactwa będą oczyszczane swoiste przeciwciała względem zaprojektowanych antygenów zawierających epitop glicylowy. Z kolei przeciwciała te będą mogły znaleźć swoje zastosowanie w analizie histochemicznej epitopów w tkankach ludzkich. Równolegle z surowicy ludzkiej na kolumnach powinowactwa planowana jest izolacja przeciwciał celem określenia ich swoistości serologicznej i możliwości użycia jako ochronnych preparatów immunoglobulinowych o charakterze przeciwbakteryjnym. W dalszej kolejności uzyskane z syntetycznych oligosacharydów koniugaty białkowe posłużą do diagnostycznego zastosowania klinicznego dla oznaczania poziomu przeciwciał antybakteryjnych. Realizacja tych zadań wymaga opracowania nowych rozwiązań syntetycznych, a zwłaszcza metodologii pozwalającej na wydajną estryfikację modelowych związków cukrowych pochodną glicyny, a w następnym etapie ich koniugacji z białkami. Z uwagi na labilność glicyny w obecności kwasów i zasad oraz ograniczone możliwości wykorzystania znanych metod tworzenia koniugatów cukrowo-białkowych, wykorzystywane są modyfikowane modelowe monocukry i disacharydy zawierające syntetyczny łącznik zaopatrzony dodatkowo w glikozydowy atom siarki zamiast tlenu. Podjęcie takiej strategii przyczynia się do zwiększenia stabilności takich struktur i chroni je przed hydrolizą w wyniku działania czynników chemicznych, jak i endogennych glikozydaz. Synteza stabilnego epitopu glicylowego lub jego trwałego analogu to punkt wyjścia do badania właściwości biologicznych otrzymanych związków imitujących fragmenty bakteryjnego LPS odpowiedzialne za niektóre reakcje immunologiczne w organizmie. Dodatkowo planowane jest określenie toksyczności badanych związków (aspekt dotyczący bezpieczeństwa), ich działania i efektów biologicznych (aspekt odnoszący się do skuteczności) oraz potencjalnego użycia dla osiągnięcia celów ochronnych i terapeutycznych (aspekty praktyczne dla opracowania szczepionki glikokoniugatowej mogącej znaleźć potencjalne swoje zastosowanie w terapii posocznicy). 3. Informacje dodatkowe Praca realizowana jest w ramach projektu systemowego pn. Przedsiębiorczy doktorant - inwestycja w innowacyjny rozwój regionu (Program Operacyjny Kapitał Ludzki, Priorytet VIII: Regionalne Kadry Gospodarki, Działanie 8.2 Transfer Wiedzy, Poddziałania Regionalne Strategie Innowacji, POKL /10). Literatura [1] V. Caille, P. Bossi, D. Grimaldi, A. Vieillard-Baro. Physiopathology of severe sepsis. Presse Med., 2004; 33 (4): [2] C. Erridge, O.L. Moncayo-Nieto, R. Morgan, M. Young, I.R. Poxton. Acinetobacter baumannii lipopolysaccharides are potent stimulators of human monocyte activation via Toll-like receptor 4 signalling,. J Med Microbiol., 2007; 56 (Pt 2), [3] J. Rusiecka-Ziółkowska, M. Walszewska, J. Stekla, B. Szponar B. Role of endotoxin in pathomechanism of sepsis. Pol Merkur Lekarski, 2008; 25 (147): [4] R. Ghotaslou, Z. Ghorashi, M.R. Nahaei. Klebsiella pneumoniae in neonatal sepsis: a 3-yearstudy in the pediatric hospital of Tabriz, Iran. Jpn J Infect Dis., 2007; 60 (2-3):

50 [5] K.F. Bodmann. Current guidelines for the treatment of severe pneumonia and sepsis. Chemotherapy, 2005; 51 (5): [6] J.J. Picazo, F. González-Romo, F.J. Candel. Candidemia in the critically ill patient. Int J Antimicrob Agents, 2008; 32 (Suppl 2): S83-S85. [7] S.M. Zimmer, D.S. Stephens. Meningococcal conjugate vaccines. Expert Opin Pharmacother., 2004; 5 (4): [8] A.P. Macgowan, BSAC Working Parties on Resistance Surveillance. Clinical implications of antimicrobial resistance for therapy. J Antimicrob Chemother., 2008; 62 (Suppl 2): ii [9] M. Caroff, D. Karibian. Structure of bacterial lipopolysaccharides. Carbohydr. Res., 2003; 338, [10] C. Erridge, E. Bennett-Guerrero, IR. Poxton. Structure and function of lipopolysaccharides. Microb. and Infect., 2002; 4, [11] K. Miyake. Endotoxin recognition molecules, Toll- like receptor 4-MD-2. Seminars in Immunology, 2004; 16: [12] R.C. Bone, R.A Balk, F.B. Cerra, R.P. Dellinger, A.M. Fein, W.A. Knaus, R.M. Schein, W.J. Sibbald. Definitions for sepsis and organ failure and guidelines for the use of innovative therapies in sepsis. The ACCP/SCCM Consensus Conference Committee. American College of Chest Physicians/Society of Critical Care Medicine. Chest, 1992; 101 (6): [13] T. Płusa. Patomechanizm i klinika sepsy. Przew Lek., 2009; 6: [14] T. Targowski, T. Płusa. Leczenie i profilaktyka sepsy. Przew Lek., 2008; 1: [15] T. Płusa. Patomechanizm i klinika sepsy. Przew Lek., 2008; 1: [16] Jahnz-Różyk K. Epidemiologia sepsy. Przew Lek. 2008; 1: [17] Choroby zakaźne i zatrucia w Polsce. Raporty epidemiologiczne z lat publikowane przez Państwowy Zakład Higieny, Instytut Naukowo-Badawczy Zakład Epidemiologii; ISSN [18] K. Dzierzba, J. Pietkiewicz, A. Gamian. Występowanie glicyny w bakteryjnych lipopolisacharydach. Projektowanie szczepionek glikokoniugatowych. Interdyscyplinarność badań naukowych: praca zbiorowa pod red. Jarosława Szreka. Wrocław: Ofic. Wydaw. Politechniki Wrocławskiej, 2010; 40-45, ISBN [19] G. Pastuch, I. Wandzik, W. Szeja. (5-Nitro-2-pyridyl) 1-thio-β-d-glucopyranoside as a stable and reactive acceptor. Tetrahedron Lett., 2000; 41 (50): [20] G. Pastuch-Gawolek, T. Bieg, W. Szeja, J. Flasz J. 5-Amino-2-pyridyl 1-thioglycosides in synthesis of analogs of glycosyl- transferases substrates. Bioorganic Chemistry, 2009; 37 (3), THE APPLICATION OF MODEL GLYCINATED AND PHOSPHORYLATED CARBOHYDRATE STRUCTURES IN BIOLOGICAL STUDIES CONCERNED WITH THE SEARCHING COMMON EPITOPES OCCURRED IN GRAM-NEGATIVE BACTERIAL LIPOPOLYSACCHARIDES There are many communications that lipopolysaccharide structures isolated from many Gram-negative bacterial strains contain acidic and alkaline unstable non-sugar elements, e.g. amino acid residue like glycine and phosphate groups as substiuents of carbohydrates hydroxyl groups. The methods of their localization and the studies under their biological functions are very complicated. For these reasons, in our studies the synthethic and model carbohydrate compounds are used. These structures may imitate natural oocurred glycine epitope localized commonly in pathalogical bacterial strains which is probably responsible for sepsis appearance and propagation. 49

51 Klonowanie, ekspresja w układzie heterologicznym oraz oczyszczanie białek Chd64 i FKBP39 z Drosophila melanogaster. Małgorzata Kozłowska 1 Streszczenie: Postuluje się, że białka Chd64 i FKBP39 mogą wiązać się do fragmentu DNA będącego elementem odpowiedzi na hormon juwenilny, a także tworzyć kompleksy z receptorem ekdyzonu (EcR), białkiem ultraspiracle (Usp) oraz białkiem Met. Oddziaływania te sugerują, że białka te mogą pełnić ważną rolę jako czynniki transkrypcyjne pośredniczące między ścieżkami przekazywania sygnału związanymi z hormonem juwenilnym oraz ekdysteroidami. Wyekspresjonowano białko Chd64 w fuzji ze znacznikami Strep oraz His, a kolejno oczyszczono je za pomocą chromatografii powinowactwa na złożu TALON oraz StrepTactin. Słowa kluczowe: FKBP39, Chd64, immunofiliny, kalponiny, JHRE, ekdysteroidy 1. Wprowadzenie Rozwój owadów regulowany jest poprzez współdziałanie ekdysteroidów oraz hormonu juwenilnego. W cyklu rozwojowym Drosophila melanogaster po embriogenezie można wyróżnić trzy stadia larwalne, po których następuje metamorfoza, w wyniku której powstaje dorosły osobnik. Każde przejście do następnego etapu rozwoju jest poprzedzone podwyższeniem poziomu hormonu ekdysteroidowego, 20-hydroksyekdyzonu (20E) [1]. Hormon juwenilny (JH) moduluje działanie 20E zapobiegając przedwczesnej metamorfozie, dlatego często określa się go jako hormon utrzymujący status quo [2]. Receptorem dla 20E jest heterodimer białek EcR (receptor ekdyzonu) i Usp (ultrspiracle), które należą do wspólnej nadrodziny receptorów jądrowych. Postuluje się, że białka Chd64 i FKBP39 mogą wiązać się do fragmentu DNA będącego elementem odpowiedzi na hormon juwenilny, a także tworzyć kompleksy z białkami EcR, Usp oraz białkiem Met [3]. Oddziaływania te sugerują, że DmFKBP39 oraz DmChd64 mogą pełnić ważną rolę jako czynnik transkrypcyjny pośredniczący między ścieżkami przekazywania sygnału związanymi z hormonem juwenilnym oraz ekdysteroidami. Białko Chd64 z Drosophila melanogaster, o masie 21 kda, zostało w literaturze scharakteryzowane jako białko kalponinopodobne (ang. calponin- like protein). Do tej pory nie ma żadnych literaturowych wzmianek dotyczących jego charakterystyki molekularnej. Kalponiny stanowią bardzo ważną grupę białek, które są zaangażowane w wielu procesach zachodzących w komórkach mięśniowych i niemięśniowych. Odgrywają istotną rolę w regulacji skurczu mięśni gładkich oraz mechanizmach przekazywania sygnałów w cytoszkielecie aktynowym [4]. Białko FKBP z Drosophila melanogaster o masie 39 kda należy do rodziny immunofilin o aktywności peptydylo- prolilowej izomerazy cis-trans. Badania polegające na nadekspresji białka FBKP39 zidentyfikowały to białko jako inhibitor autofagii u D. melanogaster [5]. Wyekspresjonowanie białek Chd64 i FKBP39 w systemie bakteryjnym, oczyszczenie, a następnie krystalizacja pozwoli na zbadanie ich właściwości fizykochemicznych, poszukiwanie nowych potencjalnych elementów regulatorowych DNA przez nie wiązanych, a także dokładne zbadanie ich oddziaływań ze składnikami funkcjonalnego receptora ekdysteroidowego. 1 Wydziałowy Zakład Biochemii Politechniki Wrocławskiej, ul. Gdańska 7/ Wrocław malgorzata.kozlowska@pwr.wroc.pl 50

52 2. Materiały i metody 2.1. Otrzymanie konstruktów pqe80l-sxh-chd64, pqe80l-sxh-fkbp39 Otrzymany z Drosophila Genomics Resource Center (DGRC) cdna białek Chd64 (reszty aminokwasowe 1-188) oraz FKBP39 (reszty aminokwasowe 1-357) z Drosophila melanogaster wklonowano za pomocą technik inżynierii genetycznej [6] do wektora plazmidowego pqe80l-sxh 2 wykorzystując enzymy restrykcyjne BamHI i HindIII (MBI Fermentas). Otrzymane konstrukty białkowe Chd64 i FKBP39 powinny posiadać dodatkowe aminokwasy pochodzące z wektora: na końcu aminowym SHPQFEC (znacznik Strep, S), a na końcu karboksylowym HHHHHHHH (znacznik His, H) Ekspresja Chd64-SXH, FKBP39-SXH Przygotowanymi konstruktami transformowano komórki kompetentne E. coli szczepu BL21(DE3)pLysS (Novagen) [6]. Hodowle ekspresyjne prowadzono na podłożu płynnym LB zawierającym antybiotyki karbenicylinę (50 µg/ml) i chloramfenikol (35 µg/ml) w temperaturze 29 0 C przy 180 obr/min do momentu, gdy OD 600 wynosiło 0,5 0,7, a następnie dodawano induktora ekspresji IPTG w końcowym stężeniu 0,25 mm i kontynuowano inkubację przez 4 h. Przed indukcją oraz w kolejnych punktach czasowych po indukcji pobierano próbki wszystkich białek bakteryjnych, białek rozpuszczalnych i nierozpuszczalnych Chromatografia powinowactwa Klarowny ekstrakt otrzymany z zawiesin bakteryjnych BL21(DE3)pLysS transformowanych konstruktami pqe80l-sxh-chd64 i pqe80l-sxh-fkbp39 inkubowano ze złożem TALON (Clontech). Początkowo złoże przemywano buforem o stężeniu imidazolu 5 mm, kolejno 20 mm, a rekombinowane białka wymywano ze złoża buforem o stężeniu imidazolu 200 mm, zebrane frakcje zagęszczano, a następnie stosowano drugi etap oczyszczania -chromatografię powinowactwa na kolumnie StrepTrapHP (GE Healthcare). Rekombinowane białka wymywano ze złoża buforem zawierającym destiobiotynę o stężeniu 2,5 mm SDS-PAGE i Western Blot Analizę ekspresji białek przeprowadzono za pomocą elektroforezy w żelu poliakrylamidowym w warunkach denaturujących (SDS-PAGE) w układzie nieciągłym żelu 4% i 15%. Jako znacznik wagowy wykorzystano marker białkowy PMWM The Unstained Protein Molecular Weight Marker (MBI Fermentas). Ekspresjonowane białka analizowano stosując barwienie Coomassie Brilliant Blue R-250 oraz immunoblotting przy użyciu przeciwciał pierwszorzędowych Anty-His (BD-Biosciences) oraz drugorzędowych HAMPO (Vector Laboratories). 2 Wektor ekspresyjny pqe80l-sxh został przygotowany przez dr inż. Grzegorza Rymarczyka (Zakład Biochemii, Politechnika Wrocławska) 51

53 3. Wyniki i dyskusja 3.1. Otrzymanie rekombinowanego białka Chd64 w fuzji ze znacznikami Strep oraz His Do syntezy rekombinowanego białka DmChd64 wybrano wektor ekspresyjny pqe80l- SXH, wprowadzający do białka docelowego na końcu aminowym znacznik Strep, a na końcu karboksylowym znacznik ośmiohistydylowy (8x His). Wprowadzenie do białka dwóch znaczników umożliwia dwuetapowe oczyszczanie przy użyciu złoża TALON oraz złoża StrepTactin (kolumna StrepTrapHP ). Opracowując procedurę oczyszczania rekombinowanego białka Chd64 stwierdzono, iż 20 mm stężenie imidazolu jest optymalnym stężeniem pozwalającym na wymycie ze złoża TALON większości niespecyficznie związanych z nim białek (pierwszy etap oczyszczania, dane nie pokazane). Drugi etap oczyszczania polegał na zastosowaniu kolumny StrepTrapHP, do której docelowe białko wiązało się za pomocą znacznika Strep, a jego elucja następowała poprzez przemycie kolumny 2,5 mm roztworem destiobiotyny (Rys. 1). Analizy SDS-PAGE (Rys. 2) oraz Western Blotting (dane nie pokazane) pokazały, że otrzymano czysty preparat rekombinowanego białka Chd64. Rys. 1. Profil elucji białka Chd64 z kolumny StrepTrapHP Chromatografia powinowactwa z zastosowaniem kolumny StrepTrapHP. Elucja docelowego białka za pomocą 2,5 mm destiobiotyny. Wyniki dla białka FKBP39 nie zostały zaprezentowane, ze względu na fakt, iż procedura oczyszczania tego białka nie została jeszcze zoptymalizowana. Podsumowując, otrzymanie czystych preparatów białkowych obu białek otwiera drogę do licznych badań nie tylko fizykochemicznych samych białek, ale także badania ich oddziaływań ze składnikami funkcjonalnego receptora ekdysteroidowego oraz z DNA. Poznanie roli białek Chd64 oraz FKBP39 w procesach przekazywania sygnału związanych z JH i 20E jest istotnym zadaniem, gdyż umożliwiłoby to dokładniejsze zrozumienie procesów zachodzących w komórkach owadzich. Z analiz bioinformatycznych (dane nie zamieszczone) wynika, że białko Chd64 wykazuje wysoki stopień homologii sekwencji z białkami zdolnymi do wiązania aktyny, co mogłoby świadczyć, że białko to może pełnić istotną funkcję w regulacji przeobrażenia cytoszkieletu molekularnego w czasie metamorfozy owadów. 52

54 Literatura Rys. 2. Wynik SDS-PAGE dla poszczególnych etapów oczyszczania białka Chd64 M-marker (UPMWM); T0- wszystkie białka bakteryjne przed indukcją, T2- wszystkie białka bakteryjne dwie godziny po indukcji; Sup- supernatant; FT- białka, które nie związały się ze złożem; W3- białka odpłukane ze złoża;b5, D3, E12, E14 (frakcje pochodzące z pierwszego etapu oczyszczania- TALON ), B5- białka wypłukane z kolumny 5 mm imidazolem, D3- białka wypłukane z kolumny 20 mm imidazolem, E12, E13, E14-białka wypłukane z kolumny 200 mm imidazolem; O3- próbka pobrana z membrany koncetratora Amicon (Milipore); A8, A9, A10- frakcje pochodzące z drugiego etapu oczyszczania (kolumna StrpTrapHP). [1] Thummel CS. Molecular mechanisms of developmental timing in C. elegans and Drosophila. Dev Cell Oct;1(4): [2] Riddiford LM. Juvenile hormone: the status of its "status quo" action. Arch Insect Biochem Physiol. 1996;32(3-4): [3] Li Y, Zhang Z, Palli SR. Identification and characterization of a juvenile hormone response element and its binding proteins. J Biol Chem Dec 28;282(52): [4] Rozenblum T. G., Gimona M. Calponins: Adaptable modular regulators of the action cytoskeleton. The Internat. Journal of Biochem. and Cell Biol. 2007; 40 (2008): [5] Juhász G, Puskás LG, Konyi O: Gene expression profiling identifies FKBP39 as an inhibitor of autophagy in larval Drosophila fat body. Cell Death Differ Jun;14(6): [6] Sambrook J., Frisch EF. Molecular cloning: a laboratory manual. Cold Spring Harbor, CLONING, HETEROLOGICAL EXPRESSION AND PURIFICATION OF CHD64 AND FKBP39 FROM DROSOPHILA MELANOGASTER Juvenile hormones (JH) and ecdysteroids regulate a wide variety of developmental and physiological processes in insects. Two proteins (FKBP39 and Chd64) that bind to DmJHRE1 (D. melanogaster JH response element 1) were identified [3]. It is shown that FKBP39 and Chd64 can interact with each other and with ecdysone receptor, ultraspiracle, and methoprene-tolerant protein. This suggests that these proteins probably play important roles in cross-talk between JH and ecdysteroids. In order to express the recombinant proteins DmChd64 and DmFKBP39 in E. coli, recombinant plasmid vectors pqe80l-sxh containing cdna coding for the target proteins in fusion with: Strep-tag and His-tag (SXH) were prepared. We confirmed that all expressed recombinant proteins remained in the soluble fraction of E. coli proteins and that those fused with the His-tag and Strep-tag were able to be bound by the TALON and StrepTactin resin and purified using affinity chromatography. We finally confirmed that expressed and purified proteins were indeed recombinant DmChd64 by carrying out Western Blotting with Anti-His antibodies. 53

55 Nakładanie się rejonów destylacyjnych w trójskładnikowych mieszaninach heteroazeotropowych z granicami destylacyjnymi Andrzej Ryszard Królikowski 1 Streszczenie: Granice destylacyjne tworzone są przez azeotropy typu siodłowego i dzielą przestrzeń składu na rejony destylacyjne. W mieszaninach homogenicznych rejony destylacyjne nakładają się. Część wspólna rejonów destylacyjnych jest czuła parametrycznie. Badając profile kolumny półkowej (dla mieszaniny etanol - benzen - woda) sprawdzono czy rejony destylacyjne nakładają się w mieszaninach heterogenicznych. Słowa kluczowe: granice destylacyjne, SDB, TRB, PDB, mieszaniny heteroazeotropowe 1. Wprowadzenie W wielu mieszaninach azeotropowych występują granice, które ograniczają uzyskanie produktów destylacji. Mieszaniny te nie mogą być rozdzielone w prostych kolumnach destylacyjnych. Przeciwnie, muszą zostać użyte procesy, w których kolumny połączone są ze sobą jednym bądź więcej strumieni cyrkulacji. Rozróżniamy trzy typy granic destylacyjnych proste granice destylacyjne (SDB), granice destylacyjne całkowitego powrotu (TRB) oraz granice destylacyjne pitchfork (PDB). Analiza trajektorii granic w przestrzeni składów pozwala zidentyfikować, które produkty są możliwe do uzyskania. Jednakże natura granic destylacyjnych nie została dobrze poznana do czasu publikacji pracy L.J. Królikowskiego [9]. Autor, bazując na teorii bifurkacji, przedstawił precyzyjne metody obliczania granic destylacyjnych w praktyce. W tym samym czasie Lucia i Taylor [10] przedstawili pracę na temat geometrii granic destylacyjnych i udowodnili prawdziwość swojej metody dla mieszanin zawierających trzy i więcej składników. Jednocześnie Lucia i Taylor [11] pokazali, iż granice destylacyjne są trajektoriami, które nie kończą sie w siodle, lecz biegną od punktu osobliwego typu węzeł niestabilny do punktu węzeł stabilny wzdłuż krzywych całkowych. To założenie jest niepoprawne, gdyż granice destylacyjne tworzone są przez punkty siodłowe [1, 9]. Najlepszym sposobem wizualizacji i analizy granic destylacyjnych jest ich przedstawienie w trójkątnej przestrzeni składów. W pracy sprawdzono, czy rejony destylacyjne nakładają się na siebie w trójskładnikowych mieszaninach heteroazeotropowych. Badania zostały przeprowadzone poprzez znajdowanie takich punktów składu produktów procesu destylacji, dla których profile rektyfikacyjne kolumny półkowej kończyły się w różnych regionach destylacyjnych. Obliczenia zostały wykonane dla heterogenicznej mieszaniny trójskładnikowej, sklasyfikowanej według topologicznej klasy Serafimova [12] jako 3.1-2: etanol benzen woda. 2. Relacje pomiędzy granicami destylacyjnymi Problemy związane z granicami i ich przekraczaniem dla mieszanin homogenicznych zostały usystematyzowane przez L.J. Królikowskiego [6-7]. Jobson i in. [2] pokazali, iż granice destylacyjne zależą od zastosowanego typu kolumny destylacyjnej. Z kolei, L.J. Królikowski 1 Zakład Inżynierii Chemicznej, Wydział Chemiczny Politechniki Wrocławskiej, ul. C.K. Norwida 4/6, Wrocław, andrzej.krolikowski@pwr.wroc.pl 54

56 udowodnił, że granica destylacji prostej powiązana jest z kolumną wypełnioną a jej odpowiednikiem dla kolumny półkowej jest granica całkowitego powrotu, podczas gdy granica destylacyjna pitchfork jest identyczna dla obu typów kolumn. Zatem, inne pary granic destylacyjnych odnoszą się do każdego z typów kolumn destylacyjnych. Konsekwentnie, rejony destylacyjne nie są rozłączne, lecz nakładają się. Ich wspólna część jest czuła parametrycznie [8]. Granice destylacyjne tworzone przez różne azeotropy występujące w mieszaninie oddziaływają na siebie nawzajem. Interakcje te wywołują (czasami radykalne) zmiany w zachowaniu profili destylacyjnych, co może powodować znaczące zmiany w kształtach rejonów destylacyjnych. W badaniach przyjęto, iż relacje pomiędzy granicami destylacyjnymi są takie same, jak dla mieszanin homogenicznych [3]. Dla separatrys niestabilnych granica TRB położona jest pomiędzy granicami SDB i PDB i może być przekraczana z każdej strony przez profil rektyfikacyjny kolumny półkowej (rys. 1). Wartości krytyczne stopnia orosienia bądź odparowania mogą być wyznaczone podczas analizy parametrycznej. Siodło Węzeł niestabilny Krzywa pozostałości Krzywa destylatu Linia destylacyjna Krzywa kondensacji Krzywa kondensatu Rys. 1. Zależności pomiędzy krzywymi pozostałości, linami destylacyjnymi i krzywymi kondensacji (za Kiva i in. [3]) 3. Nakładanie się rejonów destylacyjnych W celu sprawdzenia, czy rejony destylacyjne nakładają się na siebie w mieszaninach heterogenicznych destylowanych w kolumnach półkowych, należało znaleźć takie punkty składu produktów, dla których profile destylacyjne kończyły się w różnych rejonach destylacji. Badania przeprowadzono dla trójskładnikowej mieszaniny etanol benzen woda. Wszystkie granice destylacyjne w mieszaninie są separatrysami niestabilnymi i łączą punkty siodłowe z węzłami niestabilnymi. Zatem, granica całkowitego powrotu zlokalizowana jest po wypukłej stronie prostej granicy destylacyjnej z granicą destylacyjną pitchfork zlokalizowaną dalej. W pracy przeanalizowano tylko proces destylacji ciągłej przeprowadzonej w kolumnie półkowej, gdyż sytuacja dla kolumn z wypełnieniem jest podobna, co zostało udowodnione przez A.R. Królikowskiego i in. [4-5]. Roztwór etanol benzen woda tworzy mieszaninę, która przy ciśnieniu p=1 atm. Wykazuje dwa homoazeotropy binarne: woda etanol oraz etanol benzen, jeden heteroazeotrop binarny benzen woda, jak również heteroazeotrop trójskładnikowy, który jest jedynym punktem osobliwym typu węzeł niestabilny [un]. Azeotrop trójskładnikowy jest najniżej wrzącą mieszaniną. Wszystkie trzy azeotropy binarne są punktami siodłowymi [sa], podczas gdy wierzchołki przedstawiające czyste składniki są węzłami stabilnymi [sn] (rys. 2). Jak wspomniano powyżej, granice destylacyjne zależą od zastosowanej kolumny destylacyjnej. 55

57 Zatem, inna para granic odnosi się do kolumny wypełnionej a inna do kolumny półkowej (rys. 3). Na rysunku 3 pokazano rejony destylacyjne tworzone przez odpowiednie granice destylacyjne. PDB II i PDB III zostały zniekształcone w celu przejrzystości (w rzeczywistości są one bardzo blisko granic TRB II/SDB II i TRBIII/SDB III, odpowiednio). Benzen [sn] o C 1.0 [sa] = siodło [sn] = węzeł stabilny 0.9 [un] = węzeł niestabilny 0.8 het = heteroazeotrop hom = homoazeotrop 0.7 azeotrop (a) Benzen [sn] o C Woda [sn] 100 o C Etanol [sn] o C Rys. 2. Topologia mapy mieszaniny heterogenicznej: etanol benzen - woda SDB PDB (b) Benzen [sn] o C TRB PDB PDB III SDB III SDB II PDB II SDB I PDB I PDB III TRB III TRB II PDB II TRB I PDB I Woda [sn] 100 o C Etanol [sn] o C Woda [sn] 100 o C Etanol [sn] o C Rys. 3. Zależności pomiędzy granicami destylacyjnymi. (a) kolumna wypełniona i (b) kolumna półkowa Dla kolumn półkowych, granica całkowitego powrotu i granica destylacyjna pitchfork, które tworzone są przez ten sam azeotrop typu siodło wyznaczają dwa rejony destylacyjne, które nakładają się na siebie. Jeden z rejonów położony jest po wklęsłej stronie granicy PDB a drugi po wypukłej stronie granicy TRB. Obszar pomiędzy TRB i PDB jest częścią wspólną tych dwóch rejonów. W konsekwencji, dla badanej tutaj heterogenicznej mieszaniny, istnieją trzy rejony odpowiedzialne za przeskakiwanie profili rektyfikacyjnych. Jeden znajduje się pomiędzy TRB I i PDB I, drugi rozciąga się pomiędzy TRB II i PDB II, podczas gdy trzeci wyznaczony jest przez TRB III i PDB III. Profil rektyfikacyjny może przeskoczyć tylko i wyłącznie wtedy, gdy skład produktu znajduje się pomiędzy dwiema odpowiednimi granicami destylacyjnymi. 56

58 Dla heterogenicznego destylatu z D = (0,4279, 0,5345, 0,0376), jest położony pomiędzy granicami TRB I i PDB I łączącymi homogeniczny azeotrop typu siodło etanol benzen z niestabilnym heteroazeotropem trójskładnikowym. W tym przypadku profil rektyfikacyjny dla stosunku orosienia R=4,51 biegnie w kierunku stabilnego wierzchołka benzen, podczas gdy po zmianie stosunku orosienia do R=4,52 profil rektyfikacyjny osiąga węzeł stabilny etanol (rys. 4). A zatem, punkt ten jest zlokalizowany w wspólnej części dwóch rejonów destylacyjnych. (a) Benzen TRB PDB profil rektyfikacyjny R=4,51 destylat z D z D = (0,4279, 0,5345, 0,0376) (b) Benzen TRB PDB profil rektyfikacyjny R=4,52 destylat z D z D = (0,4279, 0,5345, 0,0376) Woda Etanol Woda Etanol Rys. 4. Profile rektyfikacyjne dla destylatu położonego w obszarze wyznaczonym przez TRB II & PDB II. (a) R=4,51 i (b) R=4,52 W części przypadków, rejony pomiędzy różnymi granicami całkowitego powrotu i granicami destylacyjnymi pitchfork nakładają się. Oddziaływają one na dwa sposoby. Pierwszy typ interakcji występuje w części wspólnej dwóch regionów pomiędzy pewnymi granicami TRB i PDB. Wspólna przestrzeń wyznaczona jest przez granice TRB I, PDB I, TRB II i PDB II. Zatem, dla heterogenicznego destylatu z D = (0,3355, 0,5231, 0,1414) zlokalizowanego w tym obszarze, dla różnych wartości stosunku orosienia, profile rektyfikacyjne mogą kończyć się w trzech różnych rejonach destylacji i biegną w kierunku stabilnych węzłów reprezentowanych przez wierzchołki czystych składników w przestrzeni składów (rys. 5). Podobna sytuacja występuje dla heterogenicznego destylatu z D = (0,1269, 0,5870, 0,2861) położonego po wypukłej stronie granicy TRB II, w obszarze wyznaczonym przez TRB II i PDB II. Na region ten oddziałuje granica PDB I. Profil rektyfikacyjny podąża raz w kierunku stabilnego węzła woda (R=0,1), następnie dla stosunku orosienia od R=0,2 do R=744 osiąga punkt siodłowy azeotrop benzen woda, podczas gdy dla R=745 profil rektyfikacyjny kończy się przy węźle stabilnym reprezentowanym przez czysty benzen. A zatem, również i w tym przypadku, skład destylatu znajduje się w wspólnej, czułej parametrycznie części rejonów destylacyjnych (rys. 6)

59 (a) Benzen TRB PDB profil rektyfikacyjny R=0,2 destylat z D z D = (0,3355, 0,5231, 0,1414) (a) Benzen TRB PDB profil rektyfikacyjny R=0,1 destylat z D z D = (0,1269, 0,5870, 0,2861) (b) 0.0 Woda Benzen Etanol TRB PDB profil rektyfikacyjny R=0,27 destylat z D z D = (0,3355, 0,5231, 0,1414) 0.0 Woda (b) Benzen Etanol TRB PDB profil rektyfikacyjny R=1,0 destylat z D z D = (0,1269, 0,5870, 0,2861) Woda Etanol 0.0 Woda Etanol (c) Benzen TRB PDB profil rektyfikacyjny R=81 destylat z D z D = (0,3355, 0,5231, 0,1414) (c) Benzen TRB PDB profil rektyfikacyjny R=745 destylat z D z D = (0,1269, 0,5870, 0,2861) Woda Etanol Rys. 5. Profile rektyfikacyjne dla destylatu położonego w części wspólnej dwóch nakładających się rejonów destylacyjnych. (a) R=0,2, (b) R=0,27 i (c) R= Woda Etanol Rys. 6. Profile rektyfikacyjne dla destylatu z D = (0,1269, 0,5870, 0,2861). (a) R=0,1, (b) R=1,0 i (c) R=745 58

60 4. Wnioski Zbadano nakładanie się rejonów destylacyjnych w heterogenicznych mieszaninach trójskładnikowych destylowanych w kolumnie półkowej. W celu sprawdzenia poszukiwano takich składów produktów (destylatu), dla których profile rektyfikacyjne przeskakiwały do innego obszaru destylacyjnego. Z kolumnami destylacyjnymi (półkową lub wypełnioną) powiązane były inne pary granic destylacyjnych. Dla obu typów kolumn istniały granice destylacyjne pitchfork. Obszar pomiędzy odpowiednimi granicami destylacyjnymi był czuły parametrycznie. Obszar ten reprezentował część wspólną dwóch nakładających się rejonów destylacyjnych. Kiedy skład produktu zlokalizowany był w tym obszarze, drugi produkt mógł pojawić się w innym obszarze destylacyjnym. Gdy skład produktu znajdował się w obszarze wspólnym pomiędzy rejonami wyznaczonymi przez dwie pary odpowiednich granic destylacyjnych, drugi z produktów mógł występować w trzech rejonach destylacyjnych. Natomiast, dla składu produktu zlokalizowanego w obszarze odciętym, drugi produkt występował zawsze w tym samym rejonie destylacyjnym, co pierwszy produkt. Literatura [1] S. Brüggemann, W. Marquardt, AIChE J., 57 (2011) [2] M. Jobson, D. Hildebrandt, D. Glasser, Chem. Eng. J. and Biochem. Eng. J., 59 (1995) [3] V.N. Kiva, E.K. Hilmen, S. Skogestad, Chem. Eng. Sci., 58 (2003) [4] A.R. Królikowski, L.J. Królikowski, Raporty SPR, Politechnika Wrocławska, Raport SPR 3/2006 (2006) [5] A.R. Królikowski, L.J. Królikowski, S.K. Wasylkiewicz, Chem. Eng. Res. Des., 89 (2011) [6] L.J. Królikowski, Raporty SPR, Politechnika Wrocławska, Raport SPR 8/99 (1999) [7] L.J. Królikowski, Distillation regions for nonideal ternary mixtures, Proceedings of the International Conference of Distillation and Absorption, Germany (2002) [8] L.J. Królikowski, Wyznaczanie rejonów destylacyjnych w trójskładnikowych mieszaninach azeotropowych, Materiały konferencyjne IV Sympozjum Destylacja, Absorpcja i Ekstrakcja, Polska (2003) [9] L.J. Królikowski, AIChE J., 52 (2006) [10] A. Lucia, R. Taylor, AIChE J., 52 (2006) [11] A. Lucia, R. Taylor, AIChE J., 53 (2007) [12] L.A. Serafimov, J. Phys. Chem. (USSR), 44 (1970) OVERLAPPING OF DISTILLATION REGIONS IN TERNARY HETEROGENEOUS MIXTURES WITH DISTILLATION BOUNDARIES An overlapping of distillation regions in heteroazeotropic mixtures distilled in staged column was scrutinized. To prove it, such composition points of the products (distillate points) were found for which the rectifying profiles were jumped into different distillation regions. Different distillation boundaries were assigned to the particular types of distillation column (staged or packed). For both types of columns, pitchfork distillation boundary existed. The area between related boundaries was parametrically sensitive. The area represented the common part of two overlapped distillation regions. When a product was located in such area, the second product might occur in different distillation regions. When the product was located in the common area between regions assigned by two pairs of appropriate distillation boundaries, the second product might occur in three distillation regions. For a product located in the cut-off region, the second product occurred in the same distillation region. 59

61 Glikozydy polialkoholi o właściwościach kompleksowania do jonów wapnia krótka charakterystyka Karolina Kubas 1 Streszczenie: Kamica nerkowa jest powszechną chorobą polegającą na gromadzeniu się w układzie moczowym tzw. kamieni nerkowych. Są to najczęściej szczawiany wapnia, które mogą ulec rozpuszczaniu w wyniku utworzenia kompleksu jonu wapnia ze związkami takimi jak glikozydy polialkoholi. W niniejszym artykule przedstawiono sposób kompleksowania ligandów przez jony wapnia oraz omówiono metody badania takich kompleksów. Słowa kluczowe: szczawian wapnia, kompleksy, cukry, glikozydy, alkohole 1. Kamica nerkowa Kamica nerkowa, nephrolithiasis, jest przewlekłą chorobą polegającą na występowaniu w układzie moczowym złogów, nazywanych kamieniami nerkowymi [1]. W 80% przypadków kamienie nerkowe to szczawiany wapnia, które wytrącają się z moczu jako trudno rozpuszczalne sole (rys. 1). Na kamicę nerkową choruje aż 8-15% Europejczyków. Choroba ta dotyczy w większości płci męskiej [2,3] a szczyt zachorowań przypada między rokiem życia [4]. W zależności od wielkości, kamienie są usuwane metodami operacyjnymi lub, ostatnio coraz częściej, metodami mało inwazyjnymi, takimi jak kruszenie kamieni falami uderzeniowymi (ESWL) oraz zabiegi endourologiczne (PCNL). Te nowoczesne metody powodują jednak powikłania mogące prowadzić nawet do powstawania dużych fragmentów kamieni. Przy stosowaniu tych technik specjaliści zalecają raczej leczenie profilaktyczne, czyli stosowanie leków, które rozpuszczają kamienie nerkowe jednak na rynku farmaceutycznym brakuje takich specyfików. [5] Te, które przyjmują chorzy jedynie łagodzą ból, ewentualnie regulują metabolizm oraz zwiększają przepływ moczu, przez co ułatwiają wydalanie kamieni, ale tylko tych w moczowodzie [4]. W latach 70-tych były dostępne leki rozpuszczające kamienie nerkowe, Rubiolizyna i Rubinex, jednak zostały one wycofane z obiegu po tym, gdy wykryto w ich składzie substancje mutagenne. H O O H O - O - 2. Kompleksy jonów wapnia Ca Rys. 1. Szczawian wapnia struktura chemiczna i fotografia [6]. Wapń jest jednym z pięciu najliczniej występujących na ziemi pierwiastków budującym około 3% skorupy ziemskiej [7]. Odgrywa kluczową rolę w budowie ssaków i funkcjonowaniu tych organizmów [8]. Wszechstronna biologiczna rola wapnia wynika 1 Politechnika Wrocławska, Wydział Chemiczny, Zakład Chemii Medycznej i Mikrobiologii, Wyb. Wyspiańskiego Wrocław, karolina.kubas@pwr.wroc.pl 60

62 z jego właściwości koordynacyjnych, czyli z tzw. liczby koordynacyjnej (L.K.). Liczba koordynacyjna to liczba atomów ligandu, które koordynują do jonu centralnego. L.K. jonu wapnia waha się, w zależności od kompleksujących związków, od 6 i 7, do najczęściej występującej L.K. 8 [8,9]; według niektórych źródeł L.K. wapnia wynosi nawet 10 [10]. Na taką rozbieżność L.K. wapnia wpływa szczególna jego budowa, a uściślając, wysokoenergetyczna druga sfera koordynacyjna wapnia, która nadaje strukturze jonu metalu specyficzną elastyczność [9]. Z powodu swego rozmiaru oraz konfiguracji elektronowej jony wapnia mogą oddziaływać z szerokim wachlarzem ligandów i donorów elektronowych. Zarówno atom azotu, jak i atom tlenu zawierają jedną parę elektronowa na swej zewnętrznej powłoce elektronowej, co czyni je efektywnymi ligandami w stosunku do jonu wapnia. Natomiast te ligandy, które posiadają w swej strukturze więcej niż jeden koordynujący atom są nazywane ligandami kleszczowymi. Do takich związków będących silnymi chelatorami jonów wapnia należy m.in. EDTA [10,11]. Prace naukowe donoszą [11], że inicjowanie kompleksowania jonu wapnia z EDTA zachodzi przez początkowe oddziaływanie grup karbonylowych EDTA sąsiadujących z atomem azotu (rys. 2). Badania te potwierdzają tezę, że najchętniej koordynującym do Ca 2+ atomem jest atom tlenu [8], który występuje w wielu grupach funkcyjnych (karbonylowa, karboksylowa, hydroksylowa, eterowa czy fosforowa) [9,12]. Z kolei grupy te są charakterystyczne dla cukrów, alkoholi i ich pochodnych. O O Ca 2+ OH O HO + N N NH :N Ca OH H + O O HO O O O O O O Rys.2. Zmiana w strukturze EDTA w wyniku wiązania jonu wapnia poprzez przeniesienie protonu z atomu azotu [11]. 3. Ligandy jonów wapnia cukry, alkohole i polialkohole Węglowodany i ich pochodne są najliczniejszą grupą biocząsteczek, które przy współudziale jonów wapniowych biorą udział w wielu procesach fizjologicznych (m.in. transport metali przez błony biologiczne, procesy adhezji i aglutacji, zmiany konformacyjne cukrowych fragmentów DNA) [13]. Tak wszechstronne właściwości biochemiczne cukrów wynikają z ich wyjątkowej struktury, na którą składają się liczne grupy hydroksylowe. Jednak do utworzenia kompleksu metalcukier wymagane jest odpowiednie ułożenie przestrzenne tych grup. Dla cukrów w formie piranozowej (dla konformacji krzesełkowej) wymagana jest specyficzna sekwencja trzech sąsiadujących ze sobą grup hydroksylowych: aksialno-ekwatorialno-aksjalna (ax-eq-ax) lub 1,3,5 triaksjalna (ax-ax-ax), natomiast w pierścieniu furanozowym wymagany jest układ cis-cis (rys. 3) [14]. Kompleksy z jonami wapnia tworzy ogromna grupa cukrowców, przy czym L.K. jonu wapnia w większości tych przypadków wynosi 8. Alkohole i polialkohole, jako związki zawierające grupy hydroksylowe, tworzą również związki kompleksowe z jonami wapnia [15]. Najczęściej wymienianym tu związkiem kompleksującym jest alkohol fenacylowy (rys. 4) [16,17]. O 61

63 OH OH OH HO OH OH ax-ax-ax ax-eq-ax Rys. 3. Sekwencja grup hydroksylowych w cząsteczkach cukrowych [14]. H 2 O 2+ O O Ca O H H 2 O O H O 2 H Rys. 4. Schemat kompleksowania dwóch cząsteczek alkoholu fenacylowego poprzez jon Ca 2+ w uwodnionym CaCl Glikozydy alkoholi i polialkoholi. Metody syntezy W oparciu o właściwości kompleksujące jonów wapnia oraz zdolności chelatujące cukrów i polialkoholi prognozuje się, że glikozydy polialkoholi mogą być silnymi chelatorami jonu wapnia. Część polialkoholowa takiej struktury z częścią cukrową dopina jego sferę koordynacyjną. Metody glikozylacji chemicznej są szeroko opisane w literaturze naukowej. Do klasycznych metod należą metody: - Koenigs-Knorra donory reszty cukrowej są w postaci peracetylowanych halogenków cukrowych a sole metali ciężkich pełnią rolę katalizatora, - Fischera cukier reaguje z alkoholem przy współudziale kwaśnego katalizatora (np. FeCl 3, BF 3 Et 2 O, H 2 SO), przy czym grupy hydroksylowe cukru nie są niczym blokowane. Synteza w/g Fischera, jako metoda wykorzystująca donor glikozylacji tzw. niechroniony cukier, ma wiele korzyści, m.in.: - pozwala skrócić liczbę etapów glikozylacji nawet do jednego, - nie wymaga blokowania grup hydroksylowych (dla syntezy z prostymi aglikonami), - stereochemia wiązania glikozydowego pozostaje zachowana, - możliwość prowadzenia reakcji w fazie stałej. Pomimo ogromnego postępu w dziedzinie rozwoju metod glikozylacji metoda w/g Fishera wciąż cieszy się największą popularnością, zwłaszcza dla alkoholi niższego rzędu i pozwala ona otrzymać termodynamicznie stałe anomery [18]. 5. Metody oceny właściwości rozpuszczania modelowych kamieni nerkowych i inhibicji ich powstawania Właściwości związków do rozpuszczania kamieni nerkowych bada się za pomocą pomiarów kompleksowania tych związków przez jony wapnia porównując wyniki analiz takich jak: - wyznaczanie stałych kompleksowania n 62

64 - badania rozpuszczalności szczawianu wapnia (fotometria płomieniowa, obserwacje mikroskopowe) - badanie hamowania powstawania szczawianu wapnia (analiza konduktometryczna, obserwacje mikroskopowe). Miareczkowanie konduktometryczne jest procesem polegającym na pomiarze przewodnictwa elektrycznego analizowanego roztworu w trakcie stopniowego dodawania do niego odczynnika miareczkującego. Metodę tę wykorzystuje się przy ocenie zdolności związków do hamowania tworzenia szczawianu wapnia, co zostało opisane w literaturze naukowej [19,20]. W wyniku dodawania do roztworu CaCl 2 odczynnika miareczkującego Na 2 C 2 O 4 wytrąca się trudno rozpuszczalna w wodzie sól: Ca Cl - + 2Na + + C 2 O 4 2-2Na + + 2Cl - + CaC 2 O 4 W tej reakcji jony wapnia są wiązane przez aniony szczawianowe a ich miejsce w roztworze zajmują jony sodu. Stężenie jonów chlorkowych nie ulega zmianie (pomijając rozcieńczenie roztworu miareczkowanego roztworem miareczkowanym). Rezultatem tego procesu jest spadek przewodnictwa w roztworze. W momencie gdy całkowita ilość jonów wapniowych obecnych w roztworze zostaje związana, zostaje osiągnięty tzw. punkt przegięcia - wówczas przewodnictwo roztworu ponownie rośnie w wyniku wzrostu stężenia dodawanych jonów Na + i C 2 O Tak więc w punkcie przegięcia przewodnictwo roztworu osiąga swoje minimum. Wpływ badanego związku na proces hamowania tworzenia szczawianu wapnia powoduje przesunięcie punktu przegięcia krzywej miareczkowania w lewą stronę względem krzywej wzorcowej. Według autorów cytowanych prac [19], pewna ilość jonów Ca 2+ obecnych w roztworze (CaCl 2 ) jest wiązana przez dodany związek, w wyniku czego zużywana jest mniejsza ilość odczynnika miareczkującego (Na 2 C 2 O 4 ). Obserwowany efekt jest wynikiem tworzenia związków kompleksowych z jonami wapnia [21]. Emisyjna spektrometria płomieniowa (F-AES) umożliwia oznaczenie stężenia wapnia w próbkach. Roztwór próbki wprowadza się do płomienia jako źródła wzbudzenia w postaci aerozolu. W płomieniu palnika roztwór odparowuje, cząsteczki dysocjują, część powstałych atomów ulega wzbudzeniu i emituje charakterystyczne, rejestrowane przez detektor, promieniowanie. Badania polegają na porównaniu emisji promieniowania podczas spalania próbki zawierającej związek potencjalnie rozpuszczający kamienie nerkowe z próbką wzorcową (z uwzględnieniem próby ślepej). Dodatnia wartość różnicy emisji wynika ze wzrostu ilości wapnia w roztworze i jest wywołana zdolnościami dodanego związku do rozpuszczania szczawianu wapnia. Inną metodą badania właściwości związków do roztwarzania kamieni nerkowych są badania mikroskopowe. Mikrofotografia zawiesiny szczawianu wapnia z dodatkiem potencjalnego związku kompleksującego pozwala na uzyskanie informacji czy po dodaniu do CaC 2 O 4 potencjalnego inhibitora, dochodzi do zmniejszenia rozmiarów kryształu w czasie, a w konsekwencji całkowitego rozpadu. 6. Podsumowanie Glikozydy polialkoholi są efektywnymi ligandami jonów wapnia. Dzięki tym właściwościom możliwe jest rozpuszczanie trudno rozpuszczalnych soli wapniowych oraz hamowanie ich powstawania, co czyni je potencjalnymi związkami w leczeniu kamicy nerkowej. Poszukiwanie substancji, które posiadają aktywność roztwarzania kamieni nerkowych jest bardzo pożądane, ponieważ większość obecnych na rynku preparatów stosowanych w terapii kamicy nerkowej ma jedynie działanie objawowe: przeciwzapalne, moczopędne i nie likwiduje przyczyn choroby. Otrzymanie glikozydów polialkoholi o aktywności kompleksowania do jonów wapnia może okazać się przełomowym w leczeniu choroby kamicy nerkowej. 63

65 Literatura [1] Stöppler M.C., Shiel Jr W.C., Kidney Stones (Renal Stones, Nephrolithiasis) MedicineNet, Desesases & Conditions, Kidney Stone article (2004); [2] Smith J.K, Lockhart M.E., Berland N.W., Kenney P., Nephtolithiasis/Urolithiasis, emedicine Specoalties > Radiology > Genitourinary, emedicine.medscape.com (aktualizacja: ); [3] Sakhaee K., Recent Advances in the Pathophysiology of Nephrolithiasis, Kidney International ( ); [4] Wolf Jr J.S., Nepholithiasis, emedicine Specialties > Urology > Stones, emedicine.medscape.com (aktualizacja: ); [5] Tiselius H.-G., Achermann D., Alken P., Buch C., Conort P., Gallucci M., Knoll T., Guidelined on Urolithiasis, European Association of Urology (2005) 35-36; [6] Louis C. Herling & Company; The Recognized Leader in Stone Analysis; [7] Strynadka N.C.J., James M.N.G., Crystal Structures of the helix-loop-helix calcium-bindings proteins, Annual Review of Biochemistry 58, (1989) ; [8] Katz A.K., Glusker J.P., Beebe S.A., Bnock C.W., Calcium Ion Coordination: A Comparision with That of Berylium, Magnesium, and Zinc, J. Chem. Soc. 118, (1996) ; [9] Caguro O., Djinovi K., Rizzi M., Comparision of the Co-ordinative Behaviour of Calcium (II) and Magnesium (II) from Crystallographic Data, J. Chem. Soc. Dalton Trans. 1, (1993) ; [10] Kinder B.K., Stewart A.F., Hypercalcemia, Current Problems in Surgery 39 (2002) ; [11] Griko Y.V., Energetics of Ca 2+ -EDTA interactions: calorimetric study, Biophysical Chemistry 79 (1999) ; [12] Inczedy J. (1979) Równowagi kompleksowania w Chemii Analitycznej, PWN, Warszawa, 54-56; [13] Gyurcsik B., Nagy L., Carbohydrates as ligands: coordination equilbria and structure of the metal complexes, Coordin. Chem. Rev. 203, (2000) ; [14] Ya-Jun Zheng, R.L.O., Julie A. Leary, A density functional theory investigation of metal ion binding sites in monosaccharides, Journal of Molecular Structure: THEOCHEM 389 (1997) ; [15] Lawrance G.A., Robertson M.J., Sutrisno, von Nagy-Felsobuki E.I., Complexation of a fourstrand tetraalcohol with labile metal ions probed by electroscopy mass spectrometry, Inorganica Chimica Acta 39 (2002) ; [16] Hauser M.R., Doxsee K.M., Calcium Complexation by Corticosteroids, Inorganic Chemistry 48 (2009) ; [17] Doxsee K.M., Ferguson C.M., Wash P.L., Saulsbery R.L., Hope H., Calcium Complexation by α-hydroxy Ketones. Characterization of a Calcium Complex of Phenacyl Alcohol, Journal of Organic Chemistry 58 (1993) ; [18] Hanessian S., Lou B., Stereocontrolled Glycosyl Transfer Reaction with Unprotected Glycosyl Donors, Chemical Review 1000 (2000) ; [19] Das I., Gupta S.K., Pandey V.N., Ansari S.A, Inhibition and diddolution of calcium oxalate crystals by Berberis Vulgaris-Q and other metabolites, J. Cryst. Growth, 267 (2004) ; [20] Das I., Gupta S.K, Ansari S.A, Pandey V.N, Rastogi R.P., In vitro inhibition and dissolution of calcium oxalate by edible plant Thianthema monogyna and pulse Macrotyloma uniflorum extracts, J. Cryst. Growth, 273 (2005) ; [21] Anna Frąckowiak Hydroksyketony i pochodne cukrowe o zdolnościach rozpuszczania modelowych kamieni nerkowych. Izolowanie substancji naturalnych i synteza nowych związków Praca doktorska, Politechnika Wrocławska

66 POLYALCOHOL GLYCOSIDES HAVING CALCIUM COMPLEXUNG PROPERTIES A SHORT REVIEW Kidney stones are hardened mineral deposits that form in kidneys. The most common, found in 80% of the sick, is calcium oxalate monohydrate. Nowadays there are no drugs for kidney stone disease. That is why scientists make an effort to develop compounds dissolving the stones. Sugars, as well as other polyalcohols have many hydroxyl groups that complex calcium ions. It seems to be a good idea to combine these two compounds and obtain polyphenol glycosides dissolving kidney stones (calcium oxalate) just by complexing calcium ion. The efficient method to obtain polyphenol glycosides is the synthesis of Fisher (one step, acid calatysts). In order to evaluate the strength of a complex calcium ion compound many techniques are applied the results of flame photometry (FAS) show if a compound dissolve calcium oxalate; on the other hand, conductometric titration gives the answer if a compound inhibits creating of calcium oxalate. Moreover, both of these properties can be observed under the electron microscope. Powyższy temat jest realizowany w ramach grantu Ministerstwa Nauki i Szkolnictwa Wyższego N N oraz stypendium współfinansowanego przez Unię Europejską w ramach Europejskiego Funduszu Społecznego. This work was supported by Ministry of Science and High Education (Grant nr N N ) and Fellowship co-financed by European Union within European Social Fund. 65

67 Wychwytywanie CO 2 w procesie absorpcji membranowej Szymon Modelski 1, Anna Witek-Krowiak 1, Anna Dawiec 1 Streszczenie: Poniższa praca przedstawia wyniki badań nad absorpcją dwutlenku węgla z wykorzystaniem kapilarnego kontaktora membranowego. Badania kinetyki absorpcji dla wybranych reaktywnych sorbentów pozwoliły wytypować sorbenty o najlepszych właściwościach. Na podstawie uzyskanych wyników wykazano potencjalne możliwości wykorzystania absorpcji membranowej w procesie sekwestracji CO 2. Słowa kluczowe: absorpcja membranowa, dwutlenek węgla, oczyszczanie powietrza 1. Wprowadzenie Kontaktory membranowe są nowoczesnymi urządzeniami do realizacji i wspomagania różnych procesów wymiany masy, jak absorpcja, destylacja, ekstrakcja i adsorpcja. W przeciwieństwie do konwencjonalnych rozwiązań, takich jak kolumny półkowe, wypełnione, dyskowe, rozpyłowe czy skrubery, kontaktory nie wymagają dyspergowania faz. Powierzchnia wymiany masy w kontaktorach jest ściśle określona konfiguracją membrany. Szybkość przepływających strumieni może się zmieniać w bardzo szerokim zakresie, bo fazy nie oddziaływują na siebie, nie ma porywania, przecieków, a przepływy są zbliżone do tłokowego. W kontaktorach główne strumienie przepływają stycznie do powierzchni membrany (najczęściej przeciwprądowo) z umiarkowaną prędkością, a membrana stanowi jedynie miejsce kontaktu, sztuczną powierzchnię międzyfazową, przez którą dyfunduje oddzielany składnik [1, 2]. Zastosowanie membran polimerowych przekłada się na niewielki opór transportu masy w membranie oraz stabilną pracę urządzenia. Pory membrany nie ulegają zwilżeniu ze względu na silnie hydrofobowy charakter materiału, dzięki czemu absorbery membranowe bardzo dobrze nadają się do pracy z roztworami wodnymi w roli absorbentu. W wypadku absorpcji membranowej CO 2, stosuje się konwencjonalne roztwory wodne CaCO 3, NaOH oraz amin, co zapewnia gwałtowne pochłanianie składnika w cieczy dzięki reakcji chemicznej [1, 2]. Do istotnych zalet procesowych absorberów membranowych należą [1, 2]: - stosunkowo niski spadek ciśnienia przepływających płynów, - dowolna aranżacja przestrzenna modułów (praca w pionie i w poziomie), - dowolne kierunki przepływu strumieni (współprąd, przeciwprąd, przepływ krzyżowy), - dowolny i niezależny zakres prędkości przepływu mediów (praca pod dużym obciążeniem zanieczyszczonym gazem przy niewielkiej cyrkulacji roztworu sorbującego), - krótka droga dyfuzji składników sorbowanych (wysoki stopień oczyszczenia przy niskim stężeniu zanieczyszczenia). W artykule przedstawiono wyniki badań nad absorpcją membranową CO 2 w wybranych wodnych roztworach amin oraz wpływ dodatku aktywatora - piperazyny. W badaniach wykorzystano modelowy moduł membranowy z jedną kapilarą polipropylenową pracujący w trybie szarżowym. W oparciu o uzyskane wyniki wskazano najwydajniejsze układy. 1 Politechnika Wrocławska, Zakład Inżynierii Chemicznej, ul. Norwida 4/6 C-6, Wrocław, kontakt: szymon.modelski@pwr.wroc.pl 66

68 2. Badania eksperymentalne Badania prowadzono w instalacji laboratoryjnej zapewniającej jednoczesną cyrkulację gazu i cieczy przez moduł membranowy. Ciecz podawana była wewnątrz kapilary, a gaz przeciwprądowo na zewnątrz kapilary. W badaniach wykorzystano moduł o długości L=0,2 [m] i średnicy D=2e-2 [m] z pojedynczą kapilarą polipropylenową o średnicy wewnętrznej d w =1,8e-3 [m] i średnicy zewnętrznej d z =2,4e-3 [m]. Gaz i ciecz były termostatowane w celu utrzymania stabilnych warunków procesu (silna zależność od temperatury). Analizę on-line składu modelowej mieszaniny gazu (azot-co 2 ) prowadzono z wykorzystaniem spektrometru FT-IR Thermo Nicolet 380 wyposażonego w przepływową komórkę do analizy składu fazy gazowej (rys. 1). Bezwzględny udział CO 2 w gazie określano w oparciu o sporządzoną zależność wzorcową. Pomiary prowadzono w zakresie liczby falowej [cm -1 ], gdzie dwutlenek węgla wykazuje silną absorbancję. Rys. 1. Schemat instalacji laboratoryjnej procesu absorpcji membranowej. 1 - moduł membranowy, 2 - termostat, 3 - zbiornik obiegowy cieczy, 4 - pompa cieczy, 5 - zbiornik obiegowy gazu, 6 - pompa gazu, 7 - spektrometr podczerwieni, manometry, 11 - rotametr, 12 - zawór regulacyjny Badania prowadzono przy dużym stosunku molowym aminy do dwutlenku węgla w układzie, co pozwoliło zaniedbać zmianę stężenia aminy w czasie procesu. Szybkość zmiany stężenia w czasie trwania procesu zależała głównie od kinetyki reakcji chemicznej dwutlenek węgla - amina, dzięki temu w łatwy sposób można wskazać aminę o najlepszych właściwościach. Stężenie początkowe CO 2 wynosiło 5% [v/v]. W badaniach wykorzystano 1,6 M wodne roztwory monoetananoloaminy (MEA), dietanoloaminy (DEA), diglikoloaminy (DGA), metylodietanoloaminy (MDEA) oraz piperazynę (0,5 M roztwór z aminą) pozyskane z POCh SA oraz BASF. 2. Wyniki Na podstawie uzyskanych pomiarów określono stopień zaabsorbowania dwutlenku węgla w czasie trwania procesu w ośmiu seriach pomiarowych dla roztworów amin oraz dla roztworów amin z dodatkiem piperazyny. Z przeprowadzonych eksperymentów wynika, iż absorpcja membranowa najkorzystniej przebiega dla amin pierwszorzędowych MEA oraz DGA (rys. 2). Absorpcja w roztworze aminy drugorzędowej DEA oraz trzeciorzędowej MDEA przebiega dużo słabiej. 67

69 Rys. 2. Stopień zaabsorbowania dwutlenku węgla w czasie trwania procesu dla przebadanych r-rów amin Dla czasu procesu t=10 [min.] stopień oczyszczenia dla amin pierwszorzędowych wyniósł ponad 60% w przypadku amin drugo- i trzecio- rzędowych stopień oczyszczenia nie przekroczył 20%. Wyniki są zgodne z obserwacjami innych badaczy [3]. W celu przyspieszenia kinetyki reakcji dwutlenku węgla z aminami do układów wprowadzono aktywator - piperazynę. Wyniki pomiarów wykazały, iż dodatek piperazyny silnie poprawia absorpcję w przypadku amin drugo- i trzeciorzędowych i nieznacznie w przypadku amin pierwszorzędowych (rys. 3). Rys. 3. Stopień zaabsorbowania dwutlenku węgla w czasie trwania procesu dla r- r-rów amin z dodatkiem piperazyny W świetle dotychczasowej praktyki stosowania amin pierwszo- i drugo- rzędowych [4], których główną wadą jest degeneracja w obecności CS 2, COS, O 2, NO x and SO x alternatywą są aminy trzeciorzędowe. Ich dużą wadą jest stosunkowo niska szybkość reakcji z CO 2 co wymusza stosowanie wysokich stężeń aminy lub jej mieszanin z aminami pierwszo- i drugo- rzędowymi [5]. Przedstawione wyniki wskazują na możliwość stosowania amin trzeciorzędowych w niskim stężeniu z dodatkiem aktywatora (piperazyna), który wydajnie przyspiesza kinetykę reakcji. W połączeniu z nowym rozwiązaniem aparaturowym jakim jest absorber membranowy możliwe staje 68

70 się prowadzenie oczyszczania powietrza z dwutlenku węgla w małej skali przez urządzenia niewielkie i proste w obsłudze. 3. Podsumowanie Przedstawione wyniki badań wskazują na potencjalne możliwości wykorzystania absorpcji membranowej w procesie oczyszczania powietrza (gazów procesowych) z dwutlenku węgla. Opracowania projektowe wymagają dalszych intensywnych badań w zakresie doboru materiału membrany, doboru warunków procesowych, modelowania procesu, doboru odpowiedniego stężenia sorbentu czy aktywatora. Badania uzyskały wsparcie finansowe w ramach stypendium "Przedsiębiorczy doktorant - inwestycja w innowacyjny rozwój regionu". Literatura [1] A. Gabelmana, S.-T. Hwang, Hollow fiber membrane contactors, J. Membr. Sci. 159 (1999) [2] E. Drioli, A. Criscuoli, E. Curcio, Membrane Contactors: Fundamentals, Applications and Potentialities, Elsevier, [3] B. Si Ali, M. K. Aroua, Effect of Piperazine on CO 2 Loading in Aqueous Solutions of MDEA at Low Pressure, Int. J. Therm. 25 (2004) [4] B. R. Strazisar, R. R. Anderson, C. M. White, Degradation Pathways for Monoethanolamine in a CO2 Capture Facility, Ener. and Fu. 17, (2003), [5] M. A. Pacheco, S. Kaganoi, G. T. Rochelle, CO2 absorption into aqueous mixtures of diglycolamine and methyldiethanolamine, Chem. Eng. Sci. 55 (2000) CARBON DIOXIDE CAPTURING IN MEMBRANE ABSORPTION PROCESS In the paper results of experiments on membrane absorption of carbon dioxide are presented. The investigations were performed with use of single polypropylene capillary membrane. Two primary amines (MEA, DGA), one secondary amine (DEA), one tertiary amine (MDEA) and piperazine were used to prepare absorbate solutions. The batch experiments were conducted for counter-current flow with liquid on the tube side of the module. The concentration of amine solutions was 1,6 M and concentration of piperazine was 0,5 M. The amine to carbon dioxide molar ration was high to avoid amine concentration influence. The carbon dioxide in nitrogen concentration was monitored during experiment by means of FT-IR Thermo Nicolet 380 spectrometer equipped with gas cell. The system was investigated for aqueous solutions of amines and for the solutions with piperazine addition. The absorption kinetics with use of primary amines appeared to be much faster than this with secondary and tertiary amines. The amine efficiency can be stated as follows MEA>DGA>>DEA>MDEA. Further investigations shown that piperazine improve the reaction and process kinetics and bring the DEA and MDEA efficiency to the level of primary amines. The experiments shown the potentialities of membrane absorption process in carbon dioxide capturing with use of different amines and/or activators. There is a need for additional investigations concerning process conditions, modeling, types of membranes, other amines and activators. 69

71 Sfery cyklodekstranowe jako sorbenty typu MIP Eliza Nazar 1, Marek Bryjak 1 Streszczenie: Celem tego projektu jest przygotowanie cyklodekstranowych odcisków molekularnych oraz użycia tych odcisków do usunięcia bisfenolu A. Porównane zostaną dwa typy polimerów cyklodekstrynowych różniące się długością łącznika między cyklodekstrynami. Na przygotowanych polimerach zostanie przeprowadzona sorpcja bisfenolu A. Słowa kluczowe: Cyklodekstryny, Bisfenol A, MIP 1. Wprowadzenie Polimerowe odciski molekularne (Molecular Imprinted Polymers MIP) są zsyntezowanym polimerem, który posiada miejsca odwzorowujące cząsteczkę, czyli matrycę. Miejsce to jest komplementarne do matrycy ze względu na kształt oraz wielkość. Grupy funkcyjne występujące w polimerze tworzą wiązania z cząsteczką matrycową. Po usunięciu matrycy powstaje wnęka na wzór miejsca aktywnego w enzymie. Przedstawiona metoda znajduje zastosowanie w rozdzieleniu enancjomerów oraz w sensorystyce [1, 2]. MIP używane są do usuwania substancji toksycznych np. bisfenolu A (BPA). Związek ten wykazuje wysoką specyficzność do receptora estrogenowego. Prowadzi do zaburzeń gospodarki hormonalnej. Nawet niskie stężenie powoduje spowolnienie rozwoju organizmu [3]. Celem pracy jest przygotowanie sorbentów cyklodekstranowych z odciskami molekularnymi oraz użycia tych materiałów do usunięcia bisfenolu A. Cyklodekstyny są to makrocząstki składające się z 1,4-glukopyranozy. Tworzą charakterystyczny stożek, który we wnętrzu jest hydrofobowy, a na zewnątrz hydrofilowy [4]. Grupy hydroksylowe tworzą wiązania wodorowe z bisfenolem A. W pracy porównano dwa typy polimerów cyklodekstrynowych. Pierwszym z nich był CarboNS, gdzie czynnikiem sieciującym był 1,1-carboimidazol oraz IsoNS, gdzie czynnikiem sieciującym był 2,4-toluenocyjanian. 2. Część eksperymentalna 2.1 Synteza polimerowych odcisków molekularnych. Cyklodekstrynowe odciski molekularne zostały otrzymane przez polimeryzację blokową. W czasie polimeryzacji CarboNS jako środek sieciujący użyty został 1,1-carboimidazol. Temperatura polimeryzacji wynosiła 100 C. Środkiem sieciującym w polimeryzacji IsoNS jest 2,4- toluenocyjanian. Rysunek 1 przedstawia różnicę w budowie pomiędzy polimerami CarboNS i IsoNS. Ilość bisfenolu A wynosiła 10% wt. Zostały także zsyntezowane próbki bez obecności bisfenolu A. Po zakończeniu polimeryzacji materiał został odmyty wodą i etanolem. 1 Politechnika Wrocławska, Wybrzeże Wyspiańskiego 27, Wrocław, eliza.nazar@pwr.wroc.pl 70

72 Rys. 1. A) CasboNS; B) IsoNS 2.2 Metodyka Próbki sorbentu (0,01 g) zostały wstrząsane z 10 ml roztworu bisfenolu A o stężeniu ,7 mm/l przez 48 h. Próbkę przefiltrowano i oznaczono stężenie BPA za pomocą spektrofotometru UV - VIS przy długości fali równej 276 nm. Przedstawiłam także analizę Scatcharda. Q / C ( Qmax Q) (1) k K a gdzie Ka to stała asocjacji, a Qmax to maksymalna liczba miejsc aktywnych, Q sorpcja BPA,Q/Ck ilość zaabsobowanego nośnika/1g sorbentu. 3. Wyniki i dyskusja Otrzymane materiały zdolne do zabsorbowania BPA porównano z materiałami nie zawierającymi odcisków. 3.1 CarboNS Rysunek 2 A) przedstawia izotermę sorpcji CarboNS oraz CarboNS+BPA. Polimer bez odcisków sorbuje w mniejszym stopniu niż polimer zawierający odciski. Z analizy Scatcharda (rys.2 B) wnioskujemy, że w CarboNS sorpcja bisfenolu A zachodzi niespecyficznie. Polimer z odciskami BPA sorbuje dwustopniowo. Najpierw BPA przyłącza się w miejsca selektywne, następnie następuje sorpcja niespecyficznie. A) B) Q*100 [mmol/g] ,2 0,4 0,6 0,8 c [mmol] c bc Rys 2.A) Izoterma Langmuira (c CarboNS; cb CarboNS+BPA). B) Analiza Scatcharda (c CarboNS; cb CarboNS+BPA). 71

73 3.2 IsoNS Izoterma sorpcji przedstawiona na rysunku 3 A) wykazuje wyższą sorpcję dla polimeru z matrycą. IsoNS nie przedstawia typowej izotermy Langmuira. Wykres Scatcharda pokazuje, że polimer IsoNS bez odcisków sorbuje, natomiast w polimerze z odciskami sorpcja zachodzi trudniej. Najpierw BPA przyłącza się do odcisków, a następnie niespecyficznie wiąże się do cyklodekstryn. Samo wysycenie odcisków cząsteczkami BPA zachodzi przy niskich stężeniach bisfenolu. A) B) 8 Q x100 [mmol/g] i ib 0 0 0,2 0,4 0,6 0,8 C [mmol] Rys 3. A) Izoterma Langmuira (i IsoNS; ib IsoNS+BPA). B) Analiza Scatcharda (i IsoNS; cb IsoNS+BPA). 3.3 Analiza Scatcharda Wartości Qmax oraz Ka zostały przedstawione w tabeli 1. Tab. 1. Charakterystyka materiałów polimerowych Próbka Ka Qmax [mm/g] CarboNS 6,61 27,2 CarboNS+BPA 7,36 39,9 IsoNS 4,72 4,6 IsoNS+BPA 15,31 2,3 4. Podsumowanie Porównując dwa rodzaje polimerów, zauważa się, że CarboNS lepiej sorbował BPA niż polimer IsoNS. Wynikać może to z tego że odległość pomiędzy cyklodekstranowymi jednostkami jest mniejsza. Ponadto istnienie możliwość powstania dodatkowego wiązania wodorowego pomiędzy tlenem a bisfenolem. Ilość miejsc aktywnych w polimerze CarboNS zawierającym odciski jest większa w porównaniu z materiałem bez odcisku. Stała dysocjacji niewiele się różni co oznacza że sorpcja zachodzi z porównywalną szybkościom. Polimer IsoNS ma mniej centrów 72

74 aktywnych w porównaniu do CarboNS. Natomiast sorpcja z odciskami molekularnymi zachodzi szybciej, niż bez odcisków. Literatura [1] V. Pichon, F. Chapuis-Hugon, Role of molecularly imprinted polymers for selective determination of environmental pollutants A review. Analytica Chimica Acta 622 (2008) [2] J. Wolska, Moleculary imprinted polymers in removal of endocrine distributors from water solutions. ICAST 2010 Izmir (2010) [3] T. Ikegami, T. Mukawa, Bisphenol A-recognition polymers prepared by covalent molecular imprinting. Analytica Chimica Acta 504 (2004) [4] K. Uekama, F. Hirayama, Cyclodextrin Drug Carrier Systems. Chem. Rev. 1998, 98, CYCLODEXTRIN PARTICLES USED AS A MIP SORBENTS The paper presents the process of preparation of cyclodextrin imprinted polymers that can be used for removal of bisphenol A (BPA). For comparison two kinds of molecular imprinted polymers (MIP) were prepared. For polymers studied their sorption was evaluated. The obtained sorbents, especially CarboNS (cyclodextrin with carboimidazol crosslinker), show high uptake of BPA then in the same materials prepared without BPA template. 73

75 Analiza bioinformatyczna i otrzymanie konstruktu umożliwiającego ekspresję w systemie bakteryjnym cytoplazmatycznej domeny białka neureguliny 3 Mirosława Różycka 1 Streszczenie:. Neuregulina 3 jest białkiem należącym do rodziny białek sygnałowych aktywujących receptory ErbB. Białko to posiada domenę cytoplazmatyczną (NRG3-ICD), charakteryzującą się obecnością regionów nieustruktyzowanych umożliwiających oddziaływanie z wieloma różnymi partnerami. Nadekspresja NRG3-ICD w układzie bakteryjnym, a następnie oczyszczenie tej domeny pozwoli scharakteryzować jej właściwości strukturalne i funkcjonalne. Słowa kluczowe: Neureguliny, Neuregulina 3, domena cytoplazmatyczna, białka inherentnie nieuporządkowane 1. Wprowadzenie Neureguliny (NRG) są białkami sygnałowymi uczestniczącymi w przekazywaniu sygnałów między komórkami w wielu procesach biologicznych. Należą one do rodziny białek zawierających motyw podobny do nabłonkowego czynnika wzrostu EGF-like (ang. Epidermal Growth Factor - like), dzięki któremu wiążą się i aktywują receptory z rodziny ErbB (ang. Epidermal Growth Factor Receptor) obecne w błonie komórki sąsiadującej [2]. Następnie, w wyniku fosforylacji specyficznych reszt tyrozynowych obecnych w cytoplazmatycznej domenie receptora, sygnał przenoszony jest do wnętrza komórki, gdzie następuje aktywacja wewnątrzkomórkowego szlaku sygnałowego. W konsekwencji może prowadzić to do zahamowania lub stymulacji proliferacji komórek, migracji, różnicowania czy apoptozy. Neureguliny pośredniczą w przekazywaniu sygnału w mięśniach szkieletowych, sercu, gruczołach sutkowych, a także w systemie nerwowym [6]. W ludzkim genomie odkryto cztery geny kodujące białka należące do tej grupy: NRG1, NRG2, NRG3 i NRG4. Każdy z tych genów może podlegać alternatywnemu splicingowi, co znacznie zwiększa pulę powstających białek [2]. Większość dotychczasowych badań skupiona została na białku NRG1, które odkryto jako pierwsze, dlatego stosunkowo niewiele wiadomo o funkcji pozostałych neuregulin. NRG1 odgrywa niezwykle ważną rolę podczas rozwoju układu nerwowego. Wpływa ono na migrację neuronów, tworzenie połączeń synaptycznych, różnicowanie oligodendrocytów i komórek Schwanna [7]. Udowodniono, że białko to jest również zaangażowane w powstawanie takich ludzkich schorzeń jak schizofrenia czy rak piersi [4]. O NRG3 wiadomo, że jest ekspresjonowane w ludzkim embrionalnym oraz dorosłym centralnym układzie nerwowym [14]. Wykazano również, że białko to jest zaangażowane w rozwój gruczołów sutkowych, a także obecne jest w komórkach ludzkiego raka piersi [3]. Neureguliny są białkami złożonymi z wielu różnych, bardzo charakterystycznych domen strukturalnych (rys. 1). Wszystkie białka tej rodziny zawierają domenę EGF-like, która znajduje się w zewnątrzkomórkowym fragmencie białka oraz domenę transmembranową, która w wyniku proteolizy może być odcinana (w przypadku białek NRG1 i NRG2) lub nie (NRG3 i NRG4). Białka NRG1 i NRG3 charakteryzują się występowaniem dwóch izoform α i β, powstających w wyniku alternatywnego splicingu w obrębie domeny EGF-like. Na aminowym zewnątrzkomórkowym 1 Wydziałowy Zakład Biochemii Politechniki Wrocławskiej, ul. Gdańska 7/ Wrocław miroslawa.rozycka@pwr.wroc.pl 74

76 końcu białka NRG1 mogą znajdować się zaangażowane w oddziaływania białko-białko domeny, takie jak domena podobna do immunoglobuliny (IgG-like) czy stabilizowana przez 3 mostki disiarczkowe domena kringle lub zakotwiczona w błonie domena bogata w cysteiny CRD (ang. Cysteine-Rich Domain). Obecność lub brak tych domen spowodowała podział białek NRG1 na trzy główne typy. NRG2 jest najbardziej podobna strukturalnie do NRG1, głównie za sprawą obecności domeny IgG-like, natomiast NRG3 i NRG4 wydają się być bardziej odległe w swojej strukturze od białka NRG1. Ponadto typ I NRG1 oraz NRG3 zawierają miejsca potencjalnej O-glikozylacji [2]. Rys. 1. Struktura neuregulin. Rysunek wykonano na podstawie A. Buonanno i G.D. Fischbach (2001) Current Opinion In Neurobiology, 11: [2]. Wszystkie neureguliny, za wyjątkiem NRG4, posiadają rozbudowaną domenę wewnątrzkomórkową ICD (ang. Intracellular Domain). Domeny NRG1-ICD i NRG2-ICD wykazuję pewne podobieństwo sekwencji aminokwasowej, jednak domena NRG3-ICD posiada sekwencję znacznie mniej zbliżoną do pozostałych. Niedawno odkryto, że domena NRG1-ICD posiada sekwencję rozpoznawalną przez sekretazę γ, dzięki czemu może zostać odcięta od reszty białka i pełnić funkcje sygnałowe wewnątrz komórki macierzystej. Miejsce rozpoznawane przez tą proteazę jest zachowane w NRG2, a także jest semikonserwowane w NRG3. Jednak dokładne znaczenie funkcji domen wewnątrzkomórkowych białek należących do tej rodziny jak dotąd pozostaje niezbadane [1]. Na podstawie wykonanej w niniejszej pracy analizy sekwencji aminokwasowej domeny NRG3-ICD zauważono, iż domena ta najprawdopodobniej posiada duże regiony nieustrukturyzowane. Domeny inherentnie nieustrukturyzowane charakteryzują się brakiem dobrze zdefiniowanej struktury trzeciorzędowej w warunkach fizjologicznych, a co za tym idzie niezwykłą elastycznością i plastycznością. Największą zaletą tych domen jest ich zdolność do przyjmowania różnych struktur w odpowiedzi na różne bodźce molekularne. Oznacza to, że białka posiadające takie regiony mogą oddziaływać, w obrębie tej domeny, z wieloma różnymi partnerami [9, 10]. Z wyżej wymienionych powodów postanowiono wyekspresjonować domenę NRG3b-ICD w systemie bakteryjnym, co umożliwiłoby następnie jej oczyszczenie i wykonanie szeregu doświadczeń pozwalających scharakteryzować jej właściwości strukturalne i funkcjonalne. 75

77 2. Materiały i metody 2.1. Otrzymanie konstruktów pqe-80l/nrg3b-icd Zsyntezowany (GeneArt) fragment cdna domeny cytoplazmatycznej ludzkiej NRG3 izoformy b (NRG3b-ICD), posiadający sekwencję zoptymalizowaną do ekspresji w systemie bakteryjnym, wklonowano za pomocą technik inżynierii genetycznej do wektora pqe-80l (Qiagen) wykorzystując miejsca rozpoznawane przez enzymy restrykcyjne BamHI i HindIII (MBI Fermentas) [8]. Tak otrzymany konstrukt poddano sekwencjonowaniu w celu sprawdzenia poprawności sekwencji wklonowanego genu, a następnie sprawdzono ekspresję otrzymanego genu. Otrzymane białko NRG3b-ICD powinno posiadać dodatkowe, pochodzące z wektora, reszty aminokwasowe: na końcu aminowym MRGSHHHHHHGS, na końcu karboksylowym KLN Ekspresja NRG3b-ICD Ekspresję NRG3b-ICD przeprowadzono w komórkach E. coli szczepu BL21(DE3)pLysS (Novagen). Bakterie transformowano 1 ng konstruktu pqe-80l/nrg3b-icd i wysiano na płytkę z pożywką LB-agar zawierającą odpowiednie stężenia antybiotyków (karbenicylina 50 µg/ml i chloramfenikol 35 µg/ml). Po 14 godzinnej inkubacji w 37 C pobrano pojedynczą kolonię, którą zaszczepiono 15 ml płynnej pożywki LB zawierającej antybiotyki. Tak przygotowaną hodowlę wstępną inkubowano przez noc w 29 C i 182 rpm, a następnie wykorzystano do zaszczepienia 100 ml płynnej pożywki LB (antybiotyki jw.). Hodowlę właściwą inkubowano w 29 C i 182 rpm aż do momentu uzyskania gęstości optycznej OD 600 0,5-0,6. Pobierano próbkę 1 ml hodowli przed indukcją, a następnie do hodowli dodawano induktora ekspresji białka w postaci izopropylo-β-d-1- tiogalaktopiranozydu (IPTG) w stężeniu końcowym 0,25 mm. Co godzinę, od momentu indukcji ekspresji białka aż do 5 godzin po indukcji, pobierano 1 ml hodowli. Następnie pobrane próbki wirowano w celu oddzielenia masy komórek od pożywki, odrzucono supernatant, a osady komórek zawieszono w 75 µl buforu do nakładania próbek 2 SB. Tak otrzymane próbki zamrożono w -20 C SDS-PAGE Analizę ekspresji białka przeprowadzono za pomocą techniki SDS-PAGE, wykorzystując układ nieciągły żelu 4% i 12% [5]. Jako znacznik wagowy wykorzystano marker PMWM The Unstained Protein Molecular Weight Marker (MBI Fermentas). Białka w żelu poliakrylamidowym wizualizowano za pomocą barwnika Coomassie Brilliant Blue R Wyniki i dyskusja 3.1. Analiza bioinformatyczna NRG3b-ICD W celu analizy sekwencji aminokwasowej badanego białka posłużono się programem Composition Profiler [11], który pozwala na porównanie udziału każdego z aminokwasów w analizowanym białku z ich udziałem w sekwencjach białek skatalogowanych w bazie SwissProt 51. Baza ta zawiera zarówno sekwencje białek globularnych, jak i nieuporządkowanych IDP (ang. Intrinsically Disordered Proteins). Podobne porównanie wykonano dla bazy PDB S25 zawierającej sekwencje białek globularnych oraz dla bazy DisProt 3.4, która zbiera sekwencje białek nieustrukturyzowanych w stanie natywnym. 76

78 Skłonność do nieuporzadkowania Prawdopodobieństwo nieuporzadkowania Analiza ta wykazała, że białko NRG3b-ICD charakteryzuje się znacznym podobieństwem pod względem składu aminokwasowego do IDP. Zawiera ono dużo reszt polarnych i obdarzonych ładunkiem, przy jednoczesnym małym udziale reszt niepolarnych, co stanowi skład aminokwasowy charakterystyczny dla IDP. Wyjątek stanowią reszty cysteinylowe, których duża liczba charakterystyczna jest dla białek globularnych, podczas gdy NRG3b- ICD posiada ich aż 7 (dane nie przedstawiono). A B 1,0 PONDR-FIT 1,0 DISOPRED2 0,8 0,8 0,6 0,6 0,4 0,4 0,2 0,2 0, Numer reszty aminokwasowej 0, Numer reszty aminokwasowej Rys. 2. Analiza bioinformatyczna NRG3b-ICD A. Analiza sekwencji aminokwasowej za pomocą algorytmu PONDR-FIT; B. Analiza sekwencji aminokwasowej za pomocą algorytmu DISOPRED2. Dzięki algorytmom PONDR-FIT [13] oraz DISOPRED2 [12] możliwe było dokładniejsze określenie, które fragmenty NRG3b-ICD występują w postaci nieustrukturyzowanej (rys. 2 A i B). Oba algorytmy działają na zasadzie sieci neuronowych, do których wprowadzono sekwencje aminokwasowe IDP, dla których brak struktury został potwierdzony doświadczalnie. Dzięki temu algorytmy te potrafią ze znacznym prawdopodobieństwem przewidzieć, które fragmenty posiadają nieuporządkowaną strukturę. Analiza sekwencji aminokwasowej NRG3b-ICD pokazała, że białko to najprawdopodobniej posiada aż trzy regiony nieustrukturyzowane. Największy w przedziale około 100 pierwszych reszt aminokwasowych, kolejny pomiędzy resztą 160 i 220 i ostatni na karboksylowym końcu białka składający się z około 50 reszt aminokwasowych Ekspresja konstruktu pqe-80l/nrg3b-icd w systemie bakteryjnym Analiza elektroforetyczna ekspresji białka NRG3b-ICD wykazała, iż białko to ulega ekspresji w systemie bakteryjnym (rys. 3). Porównując próbki pobierane co godzinę od momentu dodania do hodowli induktora można zauważyć, że ekspresja białka wyraźnie narasta w czasie, aż do osiągnięcia maksymalnej ekspresji już w trzeciej godzinie od momentu dodania induktora do hodowli. 77

79 Rys. 3. Analiza elektroforetyczna ekspresji białka NRG3b-ICD. Linia 1, marker wagowy; linia 2, lizat komórek bakteryjnych transformowanych pqe-80l/nrg3b-icd pobrany z hodowli przed indukcją ekspresji białka; Linie 3, 4, 5, 6, i 7, lizaty komórek bakteryjnych transformowanych pqe-80l/nrg3b-icd pobranych w 1, 2, 3, 4, i 5 godzinie hodowli od momentu dodania induktora ekspresji białka. Podsumowując przeprowadzone analizy cytoplazmatycznej domeny ludzkiej neureguliny 3 izoformy b stwierdzono, że najprawdopodobniej fragment ten posiada regiony inherentnie nieustrukturyzowane, które być może odpowiedzialne są za wiązanie się białka NRG3 z różnymi partnerami białkowymi obecnymi w cytoplazmie komórki. Jednak, aby potwierdzić te spekulacje niezbędne jest przeprowadzenie badań na oczyszczonym preparacie białka. Udało się otrzymać stabilny konstrukt zawierający cdna NRG3b-ICD, umożliwiający ekspresję białka w układzie bakteryjnym. Dalszym krokiem będzie optymalizacja warunków ekspresji, tak aby otrzymać rozpuszczalne białko, niezbędne do dalszego etapu oczyszczania za pomocą chromatografii powinowactwa na złożu zawierającym zimmobilizowane jony kobaltu. Literatura [1] J. Bao, D. Wolpowitz, L. W. Role, D. A. Talmage (2003) Back signaling by the Nrg-1 intracellular domain. The Journal of Cell Biology 161: [2] A. Buonanno, G. D. Fischbach (2001) Neuregulin and ErbB receptor signaling pathways in the nervous system. Current Opinion in Neurobiology 11: [3] M. Dunn, P. Sinha, R. Campbell, E. Blackbum, N. Levinson, R. Rampaul, T. Bates, S. Humpreys, W. J. Gullick (2004) Co-expression of neuregulin 1, 2, 3 and 4 in human breast cancer. Journal of Pathology 203: [4] D. L. Falls (2003) Neuregulin: functions, forms, and signaling strategies. Experimental Cell Research 284: [5] U. K. Laemmli (1970) Clevage of structural proteins during the assembly of the head of bacteriophage T4. Nature 227: [6] B. Mautino, L. D. Costa, G. Gambarotta, I Perroteau, A. Fasolo, C. Dati (2004) Bioactive recombinant neuregulin-1, -2, and -3 expressed in Escherichia coli. Protein Expression and Purification 35: [7] S. Murphy, R. Krainock, M. Tham (2002) Neuregulin Signaling via ErbB Receptor Assemblies in the Nervous System. Molecular Neurobiology 25: [8] J. Sambrook, E. E. Fritsch, T. Maniatis (1989) Molecular Cloning: A Laboratory Manual. New York, USA: Cold Spring Harbor Laboratory Press. [9] P.Tompa (2002) Intrinsically unstructured proteins. TRENDS in Biochemical Sciences 27: [10] V. N. Uversky, A. K. Dunker (2010) Understanding protein non-folding. Biochimica et Biophysica Acta 1804:

80 [11] V. Vaic, V. N. Uversky, A. K. Dunker, S. Lonardi (2007) Composition Profiler: a tool for discovery and visualization of amino acid composition differences. BMC Cioinformatics 8: 211. [12] J. J. Ward, L. J. McGuffey, K. Bryson, B. F. Buxton, D. T. Jones (2004) The DISOPRED server for prediction of protein disorder. Bioinformatics 20: [13] B. Xue, R. L. Dunbrack, R. W. Williams, A. K. Dunker, V. N. Uversky (2010) PONDR-FIT: A meta-predictor of intrinsically disordered amino acid. Biochimica et Biophysica Acta 1804: [14] D. Zhang, M. X. Sliwkowski, M. Mark, G. Frantz, R. Akita, Y. Sun, K. Hillan, C. Crowley, J. Brush, P. J. Godowski (1997) Neuregulin-3 (NRG3): A novel neural tissue-enriched protein thatbinds and activates ErbB4. Proceedings of the National Academy of Science of the USA 94: BIOINFORMATIC ANALYSIS AND OBTAINING A CONSTRUCT ALLOWING EXPRESSION OF THE CYTOPLASMIC DOMAIN OF HUMAN NEUREGULIN 3 IN BACTERIAL SYSTEM The neuregulins (NRGs) are signaling proteins that participate in a variety of biological processes. They belong to the Epidermal Growth Factor (EGF) superfamily and are ligands for receptor tyrosine kinases of the ErbB family. NRGs may bind to the ErbB receptors which leads to the phosphorylation of specific tyrosine residues within the cytoplasmic domain of the receptor. This event promotes the intracellular activation of signaling pathways, which may inhibit or stimulate such processes as a cell proliferation, migration, differentiation or apoptosis. Unfortunately little is known about the biological function of NRG3. Recent studies have shown that it is expressed in human embryonic and adult central nervous system. Some studies also demonstrated that it is involved in the development of mammary glands and is present in human breast cancer cells. Human neuregulin 3 isoform b has a large cytoplasmic domain (NRG3b-ICD) whose structure and function are not known yet. In this studies we shown that NRG3b-ICD has a few disorder regions which could allow to interact with many different partners present in the cytoplasm. We managed to obtain a stable construct containing NRG3b-ICD cdna in the pqe-80l vector, which are expressed in the bacterial system. NRG3b-ICD overexpression, and then purification will allow to characterize its structural and functional properties. 79

81 Inteligentne układy separacyjne Katarzyna Smolińska 1, Marek Bryjak 1 Streszczenie: Na powierzchni polipropylenowych membran typu Celgard 2500 aktywowanych w plazmie wyładowań barierowych szczepiono termoczuły poli(n-izopropylakrylamid), oraz kopolimer poli(n-izopropylakrylamidu) i eteru metylowo metakrylowego glikolu dietylenowego. Otrzymano tzw. nanozawory membranowe charakteryzujące się dużym strumieniem wody w 45 0 C oraz znacznie mniejszym strumieniem w temperaturze pokojowej. W procesie dializy sprawdzano właściwości separacyjne otrzymanych układów względem KCl. Najlepszą selektywność uzyskano prowadząc proces w temperaturze pokojowej. Było to wynikiem rozprostowania się łańcuchów kopolimeru, a tym samym ułatwionego dostępu jonów potasu do bloków pochodnej glikolu metylowego, które wykazują właściwości kompleksujące. 1. Wprowadzenie Słowa kluczowe: poli(n-izopropylakrylamid), plazma barierowa, kontrolowana separacja jonów Obecnie, w czasach obowiązywania filozofii gospodarki ekologicznej, pozyskiwanie surowców z ubogich źródeł stanowi jedno z większych wyzwań dla technologów. W Unii Europejskiej istnieje bardzo mało firm produkujących metale alkaliczne, w związku z tym liczba stosowanych technologii jest ograniczona. Potas na skalę przemysłową jest produkowany przez redukcję chlorku potasu sodem metalicznym. Duże zapotrzebowanie na ten pierwiastek sprzyja obecnie opracowywaniu nowych technik mających na celu zwiększenie produktywności i zredukowanie kosztów operacyjnych. Inteligentne polimery to grupa związków zmieniających swoje właściwości pod wpływem bodźca środowiskowego, takiego jak: zmiana temperatury, ph, siły jonowej, natężenia światła, itp. Inteligentne polimery znalazły już zastosowanie w procesach separacji w tzw. procesie kontrolowanego wytrącania substancji [1], czy w tzw. wodnym systemie dwufazowym [2]. Żele polimerowe stosowane są np. w procesie tzw. kontrolowanego uwalniania leków [3] czy w sensoryce [4]. Polimery szczepione na powierzchniach wykorzystywane są w chromatografii lub w innych procesach separacyjnych [5]. W określonych warunkach mogą tworzyć układy zwane potocznie nanozaworami, które, zależnie od występujących czynników zewnętrznych, charakteryzują się dużym przepływem przez membrany lub jego brakiem [5]. Biorąc pod uwagę zasady Zielonej Chemii, plazmowe metody modyfikacji powierzchni, w porównaniu do metod klasycznych, stają się niezwykle atrakcyjne. Wynika to nie tylko ze względu na brak roztworów koniecznych do utylizacji, ale także na niezwykle krótki czas modyfikacji. Celem przedstawionej pracy było otrzymanie inteligentnych membran polipropylenowych, z wbudowanymi jono-kanałami, zdolnych do kontrolowanej temperaturą separacji jonów potasu z roztworów wodnych. 1 Politechnika Wrocławska, Wydział Chemiczny, Zakład Materiałów Polimerowych i Węglowych, Wyb. Wyspiańskiego 27, Wrocław, katarzyna.smolinska@pwr.wroc.pl 80

82 2. Część doświadczalna Membrany modyfikowano wykorzystując wyładowania plazmy barierowej. Próbki umieszczano w reaktorze i poddawano działaniu plazmy przez 1 min, przy parametrach: napięcie 15kV, natężenie 5 ma, modulacja 1, strumień argonu 60 l/h. Następnie membrany zanurzano w roztworze, odpowiednio: roztwór N-izopropylakrylamidu (20%), NIPAM (Aldrich) w wodzie, roztworze NIPAMu (20%), roztworze eteru metylowo metakrylowego glikolu dieltylenowego (20%), DEGMEM (Aldrich), w etanolu, i poddano działaniu światła UV. W celu usunięcia niezaszczepionych łańcuchów membrany odmywano, odpowiednio w wodzie i etanolu. Następnie próbki membran umieszczano w 50% roztworze wodnym etanolu i przetrzymywano przez 60 min. Ilość szczepionego polimeru/kopolimeru obliczono w g/cm 2 próbki. Strumień hydrauliczny wody, a tym samym efektywność działania nanozaworów, wyznaczono w temperaturze pokojowej oraz w 45 0 C przy ciśnieniu 0,02 MPa. Selektywność otrzymanych układów sprawdzano w dializerze, również w temperaturze pokojowej oraz w 45 0 C. Stężenie określonych jonów w komorach dializera w trakcie procesu określano na podstawie pomiarów przewodnictwa elektrycznego wody, mierzonego w czasie trwania dializy. Stężenie końcowe jonów w roztworach zmierzono przy użyciu metody absorpcyjnej spektroskopii atomowej. 3. Omówienie wyników Porowate membrany polipropylenowe poddano działaniu plazmy wyładowań dielektrycznych, w wyniku czego na ich powierzchni wygenerowane zostały wolne rodniki. Tak zmodyfikowane krążki umieszczono w roztworze monomerów i poddano działaniu światła UV. Etapem końcowym modyfikacji była polimeryzacja lub kopolimeryzacja monomerów począwszy od powierzchni membrany, co w efekcie pozwoliło otrzymać membrany ze szczepionymi łańcuchami polimeru/kopolimeru - nanozawory. Charakterystykę membran wykorzystanych do procesu dyfuzji jonów przedstawiono w tabeli nr 1. Tab. 1. Charakterystyka membran wykorzystywanych w procesie dializy Szczepione łańcuchy Przyrost masy [mg/cm 2 ] Strumień hydrauliczny wody p=0,02mpa [dm 3 /m 2 h] T pokojowa T=45 o C PNIPAM 0, PNIPAM-co-DEGMEM 0, Efektywność działania nanozaworów sprawdzano mierząc strumień hydrauliczny cieczy w temperaturze powyżej i poniżej 32 0 C temperatury krytycznej dla PNIPAM. W temperaturze pokojowej zaobserwowano całkowity brak przepuszczalności membran, co jest wynikiem rozprostowania się łańcuchów PNIPAM-u a tym samym blokowania przepływu cieczy przez pory membrany (tabela nr 1). Właściwości separacyjne membran badano w dializerze w temperaturze pokojowej i w 45 0 C. Badania prowadzono dla 0,1 M roztwru chlorku potasu. Proces dializy prowadzono przez 120 min. W trakcie procesu mierzono przewodnictwo roztworu, a stężenie jonów oznaczono metodą atomowej spektroskopii absorpcyjnej. Na rysunku nr 1 przedstawiono zależność stężenia KCl w komorze dializera w zależności od czasu trwania procesu, dla membrany ze szczepionymi 81

83 łańcuchami PNIPAM i kopolimeru PNIPAM-co-DEGMEM. Zarówno w temperaturze podwyższonej jak i pokojowej, przewodnictwo jest większe przez membrany ze zaszczepionymi łańcuchami kopolimeru. Porównując efektywność transportu KCl dla obu typów membran zauważyć można, że dla dyfuzji w 45 0 C stężenie soli po zakończeniu dializy jest o 0,01 g/l mniejsze dla PNIPAM niż dla kopolimeru. Natomiast w temperaturze pokojowej różnica ta wynosi już 0,04 g/l. Gdy PNIPAM zastąpiony zostaje kopolimerem PNIPAM-co-DEGMEM różnica w stężeniu potasu w temperaturze pokojowej wynosi 0,26 g/l, podczas gdy w temperaturze podwyższonej tylko 0,09 g/l. Pozwala to wnioskować, iż pochodna glikolu etylenowego wykazuje właściwości kompleksujące, a najlepsze właściwości separacyjne wykazuje membrana z naszczepionym kopolimerem w temperaturze pokojowej. Jest to wynikiem rozwijania się łańcuchów kopolimeru w temperaturze poniżej dolnej krytycznej temperatury rozpuszczania, LCST, a tym samym ułatwienia dostępu jonów do bloków pochodnej glikolu etylenowego. Obecność łańcuchów PNIPAM i kopolimeru na membranach potwierdzono wykonując widma FTIR (rys. nr 2). Pasma absorpcji przy ok cm -1 i 1650 cm -1 (c), których brak w widmie niemodyfikowanej membrany (a) są charakterystyczne dla ugrupowania C=O i N-H występujących w łańcuchu PNIPAM, natomiast pasmo przy 1725 cm -1 świadczy o obecności C=O DEGMEM (b). Szczepione łańcuchy Tab. 2. Charakterystyka procesu dializy KCl T [ 0 C] Stężenie potasu [g/l] Strumień jonów [g/(min*cm 2 ] Po dializie K + PNIPAM Tp 1,22 0, ,56 0,00265 PNIPAM-co-DEGMEM Tp 1,48 0, ,65 0,00280 Rys.1. Zależność stężenia jonów soli KCl od czasu trwania procesu dializy, a) dializa przez membranę z kopolimerem w 45 0 C, b) dializa przez membranę z PNIPAM w 45 0 C, c) dializa przez membranę z kopolimerem w Tp, d) dializa przez membranę z PNIPAM w Tp 82

84 Rys. 2. Widmo FTIR a) membrana polipropylenowa, b) membrana polipropylenowa z zaszczepionymi łańcuchami kopolimeru PNIPAM-co- DEGMEM, c) membrana polipropylenowa z zaszczepionymi łańcuchami PNIPAM 4. Podsumowanie W wyniku modyfikacji plazmowej i szczepienia polimerów PNIPAM i DEGMEM na polipropylenowych membranach otrzymano inteligentne układy separacyjne. W procesie dializy chlorku potasu największy strumień soli był zarejestrowany dla procesu prowadzonego w temperaturze pokojowej. Prawdopodobnie, jest to wynikiem ułatwionego dostępu jonów do bloków zawierających glikol etylenowy, w przypadku rozprostowanych łańcuchów kopolimeru. Pochodna ta najprawdopodobniej tworzy układy zbliżone do korony eteru koronowego. Tym samym bloki z DEGMEM wykazują właściwości kompleksujące i wspomagające proces transportu jonów przez pory membrany tworząc swoiste jono-kanały. Literatura [1] M. Castioli, I. Fisch, F. Garret-Flaudy, F. Hilbrig, R. Freitag. Biotechnol Bioeng 2002, 81, 535 [2] J. Persson, H.O. Johansson, F. Tjerlend. J Chromatogr A 1999, 864, 31 [3] X.Z.Zhang, P.J. Lewis, C.C. Chu. Biomaterials 2005, 26, 3299 [4] Q Cai, K. Zeng, C Ruan, T.A. Desai, C.A.Grimes. Anal Chem 2004, 76, [5] M. Bryjak, I. Gancarz, K. Smolińska. Adv. Coll. Int. Sci. 2010, 161, 2. INTELIGENT SEPERATE SYSTEM Poly(N-isopropylacrylamide) and copolymers of poly(n-isopropylacrylamide)-copolydi(ethylene glycol)methyl ether methacrylate grafted on the polypropylene membranes exhibited excellent conformational responses to temperature changes. For water solution at room temperature membrane porous were impermeable while at 45 0 C permeate flux was about dm3/m2h. Permeation of KCl was tested in dialyses process. The best results, the KCl flux was obtained at room temperature. Probably, at room temperature, the ions could get contact with DEGMEM blocs. The DEGMEM blocs create similar structure to crown ether and made complex with potassium ions. Praca naukowa wykonana w ramach: Stypendium współfinansowane przez Unię Europejską w ramach Europejskiego Funduszu Społecznego 83

85 Nanokompozyty LDPE/OMMT otrzymane na drodze wytłaczania Konrad Szustakiewicz 1, Małgorzata Żabska 1, Jacek Pigłowski 1 Streszczenie: Przedmiotem pracy są kompozyty na bazie polietylenu niskiej gęstości napełniane organicznie modyfikowanymi glinokrzemianami warstwowymi. Jako tzw. kompatybilizator, czyli środek ułatwiający dyspersję napełniacza (delaminację) w polimerze zastosowano kopolimer etylen-akrylan metylu. Układy wytworzono przy pomocy dwuślimakowej wytłaczarki współbieżnej. Zmiany struktury napełniacza w kompozytach, w zależności od ilości zastosowanego środka kompatybilizującego, śledzono przy pomocy dyfrakcji promieniowania rentgenowskiego (WAXS). Otrzymane kompozyty przebadano także pod kątem właściwości mechanicznych. Słowa kluczowe: polietylen, nanokompozyty, warstwowe glinokrzemiany, WAXS 1. Wprowadzenie Nanokompozyty polimerowe napełniane glinokrzemianami warstwowymi należą do grupy materiałów wzbudzających ogromne zainteresowanie wśród ośrodków badawczych i przemysłowych na całym świecie. Głównym powodem jest niska cena napełniaczy, łatwość ich modyfikacji, a także szerokie spektrum zastosowania. Nanokompozyty, przy niewielkim stopniu napełnienia (kilku procent wagowych) charakteryzują się wzrostem stabilności termicznej, parametrów wytrzymałościowych, zwiększoną barierowością oraz odpornością na palenie w stosunku do czystego polimeru [1, 2]. Warstwowe glinokrzemiany charakteryzują się budową przypominającą talię kart, których długość i szerokość wynosi od 100 do 500 nm, natomiast całkowita grubość kilkadziesiąt nm, a grubość pojedynczej płytki ok. 1 nm. Dodatkowo cząstki te wykazują silną tendencję do aglomeracji, są polarne i hydrofilowe, przez co niekompatybilne z większością polimerów. Aby zwiększyć powinowactwo napełniacza do polimeru, modyfikuje się go przy pomocy soli amfifilowaych, nadających glinokrzemianom właściwości hydrofobowe i zwiększających odległości między poszczególnymi warstwami napełniacza (d 001 ) [3]. W przypadku poliolefin (polietylen, polipropylen) taka modyfikacja nie jest wystarczająca, dlatego domieszkuje się je środkami kompatybilizującymi (kopolimery polarne) mieszalnymi z matrycą i jednocześnie warstwowym glinokrzemianem. W ten sposób, po odpowiednim dobraniu parametrów przetwórczych, można otrzymać nanokompozyt o delaminowanej strukturze napełniacza (struktura talii kart zostaje zniszczona). W takim układzie napełniacz ma strukturę 2D (grubość pomijalnie mała). Celem pracy jest oznaczenie wpływu ilości środka kompatybilizującego (kopolimer etylenu z akrylanem metylu) na stopień delaminacji organicznie modyfikowanych glinokrzemianów warstwowych w polietylenie niskiej gęstości (LDPE). 1 Politechnika Wrocławska, Wydział Chemiczny, Zakład Inżynierii i Technologii Polimerów, Wybrzeże Wyspiańskiego 27, Wrocław, konrad.szustakiewicz@pwr.wroc.pl 84

86 2. Materiały i metody LDPE polietylen niskiej gęstości MALEN E FGNX 23-D006 (Basell Orlen), MFR 190 C/2.16 Kg = 0,7 g/10 min, Elvaloy 1330AC kopolimer polietylenu niskiej gęstości (70 %) i akrylanu metylu (30 %wag) (Dupont), MFR 190 C/2.16 Kg = 3 g/10 min), zastosowano do kompatybilizacji LDPE i organobentonitów, NanoBent ZR2 - organobentonit wyprodukowany w Zakładach Metalowo-Górniczych Zębiec z bentonitu sodowego (BS) oraz czwartorzędowych soli amoniowych (Bardac 2270, będący roztworem chlorku didecylodimetyloamoniowego), odległość międzypłaszczyznowa glinokrzemianu d 001 =2,1 nm. Kompozyty o zawartości 5 % wagowych ZR2 sporządzono przy użyciu współbieżnej wytłaczarki dwuślimakowej Brabender DSE 20/40 D (średnica ślimaków 20mm, L/D=40) z jednostką napędową Brabender Lab-Station. Profil temperaturowy komory ślimakowej: o C, temperatura głowicy wynosiła 170 o C. Kompozyty były granulowane po schłodzeniu do 20 +/-3 o C. Prędkość obrotowa ślimaków wynosiła 275 obr/min. Zawartość kompatybilizatora w kompozycie wynosiła 2,5 oraz 11,6 %. Strukturę glinokrzemianu oraz glinokrzemianu w osnowie LDPE wyznaczono metodą WAXS (Wide angle X-ray scattering) w zakresie 2θ = 1,1 10 o przy pomocy dyfraktometru rentgenowskiego Rigaku Ultima IV. Źródło promieniowania rentgenowskiego lampa z anodą Cu Kα λ = 0,1542 nm, pracująca przy prądzie 40 kv i 30 ma. Układ pomiarowy Bragg-Brentano, geometria pomiaru 2theta-theta. Pomiar przeprowadzono w trybie krokowym, ze skokiem pomiarowym 0,05 o i czasem naświetlania 3 s. Odległość pomiędzy warstwami napełniacza (d 001 ) wyznaczono na podstawie prawa Bragg`ów (1). n d sin (1) Badania mechaniczne przeprowadzono przy użyciu uniwersalnej maszyny wytrzymałościowej TIRA test 2705, wyprodukowanej przez Tira Machinenbaum Gmbh, Lipsk i wyposażoną w głowicę pomiarową umożliwiającą wykonywanie pomiarów w zakresie 1 N-5 kn. Badania wykonano zgodnie z normą PN-EN ISO Obróbkę wyników przeprowadzono przy pomocy oprogramowania TiraTestSoftware. 3. Wyniki i dyskusja Dyfraktogramy rentgenowskie (WAXS) glinokrzemianu ZR2 oraz kompozytów o różnej zawartości kompatybilizatora zamieszczono na rysunku 1. Dla czystego glinokrzemianu maksimum dyfrakcyjne występuje przy kącie rozpraszania 2θ = 4,3º, zgodnie z prawem Braggów oznacza to, że odległość między galeriami napełniacza wynosi 2,1 nm. Wartość ta pokrywa się z danymi producenta. W przypadku wszystkich otrzymanych kompozytów maksima dyfrakcyjne przesunięte są w kierunku mniejszych kątów rozpraszania, dla układu o zawartości 2 oraz 5% wag. kopolimeru wartość ta wynosi 2θ = 2,6º (d 001 =3,3 nm) podczas gdy dla kompozytu o zawartości 11,7 % wag. 2θ = 2,5º( d 001 =3,4 nm). Wzrost odlegości między warstwami napełniacza związany jest z interkalacją polimeru pomiędzy galerie glinokrzemianu. Rozsunięcie to jest widoczne już przy wprowadzeniu niewielkiej, 2 % ilości kompatybilizatora, a więc po wprowadzeniu zaledwie 0,6 % wag. grup polarnych do układu. Należy zwrócić uwagę, iż natężenie integralne spada wraz ze wzrostem zawartości grup polarnych w układzie. Świadczy to o występowaniu mniejszej ilości płaszczyzn krystalograficznych zdolnych do odbijania promieniowania w tym zakresie kątowym. Zmniejszenie piku dyfrakcyjnego związane jest z lepszą dyspersją glinokrzemianów w kompozytach zawierających większą ilość środka kompatybilizującego (rys. 1.). 85

87 intensywność [jedn.względne] n= 1 d 00 1 = 3,3 n m d 00 1 = 3,4 n m d 001 = 2,1 n m n=2 Z R 2 L D P E + 2 % E M A + 5 % Z R 2 L D P E + 5 % E M A + 5 % Z R 2 L D P E + 1 1,7 % E M A + 5 % Z R Rys. 1. Krzywe dyfrakcyjne (WAXS) otrzymanych kompozytów LDPE/glinokrzemian warstwowy Próbka Tab. 1. Właściwości mechaniczne otrzymanych kompozytów Moduł sprężystości [MPa] Wytrzymałość na rozciąganie [MPa] Całkowite wydłużenie przy zerwaniu [%] Naprężenie niszczące [MPa] LDPE 174 +/-8 11,4 +/-0, /-6 10,0 +/-0,2 LDPE+11,7%EMA 147 +/-3 9,9 +/-0, /-4 8,7 +/-0,1 LDPE+5%EMA 173 +/-11 10,6 +/-0, /-9 9,4 +/-0,3 LDPE+2%EMA 176 +/-7 10,9 +/-0, /-12 9,7 +/-0,2 LDPE+11,7%EMA+5%ZR /-2 10,1 +/-0, /-6 8,9 +/-0,3 LDPE+5%EMA+5%ZR /-14 10,8 +/-0, /-11 9,5 +/-0,1 LDPE+2%EMA+5%ZR /-12 11,0 +/-0, /-10 9,6 +/-0,2 Wyniki badań właściwości mechanicznych wskazują, iż dodatek kompatybilizatora do LDPE powoduje obniżenie wszystkich badanych parametrów mechanicznych. Spadek jest proporcjonalny do zawartości środka kompatybilizującego. W przypadku dodatku 11,7 % EMA obserwuje się ok. 4 % spadek wytrzymałości na rozciąganie, 13 % spadek naprężenia niszczącego oraz 15 % spadek modułu sprężystości. Wyniki wskazują, że obniżenie parametrów mechanicznych można skompensować dodatkiem glinokrzemianów. Najwyższe parametry mechaniczne uzyskano dla układu LDPE+2 % EMA+5 % ZR2, którego wszystkie parametry mechaniczne zbliżone są do parametrów LDPE, a dodatkowo układ charakteryzuje się 30 % wzrostem modułu sprężystości względem próbki odniesienia (tab. 1.). 4. Podsumowanie W wyniku prac otrzymano kompozyty na bazie polietylenu niskiej gęstości napełniane warstwowymi glinokrzemianami, z dodatkiem środka kompatybilizującego w postaci kopolimeru etylen-akrylan metylu. Wyniki badań wytrzymałościowych wskazują, że dodatek kopolimeru do polietylenu powoduje obniżenie właściwości mechanicznych układu. Analiza wyników WAXS wskazuje, że dodatek EMA ułatwia dyspersję napełniacza w polimerze. Przesunięcie maksimum dyfrakcyjnego pochodzącego od struktury warstwowej glinokrzemianu w kompozycie w kierunku 86

88 mniejszych kątów stwierdzono już przy zawartości 2 % wag. EMA. Odległość d 001 dla tego układu wynosi 3,3 nm i jest identyczna jak w przypadku układu z 5 % EMA i niewiele mniejsza od układu zawierającego 11,7 %wag. kompatybilizatora. Układ zawierający 2 % wag. EMA charakteryzuje się najwyższym modułem sprężystości spośród badanych kompozytów, przy wartościach pozostałych parametrów na poziomie czystego LDPE. Podziękowania Badania współfinansowane przez Unię Europejską w ramach Program Operacyjny Kapitał Ludzki, w ramach projektu Przedsiębiorczy doktorant - inwestycja w innowacyjny rozwój regionu Literatura [1] A. Okada, A. Usaki. Twenty Years of Polymer - Clay Nanocomposites. Macromolecular Materials and Engineering, 291, 2006, [2] S. Sinha Ray, M. Okamoto. Polymer/layered silicate nanocomposites: a review from preparation to processing. Progress in Polymer Science, 28, 2003, [3] M. Zanetti, L. Costa. Preparation and combustion behaviour of polymer/layered silicate nanocomposites based upon PE and EVA. Polymer, 45, 2004, NANOCOMPOSITES BASED ON LDPE AND LAYERED SILICATES OBTAINED IN EXTRUSION PROCESS Polymer layered silicates nanocomposites are investigated in many research groups around the world. The main nanocomposites advantages comparing to neat polymer are significant improvement in modulus, heat deflection temperature, permeability and retardant enhancement at low filler level (few wt.%). However the improvement above mentioned properties is observed mainly for well dispersed layered silicates in polymer matrix exfoliated nanocomposites, where the form of layers of crystals is about 1nm. The naturally occuring silicates are commercially used as the nanocomposites fillers. The main reason of that is availability and low price. To simplify exfoliation of the filler in polymer matrix, the silicates are surface treated with organic compounds. As a modifier of the clay usually quaternary ammonium salts are used. Additionaly for polyolefines usually small amount of so called compatibilizer is used to simplify dispersion of the clay in non - polar polymer matrix. As compatibilizers usually polyethylene grafted with maleic anhydride (PE-g-MAH) or copolymer ethylene-co-methyl acrylate (EMA) are used. The contribution presents results of LDPE/EMA/clay nanocomposites research. The aim of this work was to evaluate the influence of compatibilizer (EMA) content on structure of the clay in the composites. The structure of the clay was evaluated using Wide Angle X-ray Scattering. Additionally mechanical tests were performed. 87

89 Otrzymywanie produktów glikacji będących odpowiednikami związków powstających podczas przetwarzania Ŝywności A. Bronowicka-Szydełko 1, J. Pietkiewicz 1, A. Palko-Łabuz 2, A. Gamian 1,3 Streszczenie: Glikacja jako nieenzymatyczna modyfikacja białek zachodzi m. in. podczas termicznej obróbki Ŝywności. W pracy przedstawiono badania właściwości molekularnych i fluorescencyjnych produktów glikacji otrzymanych w warunkach wysokotemperaturowych, po modyfikacji mioglobiny (MB) glukozą (GLC) i reaktywnymi aldehydami niskocząsteczkowymi akroleiną (AKR), metyloglioksalem (MGO) i trans-2-nonenalem (T2N). Produkty MB-AKR wykazywały inne właściwości fluorescencyjne po wzbudzeniu światłem o długości fali 485 nm, niŝ obserwowane w próbkach po modyfikacji mioglobiny przez GLC, T2N oraz MGO, co moŝe być uŝyteczne w rozróŝnianiu rodzajów epitopów powstających w wyniku glikacji. Słowa kluczowe: glikacja, średnio-usieciowane produkty glikacji, fluorescencja 1. Wprowadzenie Glikacja jest procesem nieenzymatycznej modyfikacji białek w wyniku reakcji dostępnych grup aminowych reszt lizylowych, arginylowych, histydylowych lub grup suflhydrylowych cysteiny z cukrami redukcyjnymi - glukozą, fruktozą lub z innymi niskocząsteczkowymi związkami karbonylowymi, zwłaszcza reaktywnych α-oksoaldehydami, [1,2]. W zaleŝności od rodzaju czynnika glikującego, moŝe ona zachodzić wg dwóch mechanizmów: reakcji Maillarda lub reakcji addycji Michaell a, [1,3]. W wyniku tych przemian natywne białka tracą właściwości biologiczne [3,4]. Dzięki zdolności tworzenia wiązań krzyŝowych wewnątrz- i międzycząsteczkowych powstają heterogenne wysoko usieciowane związki tzw. końcowe produkty zaawansowanej glikacji - AGE (advanced glycation end products). Wiele z nich tworzy trwałe, trudno rozpuszczalne agregaty, o brunatnym zabarwieniu i specyficznych właściwościach fizyko-chemicznych [1-4]. PoniewaŜ glikacja zachodzi spontanicznie w Ŝywych organizmach, a powstające produkty kumulują się w tkankach wraz z wiekiem, uznano ją za fizjologiczny proces determinujący starzenie [5]. Ten typ modyfikacji białek nasila się w stanach hiperglikemii (m.in. w cukrzycy), przyspieszając wystąpienie powikłań, w postaci mikroangiopatii, makroangiopatii, retinopatii, czy nefropatii [2,6]. Niektóre związki AGE mogą być usuwanie z krwiobiegu za pośrednictwem receptorów zlokalizowanych na powierzchni komórek i są degradowane w lizosomach. Jednak większość z nich nie ulega degradacji, lecz gromadzi się prowadząc do powstania stresu oksydacyjnego [2]. Obecność glikowanych białek w surowicy indukuje równieŝ powstawanie przeciwciał przeciwko produktom AGEs [5]. Wykazano, Ŝe wraz z wiekiem postępuje wzrost glikacji białek tkanki łącznej w ścięgnach, aorcie, soczewce oka oraz pojawia się nasilona modyfikacja kolagenu skóry u osób niewykazujących objawów cukrzycy. Glikacja kolagenu i innych białek macierzy doprowadza u chorych na cukrzycę do sztywnienia ścian naczyń Ŝylnych i tętniczych, natomiast glikacja krystaliny soczewki oka sprzyja wytworzeniu się katarakty [2,5]. 1 Katedra i Zakład Biochemii Lekarskiej, Akademia Medyczna we Wrocławiu 2 Katedra Biofizyki, Akademia Medyczna we Wrocławiu 3 Instytut Immunologii i Terapii Doświadczalnej we Wrocławiu 88

90 Synteza związków AGEs, moŝe zachodzić endogennie, ale mogą być one dostarczane do organizmu równieŝ z poŝywieniem. Glikacja zachodzi szczególnie efektywnie w termicznych procesach przetwarzania Ŝywności, takich jak gotowanie, czy smaŝenie [7]. W czasie reakcji Maillarda w Ŝywności mogą powstawać związki toksyczne. Podobnie jak produkty AGE syntezowane w organizmie równieŝ egzogenne produkty glikacji są praktycznie nieusuwalne, tworzą złogi i są przyczyną powikłań wielu chorób takich jak np. cukrzyca, czy miaŝdŝyca. Badanie właściwości chemicznych, jak i fizycznych produktów AGE oraz opracowanie szybkiej metody ich uzyskiwania być moŝe pozwoli na jeszcze lepsze scharakteryzowanie tej grupy związków. Celem pracy było opracowanie wysokotemperaturowej metody uzyskiwania średniousieciowanych produktów glikacji mioglobiny (MB), będących odpowiednikami związków powstających podczas przetwarzania Ŝywności pod wpływem działania wysokiej temperatury w obecności wody. Glikację przeprowadzano za pomocą: akroleiny (AKR), metyloglioksalu (MGO), trans-2-nonenalu (T2N) i glukozy (GLC). Dodatkowo sprawdzono, czy otrzymane produkty glikacji wykazują zdolności do fluorescencji w zakresie długości fal: od 280 do 600 nm. 2. Metodyka badań 2.1. Uzyskiwanie średnio-usieciowanych produktów glikacji MB za pomocą: ACR, T2N, MGO i GLC w metodzie wysokotemperaturowej na mokro : HT(W). Warunki syntezy: 24 mg MB (SIGMA ALDRICH) roztworzono w 2,4 ml wody H 2 O miliq uzyskując roztwór o stęŝeniu 10 mg/ml. Następnie sporządzono odpowiedni roztwór czynnika glikującego (GF) w ten sposób, by po zmieszaniu roztworu MB z roztworem GF stosunek molowy MB/GF wyniósł 1:100. Mieszaninę reakcyjną rozpipetowano do 24 probówek typu eppendorff i uzupełniono do 200 µl H 2 O miliq, uzyskując stęŝenie MB 5 mg/ml. Podzielono je na 3 partie (po 8 prób). Pierwsza partia została poddana inkubacji w temperaturze 75 o C, druga 85 o C, a trzecia 95 o C. Czas inkubacji w danej temperaturze wynosił odpowiednio: 5, 10, 15, 20, 30, 45, 60 lub 120 min. W ten sposób przeprowadzono syntezę MB/GF w 24 róŝnych kombinacjach czasu i temperatury inkubacji dla jednego czynnika glikującego. Sporządzono równieŝ próbę kontrolną (K) - roztwór MB o stęŝeniu 5 mg/ml, nie modyfikowanej. Elektroforeza SDS-PAGE: Otrzymane produkty glikacji MB rozdzielano elektroforetycznie w warunkach denaturujących [3,4], w 12% Ŝelu poliakrylamidowym. Białka w Ŝelach barwiono 0,2 % Coomassie brillant blue R-250 (PARK). Na podstawie wizualizacji uzyskanych produktów ustalano, które warunki syntezy średnio-usieciowanych produktów glikacji MB są optymalne dla danego czynnika glikującego Badanie właściwości fluorescencyjnych średnio-usieciowanych produktów glikacji MB/AKR, MB/T2N, MB/MGO i MB/GLC, uzyskanych metodą HT(W). Z prób reakcyjnych pobierano po ok. 20 µg produktów glikacji (6 µl roztworu). Wybrano następujące próby: MB/MGO (75 o C, 30 min.); MB/AKR (85 o C, 120 min.); MB/T2N (95 o C, 30 min.); MB/GLC (95 o C, 120 min.) i roztworzono je w 597 µl H 2 O miliq. StęŜenie MB w sporządzonych roztworach wynosiło ok. 0,05 mg/ml. Warunki odczytu sygnału emisji dobrano na podstawie Rasheed et al. [8]. Intensywność emisji fluorescencji badanych prób mierzono w zakresie fal: nm (Fluorymetr Perkin Elmer LS 50B), w czterech przedziałach: 1) wzbudzenie: 280 nm; emisja: nm 2) wzbudzenie: 330 nm; emisja: nm 89

91 3) wzbudzenie: 360 nm; emisja: nm 4) wzbudzenie: 485 nm; emisja: nm 3. Wyniki i dyskusja Analiza elektroforetyczna AGE, otrzymanych metodą wysokotemperaturową: HT(W) w wyniku modyfikacji mioglobiny glukozą w temperaturze 95 o C, wykazała powstawanie średniousieciowanych produktów glikacji dopiero po 45 minutach inkubacji (Rys. 1). W mieszaninie reakcyjnej dominowały w tych warunkach średnio-zaawansowane produkty glikacji o masie cząsteczkowej ok. 35 kda. Po zwiększeniu czasu syntezy do 60 minut, z mioglobiny (Mw 17 kda) powstawały większe pochodne, o masie 47 kda, 65 kda. Rys.1. Glikacja metodą HT(W), mioglobiny w obecności glukozy, w temperaturze 95oC w róŝnych czasach inkubacji: 5, 10, 15, 20, 30, 45, 60, 120 min.; M białkowe standardy mas cząsteczkowych; K MB niemodyfikowana jako próba kontrolna 90

92 Rys. 2. Produkty glikacji mioglobiny modyfikowanej glukozą, akroleiną, metylo-glioksalem i trans-2-nonenalem, przy stosunku molowym MB/GF 1:100: ścieŝka 1) standard białkowy mas cząsteczkowych; produkty glikacji 2) MB/GLC (95oC, 120 min.); 3) MB/AKR (85oC, 120 min.); 4) MB/T2N (95oC, 30min.); 5) MB/MGO (75oC, 30 min.); 6) K próba kontrolna: MB niemodyfikowana Po 120 minutach syntezy obserwowano wzrost intensywności tych prąŝków białkowych oraz pojawianie się kolejnych produktów, o masie powyŝej 300 kda, które jako trudno rozpuszczalne wysokocząsteczkowe AGE oddzielano od pozostałych składników mieszaniny glikacyjnej za pomocą wirowania (Rys. 1). Czas inkubacji mieszaniny reakcyjnej 120 min. w temperaturze syntezy 95 o C uznano za optymalny w otrzymywaniu średnio-cząsteczkowych AGE-pochodnych mioglobiny glikowanej glukozą, przy stukrotnym nadmiarze czynnika glikującego. Wraz z dalszym zwiększaniem obu parametrów syntezy wysokotemperaturowej obserwowano wzrost trudno rozpuszczalnych cięŝszych agregatów AGE, co było niekorzystne w badaniu właściwości otrzymywanych produktów glikacji. W podobny sposób określono zakresy parametrów syntezy dla mioglobiny inkubowanej z akroleiną, metyloglioksalem oraz trans-2-nonenalem (dane nie pokazane). Otrzymane wyniki podsumowano w Tabeli 1. Skład mieszanin AGE otrzymanych metodą HT(W) w optymalnych warunkach porównano w elektroforezie SDS/PAGE w 12 % Ŝelu poliakrylamidowym (Rys. 2). Mieszaniny produktów glikacji MB/T2N i MB/MOG miały podobny skład średnio-cząsteczkowych AGE do otrzymanych z MB glikowanej glukozą (Rys. 3, ścieŝki 4, 5 vs. ściezka 2). Warto podkreślić, Ŝe metyloglioksal okazał się najbardziej delikatnym czynnikiem glikacji, poniewaŝ w warunkach syntezy wysokotemperaturowej nie pojawiały się w tej próbce wysokocząsteczkowe AGE (Rys. 3, ścieŝka 5). Natomiast otrzymane produkty modyfikacji białka akroleiną istotnie róŝniły się składem i intensywnością prąŝków białkowych (Rys. 3, ścieŝka 3). Tabela 1. Warunki glikacji MB przez: GLC, ACR, T2N i MGO metodą HT(W). Warunki glikacji MB metodą HT(W) Koniugat MB/GF Temperatura ( o C) Czas (min.) MB/GLC MB/AKR MB/T2N MB/MGO

93 Uzyskane średnio-usieciowane produkty glikacji wykazywały zróŝnicowane właściwości fluorescencyjne (Rys. 3). Po wzbudzaniu badanych próbek o takich samych stęŝeniach (0,1 mg/ml) światłem o długości fali 280 nm, 330 nm lub 360 nm obserwowano najwyŝszą intensywność fluorescencji średnio-cząsteczkowych AGE pochodnych mioglobiny glikowanej akroleiną, w porównaniu z próbkami mioglobiny modyfikowanej przez GLC, MGO, T2N. Wraz ze wzrostem długości fali wzbudzenia w zakresie nm obserwowano stopniowy wzrost intensywności emisji sygnału tych produktów, rejestrowanych w trzech zakresach długości fal, tzn , oraz nm. Po wzbudzeniu próbek światłem o długości fali 485 nm obserwowano spadek intensywności emisji fluorescencji rejestrowany w zakresie nm (Rys. 3). W tych warunkach AGE pochodne mioglobiny glikowanej akroleiną emitowały znacznie słabszy sygnał, niŝ próbki MB/T2N. Kontrolna próba zawierająca mioglobinę niemodyfikowaną emitowała bardzo słaby sygnał. a) 92

94 b) c) 93

95 d) Rys. 3. Porównanie intensywności emisji fluorescencji AGE wzbudzanych światłem o długości fali 280 nm (a), 330 nm (b), 360 nm (c) lub 485 nm (d). 4. Wnioski 1. Skład produktów glikacji mioglobiny akroleiną, uzyskanych metodą wysokotemperaturową w środowisku wodnym, róŝniący się od AGE syntezowanych w obecności glukozy, metyloglioksalu lub trans-2-nonenalu, wskazuje na zachodzenie reakcji wg innych mechanizmów. Najprawdopodobniej glikacja białka akroleiną przebiega wg addycji Michaell a, (na skutek której modyfikowane są reszty cysteinowe białka), a modyfikacja mioglobiny przez pozostałe czynniki zachodzi w reakcji Maillard a. 2. RóŜnica intensywności emisji fluorescencji AGE, obserwowana po wzbudzaniu badanych próbek przy λ 360 nm i 485 nm, moŝe być wykorzystana w odróŝnianiu rodzajów epitopów tworzonych w wyniku glikacji w obecności akroleiny od powstających pod wpływem glukozy, co moŝe być przydatne w badaniach struktur takich epitopów. Literatura [1] P. Ulrich, A. Cerami, Protein glycation, diabetes, and aging. Recent Prog. Horm. Res. 56: 1 21, [2] J. Pietkiewicz, E. Seweryn, A. Bartyś, A. Gamian, Receptory końcowych produktów zaawansowanej glikacji znaczenie fizjologiczne i kliniczne. Postepy Hig Med Dosw. 62: ,

96 [3] J. Pietkiewicz, A. Bronowicka-Szydełko, K. Dzierzba, R. Danielewicz, A. Gamian, Glycation of the Muscle-Specific Enolase by Reactive Carbonyls: Effect of Temperature and the Protection Role of Carnosine, Pirydoxamine and Phosphatidylserine. Prot. J. 30: , [4] J. Pietkiewicz, A. Gamian, M. Staniszewska, R. Danielewicz, Inhibition of human musclespecific enolase by methylglyoxal and irreversible formation of advanced glycation end products. J. Enz. Inhib. Chem. Med. 24: , [5] A. Jabłońska-Trypuć, R. Czerpak, Rola nieenzymatycznej glikozylacji białek w procesach starzenia organizmu i patogenezie chorób wieku podeszłego. Post. Biol. Kom.; 34: , [6] J. Zuwała-Jagiełło, Terapia chorób z udziałem końcowych produktów zaawansowanej glikacji w ich patogenezie. Pol. Merk. Lek., XXVII, 158, 152, [7] Chuyen van Nguyen, Toxicity of the AGEs generated from the Maillard reaction: On the relationship of food-ages and biologicl-ages. Mol. Nutr. Food Res., 50: , [8] Z. Rasheed, A. N. Anbazhagan, N. Akhtar, S. Ramamurthy, F. R. Voss, T. M. Haqqi, Green tea polyphenol epigallocatechin-3-gallate inhibits advanced glycation end product-induced expression of tumor necrosis factor-α and matrix metalloproteinase-13 in human chondrocytes. Arthritis research and theraphy 11:R71,

97 Właściwości grzybobójcze syntetycznych analogów allicyny Katarzyna Szymborska-Małek 1, Anna Czarny 2, Urszula Nawrot 3, Ewa Zaczyńska 2, Elena Karpenko 4, Vira Lubenets 5 Streszczenie: Zakażenia Aspergillus fumigatus oraz Candida albicans najczęściej występują u ludzi z obniżoną odpornością. Celem naszych badań było określenie, in vitro, w jakim stopniu preparaty tiosulfonatów, syntetycznych analogów naturalnych biocydów cebuli i czosnku, wpływają na ograniczenie wzrostu Aspergillus fumigatus oraz Candida albicans. Wykazano, że działanie przeciwgrzybiczne badanych związków, wobec tych mikroorganizmów, zależy od ich struktury chemicznej oraz od zastosowanego stężenia. Słowa kluczowe: grzybobójcze, tiosulfonaty, Aspergillus fumigatus, Candida albicans 1. Wprowadzenie Stale rosnąca liczba drobnoustrojów opornych na liczne antybiotyki, leki przeciwgrzybiczne i środki dezynfekcyjne, stwarza poważny problem terapeutyczny. Nadużywanie tych preparatów oraz wzrost liczby pacjentów z obniżoną odpornością, po rozległych zabiegach chirurgicznych, z chorobami nowotworowymi poddanych długotrwałej chemioterapii, terapii sterydami lub antybiotykami, prowadzi do wzrostu różnych infekcji grzybiczych [9]. Również u osób zdrowych, ale osłabionych, mogą pojawiać się kandydozy błon śluzowych, wywołane drożdżakami z rodzaju Candida, głównie Candida albicans oraz grzybice (np. skóry, paznokci) w wyniku zakażenia grzybami. Infekcje te przebiegają z licznymi nawrotami i są trudne do wyleczenia. Drożdżaki Candida, produkują szereg toksyn uszkadzających komórki i umożliwiających rozprzestrzenianie się zakażenia. Powodują nie tylko uszkodzenia błon śluzowych, ale również mogą działać na ośrodkowy układ nerwowy [11]. Aspergilozy wywołane grzybami z rodzaju Aspergillus rozwijają się w wyniku osłabionego systemu immunologicznego. Do zakażeń Aspergillus fumigatus, dochodzi najczęściej przez drogi oddechowe. Liczne zarodniki produkowane przez te grzyby łatwo dostają się do dróg oddechowych powodując alergię, grzybice zatok, oskrzeli, zapalenie płuc. Oprócz zarodników, grzyby produkują szereg mikotoksyn. Nie zawsze zmiany grzybicze ograniczone są tylko do układu oddechowego, niekiedy mogą rozszerzyć się na nerki czy mózg. Działanie leków obecnie stosowanych w terapii grzybic, jest ograniczone, gdyż pojawiają się formy oporne na nie, a ponadto preparaty te często są toksyczne i źle tolerowane przez organizm. Infekcje grzybiczne są trudne do zdiagnozowania i mimo terapii obserwuje się dużą zachorowalność i śmiertelność szczególnie w wyniku zakażeń szpitalnych i dlatego istnieje potrzeba poszukiwania nowych związków o szerokim spektrum działania, skutecznie zwalczających zakażenia grzybami i nie mających niekorzystnego wpływu na organizm [12]. 1 Politechnika Wrocławska, Instytut Chemii Fizycznej i Teoretycznej, Wybrzeże Wyspiańskiego 27, Wrocław, katarzyna.szymborska@pwr.wroc.pl 2 Polska Akademia Nauk, Instytut Immunologii i Terapii Doświadczalnej, ul. R. Weigla 12, Wrocław, czarny@iitd.pan.wroc.pl, ezacz@iitad.pan.wroc.pl 3 Akademia Medyczna, Zakład i Katedra Mikrobiologii, ul. T. Chałubińskiego 4, Wrocław, nawrot@mbio.am.pl 4 National Academy of Science of Ukraine, L.M. Litvinenko Institute of Physical Organic Chemistry, Naukova str. 3a, Lviv, Ukraine, e.v.karpenko@gmail.com 5 Lviv Polytechnic National University, Department of Technology of Biologically Active Compounds, Pharmacy and Biotechnology, pl. Sv. George 2, Lviv, 96

98 Aktywność przeciwbakteryjna licznych ekstraktów roślinnych jest dobrze poznana, a ich skuteczność udokumentowana [1]. Potencjalnym źródłem substancji o działaniu przeciwgrzybicznym są produkty metabolizmu roślin, a wśród nich substancje produkowane przez czosnek (Allium sativum L.). Od dawna używany jako przyprawa, a w medycynie naturalnej, ceniony za właściwości przeciwbakteryjne, przeciwgrzybiczne i przeciwwirusowe. Ponadto składniki czosnku wywierają również wpływ na układ immunologiczny Zwiększają odporność organizmu, obniżają poziom cholesterolu, działają, przeciwzapalnie, przeciwnowotworowo, przeciwzakrzepowo, zapobiegają miażdżycy, ograniczają ryzyko wystąpienia schorzeń układu krążenia, ponadto stwierdzono, że hamują powstawanie nitrozamin, związków rakotwórczych powstających podczas trawienia [7,8]. Czosnek swoje właściwości zawdzięcza zawartości związków siarkoorganicznych, a wśród nich allicynie. Allicyna (CH2=CH-CH2SOSCH2-CH=CH2) jest jednym z estrów kwasu tiosulfinowego, nietrwałego, słabo rozpuszczalnego w wodzie, co ogranicza praktyczne zastosowanie. Allicyna powstaje w świeżo gniecionym czosnku, podczas reakcji enzymu allinazy z nieaktywną alliiną (S-allilo-L-cysteinosulfotlenek) [4]. Działanie przeciwbakteryjne allicyny wynika z obniżenia aktywności enzymów z grupami tiolowymi, znajdujących się w komórkach drobnoustrojów. Podczas rozkładu allicyny uwalniany jest kwas sulfonowy, który bardzo szybko reaguje z wolnymi rodnikami, neutralizując je [14]. Jednak czas półtrwania tego kwasu jest bardzo krótki [3]. Stwierdzono, że mimo krótkiego okresu półtrwania, dożylne podanie oczyszczonej allicyny przedłużało życie myszom z aspergilozą płuc wywołaną Aspergillus fumigatus [2]. W badaniach zarówno in vitro jak in vivo, wykazano, że zastosowanie preparatów czosnku podnosiło działanie amfoterycyny B w terapii układowych infekcji grzybiczych oraz zapaleń opon mózgowych [12]. Stabilizowana allicyna wykazuje silną aktywność przeciwbakteryjną, ponieważ łatwo przenika w głąb biofilmu bakteryjnego, który jest strukturą śluzową, zorganizowaną i bardzo trudną do likwidacji [2]. Bazując na strukturze allicyny opracowano nowe, syntetyczne analogi biocydów czosnku. Celem pracy było oznaczenie cytotoksyczności i aktywności przeciwgrzybicznej nowych syntetycznych tiosulfonatów, które w przyszłości mogą być użyte jako nowe preparaty o działaniu przeciwgrzybicznym. 2. Materiały i metody 2.1. Związki W pracy zbadano aktywność trzech związków: S-metylo-4 acetyloaminobenzenotiosulfonian (A1), S-etylo-4-acetyloaminobenzenotiosulfonian (A2), S-allilo-4 acetyloaminobenzenotiosulfonian (A3), uzyskanych na drodze syntezy chemicznej w Politechnice Lwowskiej. Preparaty w stanie stałym przechowywano w temp. 4 o C Szczepy grzybów użyte w pracy W pracy wykorzystano następujące szczepy: Candida albicans ATCC z amerykańskiej kolekcji drobnoustrojów oraz Aspergillus fumigatus IHEM z kolekcji belgijskiej Hodowla komórek Badania cytotoksycznego działania tiosulfonatów przeprowadzono metodą bezpośredniego kontaktu tych substancji z jednowarstwową hodowlą komórek nabłonkopodobnych ludzkiego raka płuc A549 (ATCC CCL 185) oraz hodowlą mysich komórek fibroblastopodobnych L929 (ATCC CCL 1), którą prowadzono w płynach hodowlanych Dulbecco lub Eagle a z dodatkiem 10 %, inaktywowanej (30 min, 56 ºC) surowicy cielęcej oraz 100 j/ml penicyliny, 100μg/ml streptomycyny i 97

99 2mM L-glutaminy. Hodowle komórkowe przeszczepiano co 2 4 dni. Płyn znad komórek zlewano, a przyklejoną warstwę komórek poddawano krótkotrwałemu działaniu trypsyny. Odklejone komórki zawieszano w odpowiednim płynie hodowlanym, doprowadzono do gęstości kom/ml i przenoszono do odpowiednich butelek. Komórki inkubowano w atmosferze 5 % CO 2 oraz temperaturze 37 C aż do uzyskania jednowarstwowej hodowli komórkowej Oznaczenie toksyczności badanych tiosulfonatów 24-godzinne jednowarstwowe hodowle komórkowe A549 i L929, o gęstości kom/ml, traktowano badanymi substancjami w stężeniach μg/ml, a następnie inkubowano 72 godziny w temperaturze 37 C, w atmosferze 5 % CO 2. Co 24 godziny przez 3 kolejne dni, na podstawie zmian morfologicznych obserwowanych w mikroskopie odwróconym, określano efekt cytotoksyczny poszczególnych stężeń badanych związków dla komórek obu linii. Minimalne stężenie substancji toksyczne dla 50 % komórek określane było jako 1 TCCD 50 (Tissue Culture Cytotoxic Dose) [5,9] Określenie żywotności komórek Zawiesinę komórek pobierano w ilości 100 μl do probówki typu Eppendorf, a następnie dodawano 100 μl 0,4 % błękitu trypanu i inkubowano 15 min w temperaturze pokojowej. Po tym czasie całość nanoszono na kamerę Bürkera i pod mikroskopem świetlnym obliczono procent żywych komórek. Komórki martwe wybarwiły się na granatowo, co było spowodowane wnikaniem barwnika do wnętrza komórki przez uszkodzoną błonę martwych komórek. Żywe komórki pozostały niezabarwione Przygotowanie hodowli mikroorganizmów Hodowle 24 -godz. lub 48- godz. badanych grzybów na agarze Saboraud a służyły do przygotowania zawiesiny w soli fizjologicznej o gęstości 0,5 w skali McFarlanda (około CFU/ml; ang. Colony Forming Units). Zawiesiny te rozcieńczano w płynie hodowlanym RPMI 1640 z dodatkiem 2 % glukozy, L-Glu, MOPS w stosunku 1:50, a następnie 1: Oznaczanie wrażliwości grzybów Określanie wrażliwości na związki chemiczne wykonywano metodą mikrorozcieńczeniową, zgodną z normą M-27-A2 (CLSI, USA). Na sterylne płytki 96 dołkowe nanoszono po 100 µl badanych substancji o stężeniu 200 µg/ml (każda próba w trzech powtórzeniach) oraz po 50 µl podłoża RPMI 1640 z dodatkami. Następnie sporządzano rozcieńczenia każdego preparatu (przenoszono po 50 µl preparatu do 50 µl podłoża). Końcowe stężenia preparatów wynosiły: 100; 50, 25, 12,5 oraz 6,25 µg/ml. Następnie do dołków nanoszono po 50 µl zawiesiny grzybów o gęstości CFU/ml. Kontrolę wzrostu stanowiła zawiesina grzybów w RPMI 1640 bez dodatku badanych związków. Płytki inkubowano w temperaturze 37 o C do 96 godz. Wzrost grzybów w analizowanych próbach oznaczano na podstawie zmętnienia. Najniższe stężenie, w którym nie obserwowano wzrostu przyjmowano za wartość MIC (Minimal Inhibition Concentration). 3. Wyniki badań 3.1. Określanie nietoksycznych stężeń tiosulfonatów, syntetycznych analogów naturalnych biocydów czosnku 98

100 Na 24-godzinne hodowle linii komórkowych A549 i L929 nanoszono różne stężenia badanej substancji, a następnie inkubowano w temperaturze 37 C i atmosferze 5 % CO 2 przez 3 dni. Każdego dnia pod mikroskopem odwróconym określano zmiany morfologiczne komórek oraz ich żywotność. Wyniki oceny toksyczności badanych związków ilustruje tabela 1. Tab. 1. Działanie tiosulfonatów, na komórki linii A549 oraz L929 w warunkach in vitro. Czas Linia Numer Stężenie tiosulfonatów [μg/ml] kontaktu preparatu ,5 6,25 3,12 1,56 0,78 72 godz. A549 A1 t t n n n n n n A2 t t n n n n n n A3 t n n n n n n n Kontrola A549 n n n n n n n n 72 godz. L929 A1 t t n n n n n n A2 t t n n n n n n A3 t t n n n n n n Kontrola L929 n n n n n n n n n- związek nietoksyczny, t- związek toksyczny Jak wynika z danych przedstawionych w tabeli 1, substancje A1 i A2 w stężeniu 50 i 100 g/ml były toksyczne dla obu typów komórek, związek A3 w stężeniu 50 μg/ml, nie działał toksycznie na ludzkie komórki A549. Niższe dawki wszystkich preparatów nie powodowały degeneracji komórek. Obraz morfologii komórek poddanych działaniu tiosulfonatów ilustruje rysunek 1. Zdjęcia mikroskopowe badania toksyczności tiosulfonatów na komórkach A549 i L929 wykonano po 72 godzinach inkubacji. a) b) c) d) Rys. 1. Wpływ wybranych stężeń tiosulfonatów na komórki A549 i L929 po 72 godz.: a) L g/ml, b) A g/ml, c) L929 kontrola, d) A549 kontrola. Jak widać na zdjęciach A i B, komórki inkubowane w obecności preparatów o stężeniu 100 μg/ml były odklejone i obkurczone W przypadku obu typów komórek zaobserwowano toksyczne działanie tiosulfonatów w stężeniu 100 oraz 50 μg/ml. Stężenia poniżej 50 μg/ml nie wykazywały działania toksycznego, a żywotność komórek wynosiła %. Żywotność komórek określono metodą barwienia błękitem trypanu. Martwe komórki wybarwiły się na granatowo, podczas gdy żywe pozostawały niezabarwione. Dla porównania, na zdjęciach C i D widoczne są komórki nie traktowane badanymi związkami (kontrola). 99

101 3.1. Ocena działania przeciwgrzybicznego badanych związków W dalszych badaniach określono aktywność przeciwgrzybiczną tiosulfonatów. Wyniki tych eksperymentów zebrano w tabeli 2. Tab. 2. Ocena aktywności przeciwgrzybicznej badanych tiosulfonatów. Preparat Czas MIC (μg/ml) inkubacji (godz.) C. albicans ATCC A. fumigatus IHEM A , A , ,5 A , ,5 Jak wynika z danych przedstawionych w tabeli 2, wszystkie badane preparaty charakteryzowały się dobrym działaniem przeciw Aspergillus fumigatus. Najsilniejszą aktywnością przeciwgrzybiczą wykazywał związek A2. Najskuteczniej hamował wzrost zarówno Aspergillus fumigatus jak i Candida albicans w stężeniach 12,5 oraz 25 μg/ml. Należy podkreślić, że związek A2 w tych dawkach nie był toksyczny dla komórek ludzkich i mysich. Związek A1 również po 24 godzinach wykazywał podobne działanie jak A2, lecz po 48 godzinach jego aktywność malała. Preparat A3 w niskich stężeniach hamował wzrost Aspergillus fumigatus, ale nie miał wpływu na wzrost drożdżaków Candida albicans. Mimo postępu w badaniach nad budową ściany komórkowej grzybów, nie w pełni jest poznana jej struktura, a wiadomo, że głównym składnikiem jest mannan [15]. Stevens uważa, że terapia przeciwgrzybiczna może być skuteczna wówczas, gdy zastosuje się kombinację leków hamujących syntezę i hydrolizę wielocukrów ściany komórkowej grzybów [13]. Wśród fungicydów pochodzenia roślinnego znana jest allicyna, znajdująca się w czosnku, jest ona substancją skuteczną, ale nietrwałą. Opierając się na budowie chemicznej allicyny otrzymano nowe, syntetyczne preparaty estrów kwasu tiosulfonowego. Na podstawie otrzymanych wyników stwierdzono, że grzybobójcze właściwości tych substancji zależą zarówno od struktury chemicznej związków jak i od budowy ściany komórkowej Candida i Aspergillus. 4. Podsumowanie Badane estry kwasu tiosulfonowego charakteryzowały się działaniem przeciwgrzybicznym. Aktywność przeciwgrzybiczna zależała od struktury związków i rodzaju patogenu. Związki te mogą być wykorzystane zarówno w medycynie jak i weterynarii jako nowe, skuteczne preparaty wspomagające terapię schorzeń, których podłożem są grzyby. Literatura [1] D. S.Alviano, C. S.Alviano, Plant extracts:search for new alternatives to treat microbial diseases. Current Pharmaceutical Biotechnology, styczeń [2] E. Appel, A.Vallon-Eberhard, A. Rabinkov, O. Brenner,Shin, I. Sasson, K.Y.Sadkchan, N. Osherov, S.Jung, D.Mirelman, Therapy of Murine Pulmonary Aspergillosis with Antibody- Alliinase Conjugates and Alliin, Antimicrobial Agents and Chemotherapy, luty

102 [3] E. Block, A.J. Dane, S.Thomas, R.B.Cody, Applications of Direct Analysis in Real Time Mass Spectrometry (DART-MS) in Allium Chemistry. 2-Propenesulfenic and 2-Propenesulfinic Acids, Diallyl Trisulfane S-Oxide and Other Reactive Sulfur Compounds from Crushed Garlic and Other Alliums, Journal of Agricultural and Food Chemistry, kwiecień [4] R. R. Cutler, P.Wilson, Antibacterial activity of a new, stable, aqueous extract of allicin against methicillin-resistant Staphylococcus aureus, British Journal of Biomedical Science, marzec [5] S. Gogolewski, K. Górna, E. Zaczyńska, A. Czarny, Structure-property relations and cytotoxicity of isosorbide-based biodegradable polyurethane scaffolds for tissue repair and regeneration, Journal of Biomedical Materials Research, maj [6] A. Khodavandi, F. Alizadeh, F. Aala, Z. Sekawi, P.P. Chong, In vitro investigation of antifungal activity of allicin alone and in combination with azoles against Candida species, Mycopathologia, kwiecień [7] C. F. Low, P. P. Chong, P. V. Yong, C. S. Lim, Z. Ahmad, F. Othman, Inhibition of hyphae formation and SIR2 expression in Candida albicans treated with fresh Allium sativum (garlic) extract, Journal of Applied Microbiology, grudzień [8] R. Maleszka, E. Baran, Lecznictwo mikologiczne w końcu dwudziestego wieku, Mikologia Lekarska, styczeń [9] B. Mendyka, P. Radek, A. Janicka, A. Czarny, E. Zaczyńska, M. Pawlik, Cytotoksyczność i mutagenność preparatów zawierających domieszkę estru metylowego oleju rzepakowego. Medycyna Środowiskowa, [10] P. G. Pappas, Invasive candidiasis, Infectious Disease Clinics of North America, wrzesień [11] J. Perlroth, B. Choi, B. Spellberg, Nosocomial fungal infections: epidemiology, diagnosis, and treatment, Medical Mycology, czerwiec [12] A. Ogita, K. Fujita, T. Tanaka, Enhancement of the fungicidal activity of amphotericin B by allicin: effects on intracellular ergosterol trafficking, Planta Medica, luty [13] D. Stevens, Drug interaction studies of a glucan synthase inhibitor (IY ) and a chitin synthase inhibitor (Nikkomycin Z) for inhibition and killing of fungal pathogens, Antimicrobial Agents and Chemotherapy, wrzesień [14] V. Vaidya, K. U. Ingold, A. D. Pratt, Garlic: Source of the Ultimate Antioxidants - Sulfenic Acids, Angewandte Chemie, grudzień [15] M. L. Zaręba, J. Borowski, Mikrobiologia Lekarska: podręcznik dla studentów medycyny, Wydawnictwo Lekarskie PZWL, Warszawa Antifungal properties of synthetic allicin analogs In the last years an increase in the frequency of fungal infections and mortality and morbidity in hospitalized patients is observed. Fungi that were previously considered as contaminants are now pathogens in the immunocompromised patients, particularly those with cancer or organ transplantation. Nosocomial transmission of the opportunistic fungal pathogen (Candida, Aspergillus) resistant to antifungal substances is a significant problem. Synthesis of new, more effective therapeutic agents is needed The in vitro results, demonstrate that fungicidal effects of these synthetic substances were well expressed and was structure depended. S-etylo-4-acetyloaminobenzenotiosulfonate has a stronger antifungal activity than S-metylo-4-acetyloaminobenzenotiosulfonate and S-allilo-4-acetyloaminobenzenotiosunlfonate. The new synthetic thiosulfonates have a potential to prepare effective, fungicidal drugs. 101

103 Czy promieniowanie NIR destabilizuje strukturę DNA działanie soli Katarzyna Szymborska-Małek 1, Małgorzata Komorowska 2 Streszczenie: Podjęta w niniejszej pracy problematyka stanowi kontynuację i rozwinięcie badań na temat działania promieniowania z zakresu bliskiej podczerwieni (NIR) na DNA. W artykule dokonano analizy wpływu soli (NaCl) na efektywność działania promieniowania NIR. Do monitorowania zmian strukturalnych zachodzących w DNA pod wpływem modyfikatora i promieniowania NIR zastosowano spektroskopię UV-VIS. Słowa kluczowe: DNA, promieniowanie NIR, NaCl, struktura wody 1. Wprowadzenie Konformacja, stabilność oraz funkcje biologiczne kwasów nukleinowych zależą od struktury wody związanej z tymi cząsteczkami. W dalszej warstwie takie makromolekuły otoczone są przez wodę globalną [2, 9, 12]. Na stan wody związanej i globalnej mogą wpływać następujące czynniki: temperatura, obecność jonów jednowartościowych lub dwuwartościowych, obecność związków organicznych lub kilka tych czynników jednocześnie. Modyfikacja struktury wody wywołana przez te czynniki może wywołać zmiany strukturalne oraz konformacyjne układów biologicznych znajdujących się w roztworze. Istnieje wiele publikacji dotyczących wpływu modyfikatorów na stabilność makromolekuł w środowisku wodnym [1, 3, 8]. W niniejszym artykule analizie poddano wpływ działania soli NaCl na stabilność DNA. Jak wiadomo z literatury, dodatek dużych stężeń jonów Na + (c NaCl > 4M) wywołuje przejście konformacyjne B-DNA Z II DNA. W obecności mniej stężonych roztworów soli (poniżej 4M) powstaje struktura Z I -DNA, która jest mniej stabilna niż forma B-DNA oraz Z II -DNA i szybciej będzie ulegać rozpadowi [4, 5] Skutecznym modyfikatorem struktury wody może być również promieniowanie z zakresu bliskiej podczerwieni (NIR) [6, 7, 10, 11]. Efektywność działania tego promieniowania jest silnie uzależniona od obecności modyfikatorów struktury wody globalnej. W związku z tym badania przeprowadzone przez autorów niniejszego rozdziału miały na celu wykazanie wpływu wybranych modyfikatorów na działanie tego promieniowania na strukturę DNA. W prezentowanej pracy przedstawiono wyniki badań uzyskanych ze spektroskopii UV-VIS dla roztworów DNA modyfikowanych dodatkiem różnych stężeń soli NaCl oraz poddanych ekspozycji na promieniowanie z zakresu NIR. 2. Materiały i metody 2.1. Materiał badawczy Do badań użyto soli sodowej kwasu deoksyrybonukleinowego (DNA) wyizolowanego ze spermy śledzia. Roztwory DNA o stężeniu 50 µg/ml sporządzono poprzez rozpuszczenie DNA w 1 Politechnika Wrocławska, Instytut Chemii Fizycznej i Teoretycznej, Wybrzeże Wyspiańskiego 27, Wrocław, katarzyna.szymborska@pwr.wroc.pl 2 Politechnika Wrocławska, Instytut Inżynierii Biomedycznej i Pomiarowej, Plac Grunwaldzki 13, Wrocław, malgorzata komorowska@pwr.wroc.pl 102

104 buforze MOPS (kwas 3-N-morfolinopropanosulfonowy) o stężeniu 50 mm, ph = 6. Jako modyfikatory struktury wody zastosowano różne stężenia soli NaCl, odpowiednio 0,15 M, 0,3 M i 2 M. Roztwory te sporządzono przez rozpuszczenie odpowiedniej ilości soli w danej objętości roztworu DNA o stężeniu 50 µg/ml. Wszystkie materiały i odczynniki zakupiono w firmie Sigma-Aldrich Procedura naświetlania Przygotowane wcześniej roztwory DNA umieszczano w zamykanym, płasko-wypukłym naczyniu szklanym, zaopatrzonym w mieszadełko magnetyczne. Następnie naczynie wstawiano do komory naświetlania. Źródło światła stanowiła lampa halogenowa o gęstości mocy promieniowania 6,5 mw/cm 2. Próbki były naświetlane przez 5, 10 i 20 minut promieniowaniem NIR w zakresie spektralnym nm dzięki zastosowaniu filtru pasmowego przepuszczającego fale o tych długościach. W celu zabezpieczenia przed przegrzewaniem się próbek wykorzystano system podwójnego chłodzenia płaszczem wodnym i strumieniem powietrza. Próbka była mieszana w czasie ekspozycji na promieniowanie NIR. Punkt odniesienia stanowiła próbka kontrolna będąca roztworem DNA, który nie został poddany procedurze naświetlania Spektroskopia UV-VIS Przy użyciu dwuwiązkowego spektrofotometru Unicam UV 300, wyposażonego w przystawkę termostatującą Peltiera, wykonano pomiary widm absorpcji UV w zakresie nm dla roztworów DNA w funkcji stężenia NaCl i w funkcji czasu naświetlania. Badania przeprowadzono dla temperatur od 25 do 95 o C. Jako próbę odniesienia użyto roztworu DNA zawierającego 50 mm buforu MOPS oraz odpowiednio 0M, 0,15 M, 0,3 M i 2 M soli NaCl. Z uzyskanych widm odczytano wartości absorbancji przy długości fali 260 nm i na ich podstawie skonstruowano profile denaturacji DNA. Wyniki ze spektroskopii UV-VIS przedstawiono w postaci zależności hiperchromowości od temperatury. Hiperchromowości wyznaczono ze wzoru: o o Ax C A25 C % H 100% o A25 C % H - procent hiperchromowości (procent rozpadu DNA), A25 o C - absorbancja w temperaturze 25 o C, Ax o C - absorbancja w danej temperaturze. 3. Wyniki badań i dyskusja Na rysunkach 1a, b, c, d przedstawiono zależności hiperchromowości DNA w funkcji czasu naświetlania i w funkcji stężenia soli NaCl. W przebiegu krzywych topnienia DNA można wyodrębnić cztery następujące etapy: etap I w zakresie temperatur o C, etap II w zakresie temperatur o C, etap III w zakresie temperatur o C oraz etap IV w zakresie temperatur o C. Każdy z tych etapów w osobliwy sposób jest wrażliwy na działanie soli oraz promieniowania z zakresu bliskiej podczerwieni (NIR). Największe zmiany wywołane działaniem obu modyfikatorów obserwuje się w etapie II nazywanym w literaturze przedtopnieniem (z ang. premelting), czyli w fazie przygotowującej DNA do właściwej denaturacji, w etapie III, czyli etapie termicznego rozpadu makromolekuły (z ang. melting) oraz w etapie IV, zwanym potopnieniem (z ang. postmelting). W fazie III można wyróżnić dwa następujące po sobie procesy: właściwą denaturację DNA oraz agregację zdenaturowanych fragmentów makrocząsteczki. Jako pierwszy analizie zostanie poddany etap II. Na rysunku 2a przedstawiono przebieg zmienności współczynnika temperaturowego ΔH/ΔT (stosunek przyrostu hiperchromowości do przyrostu temperatury) w zakresie temperatur o C 103

105 w zależności od stężenia soli oraz czasu ekspozycji na promieniowanie NIR. Analiza krzywych topnienia (rys. 1) oraz współczynników temperaturowych (rys. 2a) dla próbek nienaświetlonych i naświetlonych wykazała, że im jest większe stężenie dodanej soli do DNA, tym układ jest mniej stabilny i szybciej będzie ulegał termicznemu rozpadowi. Największe zmiany w stabilności próbki zaobserwowano dla układu naświetlonego przez 5 minut. Silny przyrost współczynnika temperaturowego dla próbki z dodatkiem 2M roztworu NaCl świadczy o wcześniejszym rozpoczęciu termicznej denaturacji. Duży przyrost parametru ΔH/ΔT można również dostrzec dla tego samego układu (DNA + 2 M NaCl) naświetlanego przez 20 minut. Promieniowanie NIR również w tym przypadku bardzo narusza stabilność DNA. Z analizy współczynników temperaturowych oraz przebiegu krzywych topnienia można zatem wnioskować, że promieniowanie NIR tym bardziej destabilizuje cząsteczkę DNA im większe jest stężenie dodanej soli. Destabilizujące działanie soli NaCl oraz promieniowania NIR polega prawdopodobnie na synergizmie obu efektów. Na rysunku 2b przedstawiono współczynniki temperaturowe ΔH/ΔT w funkcji stężenia soli oraz czasu naświetlania promieniowaniem NIR dla zakresu temperatur o C. Analiza przebiegu krzywej denaturacji oraz wartości współczynnika ΔH/ΔT dla DNA bez dodatku modyfikatora i nie poddanego naświetlaniu pozwala wnioskować o zrównanej szybkości procesów denaturacji i następującej po niej agregacji. Z kolei dla próbki (DNA + 0 M NaCl) naświetlonej przez 5 minut, ujemna wartość współczynnika temperaturowego świadczy o dominującym procesie agregacji nad denaturacją. Dla próbek naświetlonych przez 10 i 20 minut można zaobserwować większą szybkość procesu topnienia nad agregacją denaturowanych fragmentów makromolekuły. Świadczyć to może o tym, że dłuższe czasy ekspozycji na NIR blokują szybkość agregacji. Z analizy przebiegów zmienności współczynników ΔH/ΔT (rys. 2b) dla próbek nienaświetlonych i zmodyfikowanych dodatkiem NaCl, wynika że NaCl powoduje wzrost wydajności denaturacji DNA w stosunku do próbki kontrolnej. Przy czym obserwuje się że im jest większe stężenie dodanej soli tym mniejsza wydajność topnienia makrocząsteczki. Dla próbek naświetlonych przez 5 i 10 minut, największą efektywność procesu topnienia w stosunku do próbki nienaświetlonej i bez obecności soli wykazuje układ zmodyfikowany stężeniem 0,3 M roztworu NaCl, zaś najmniejszą DNA + 2 M NaCl. W przypadku próbek poddanych 20-minutowej ekspozycji na NIR proces denaturacji jest najwydajniejszy dla układu DNA + 0,3 M NaCl, zaś najmniej efektywny dla DNA+0,15 M NaCl oraz DNA + 2 M NaCl. Dodatkowa analiza wykresów z rys. 2b pozwala zaobserwować podobne przebiegi zmienności współczynnika temperaturowego w funkcji czasu naświetlania dla DNA zmodyfikowanego dodatkiem 0,3 M i 2 M NaCl. W obu przypadkach obserwuje się silny przyrost parametru ΔH/ΔT po naświetleniu próbek przez 5 minut. Może to świadczyć o wzroście szybkości denaturacji nad szybkością agregacji. Naświetlanie przez 10 i 20 minut powoduje spadek wartości tego współczynnika. Odmienny przebieg zmienności ΔH/ΔT można zauważyć dla DNA z dodatkiem 0,15 M NaCl. Obserwuje się systematyczny spadek współczynnika temperaturowego wraz ze wzrostem czasu naświetlania, co może świadczyć o narastającej szybkości agregacji nad szybkością procesu denaturacji makrocząsteczki. W celu zbadania wpływu działania soli oraz promieniowania NIR na wydajność denaturacji DNA przeanalizowano zmiany zachodzące w etapie IV. Na rysunku 3 przedstawiono wykres zależności hiperchromowości obliczonych w ostatnim punkcie pomiarowym, czyli w temperaturze 95 o C od stężenia soli oraz czasu naświetlania NIR. Z analizy tej wynika, że im jest większe stężenie dodanej soli, tym większa jest wydajność topnienia. Zaobserwowano również, że promieniowanie NIR powoduje słabszy rozpad DNA modyfikowanego niskim stężeniem soli, zaś silną denaturację dla wysokiego stężenia soli (2 M NaCl). Największą wydajność procesu topnienia zauważono dla próbki (DNA + 2 M NaCl) poddanej 5-minutowej ekspozycji na NIR. Nieznaczny wzrost wydajności wskutek naświetlania zaobserwowano dla próbki modyfikowanej dodatkiem 0,3 M NaCl. 104

106 a) b) c) d) Rys. 1. Krzywe denaturacji DNA w funkcji stężenia NaCl dla: a) próbki kontrolnej, b) próbki naświetlanej przez 5 minut, c) próbki naświetlanej przez 10 minut, d) próbki naświetlanej przez 20 minut. a) b) Rys. 2. Zależność współczynnika temperaturowego od czasu naświetlania promieniowaniem NIR a) w przedziale temperatur o C, b) w przedziale temperatur o C. 105

107 Rys. 3. Wartości hiperchromowości obliczone w temperaturze 95 o C w zależności od stężenia soli oraz czasu naświetlania promieniowaniem NIR. 4. Podsumowanie Rosnące stężenie jonów jednowartościowych (Na + ) powoduje przejście formy B-DNA w formę Z I -DNA. Opisywane przejście wywołane jest zmianą oddziaływań elektrostatycznych pomiędzy fosforanami szkieletu helisy. Efekty te zachodzą przy zmianie struktury wody wokół makromolekuły i związane są z dużym stężeniem jonów Na + ; w naszym przypadku dla c NaCl = 2 M. Struktura Z I jest mniej stabilna niż forma B-DNA, stąd wzrost temperatury powoduje jej łatwiejszy rozpad. Promieniowanie z zakresu NIR również powoduje destabilizację cząsteczki DNA, co jest szczególnie widoczne po 5-minutowej ekspozycji. Efekt działania promieniowania NIR polega prawdopodobnie na modyfikacji struktury wody związanej z makromolekułą. Długie czasy ekspozycji mogą prowadzić do ustalania się równowagi pomiędzy rekonstrukcją a rozpadem struktury wody związanej. Efektywny rozpad cząsteczki DNA po 5 minutach naświetlania wskazuje na przewagę procesu rozpadu struktury wody związanej nad jej odtwarzaniem. Badania współfinansowane ze środków Europejskiego Funduszu Społecznego w ramach Programu Operacyjnego Kapitał Ludzki Literatura [1] G. Albiser, A. Lamiri, S. Premilat, The A B transition: temperature and base composition effects on hydration of DNA, International Journal of Biological Macromolecules, marzec 2001 [2] I. Brovchenko, A. Krukau, A. Oleinikova, A. K. Mazur, Water Clustering and Percolation in Low Hydration DNA Shells, Journal of Physical Chemistry B, styczeń 2007 [3] I. Brovchenko, A. Krukau, A. Oleinikova, A. K. Mazur, Ion Dynamics and Water Percolation Effects in DNA Polymorphism, Journal of American Chemical Society, styczeń 2008 [4] M. Kastenholz, T. Schwartz, P. Hünenberger, The Transition between the B and Z Conformations of DNA Investigated by Targeted Molecular Dynamics Simulations with Explicit Solvation, Biophysical Journal, październik

108 [5] B. Klein, G. Pack, Theoretical Studies Z-DNA Conformers and Ion Type of the Electrostatic Stability of A, B, C, and as a Function of Monovalent Ion Concentration, Journal of Biological Physics, marzec 1983 [6] M. Komorowska, M. Galwa, B. Herter, U. Wesolowska, Hydration effects under near-infrared radiation, Colloids and Surfaces B: Biointerfaces, grudzień 2001 [7] M. Komorowska, A. Cuissot, A. Czarnoleski, W. Bialas, Erythrocyte response to near-infrared radiation, Journal of Photochemistry and Photobiology B: Biology, październik 2002 [8] M. N. Manalo, X. Kong, A. LiWang, Sensitivity of hydrogen bonds of DNA and RNA to hydration, as gauged by 1 J NH measurements in ethanol water mixtures, Journal of Biomolecular NMR, luty 2007 [9] S. K. Pal, L. Zhao, A.H. Zewail, Water at DNA surfaces: Ultrafast dynamics in minor groove recognition, Proceedings of the National Academy of Sciences, lipiec 2003 [10] S. Olsztyńska-Janus, K. Szymborska, M. Komorowska, J. Lipiński, Conformational changes of l-phenylalanine Near infrared-induced mechanism of dimerization: B3LYP studies, Journal of Molecular Structure (Theochem), czerwiec 2009 [11] K. Szymborska-Małek, M. Komorowska, Badania efektywności działania promieniowania z zakresu bliskiej podczerwieni (NIR) na DNA w obecności wybranych modyfikatorów za pomocą spektroskopii UV-VIS, Interdyscyplinarność badań naukowych 2010, Oficyna Wydawnicza Politechniki Wrocławskiej, 2010 [12] E. Westhof, Water: An Integral Part of Nucleic Acid Structure, Annual Review of Biophysics and Biophysical Chemistry, czerwiec 1988 Does the NIR radiation destabilizes the structure of DNA effects of salt The problem discussed in this work is a continuation and development of research on near-infrared radiation (NIR) on the DNA. The article contains an analysis of the impact of salt (NaCl) on the efficiency of NIR radiation. UV-VIS spectroscopy was used to monitor structural changes in DNA under the influence of modifier and NIR radiation. Studies have shown that the addition of salt causes a destabilization of the DNA. The radiation from the near-infrared range strongly enhances this effect. The greater the concentration of added salt the stronger NIR destabilizes the DNA molecule 107

109 Badania węgli aktywnych z MCMB jako materiału elektrody kondensatora w układzie trójelektrodowym. Kamila Torchała, Jacek Machnikowski Streszczenie: W pracy przedstawiono wyniki badań węgli aktywnych otrzymanych ze sferycznej mezofazy jako materiału elektrody kondensatora elektrochemicznego. Pomiary wykonano metodą woltamperometryczną w układzie trójelektrodowym stosując różne wodne elektrolity. Wykazano, że napięcie w którym może stabilnie pracować kondensator nie rozkłada się równo na elektrodę dodatnią i ujemną. Zakres napięcia bezpiecznej pracy elektrody polaryzowanej potencjałem ujemnym i dodatnim zależy istotnie od rodzaju elektrolitu, natomiast wpływ porowatości materiału jest niewielki. Dla elektrolitów neutralnych zakres napięcia pracy jest wyraźnie szerszy niż dla 1M H 2 SO 4 i 6M KOH. Słowa kluczowe: węgle aktywne, mezofaza węglowa, kondensator elektrochemiczny 1. Wprowadzenie Kondensatory elektrochemiczne (superkondensatory, ultrakondensatory) działające na zasadzie gromadzenia ładunku elektrycznego w podwójnej warstwie elektrycznej na powierzchni materiału elektrody (EDLC electric double layer capacitor) są stosunkowo nową kategorią urządzeń do magazynowania energii. Możliwość akumulacji bardzo dużej ilości energii oraz teoretycznie nieograniczona liczba cykli ładowania/rozładowania powodują, że ta kategoria kondensatorów wzbudza ogromne zainteresowanie wywołane perspektywami zastosowania w dynamicznie rozwijających się dziedzinach, m.in. pojazdach o napędzie elektrycznym lub hybrydowym i systemach przenośnej elektroniki [1, 2]. W typowych kondensatorach elektrochemicznych elektrody są zbudowane z porowatego materiału węglowego, najczęściej węgla aktywnego, a elektrolitem jest odpowiedni związek organiczny. Mimo wielu zalet elektrolity wodne są rzadko stosowane ze względu na ograniczone napięcie pracy spowodowane niskim potencjałem rozkładu wody (1,23 V). W gruncie rzeczy napięcie pracy nie może przekroczyć 1 V, podczas gdy przy zastosowaniu elektrolitu organicznego wynosi ponad 2 V. Rozszerzenie napięcia pracy kondensatora z wodnym elektrolitem jest możliwe w tzw. asymetrycznym kondensatorze. Koncepcja takiego systemu opiera się na zastosowaniu elektrody ujemnej i dodatniej charakteryzujących się odmiennymi właściwościami elektrochemicznymi. Materiał elektrody dodatniej powinien charakteryzować się wysokim granicznym potencjałem pracy podczas polaryzacji w stronę wartości dodatnich. Materiał elektrody ujemnej powinien pozwolić na uzyskanie dużych ujemnych wartości potencjału podczas polaryzacji w stronę wartości ujemnych. Wyniki badań w skali laboratoryjnej wskazują [3, 4], że przy odpowiednim doborze materiałów elektrodowych napięcie pracy kondensatora z wodnym elektrolitem można rozszerzyć do ok. 2 V, co pozwala uzyskać zbliżoną do elektrolitu organicznego gęstość energii. Celem przeprowadzonych badań było wykazanie czy rodzaj stosowanego elektrolitu wodnego, a także charakterystyka struktury porowatej materiału elektrody mają wpływ na zakres granicznego potencjału bezpiecznej pracy elektrody podczas polaryzacji w stroną wartości dodatnich oraz ujemnych. 108

110 2. Metodyka badań W badaniach wykorzystano węgle aktywne otrzymane z mezofazy sferycznej w procesie aktywacji wodorotlenkiem potasu [5]. Badane materiały: MCMB-3, MCMB/700-3, MCMB/600-2 i MCMB/700-2 charakteryzowały się zróżnicowanym rozwinięciu struktury porowatej określonym przez powierzchnię S BET ( m 2 g), objętość mikroporów V DR (0,6-1,2 cm 3 /g) i średni wymiar mikroporów L 0 (1,0-1,5 nm) oraz wysoką pojemnością elektryczną C ( F/g) określoną na podstawie pomiarów w układzie dwuelektrodowym przy zastosowaniu 6M KOH jako elektrolitu (tab. 1). Badania elektrochemiczne wykonano w układzie trójelektrodowym na aparacie VMP 3 firmy BIOLOGIC. Jako elektrolit stosowano 6M KOH, 1M H 2 SO 4, 4,5M KCl, 2M KNO 3 i 1M Na 2 SO 4. Elektrody przygotowano w postaci pastylek o powierzchni ok. 1 cm 2 i masie 8-12 mg. W skład tabletki wchodziły: węgiel aktywny - 85% mas., fluorek poliwinylidenu (substancja wiążąca) - 10% mas., sadza acetylenowa (dodatek przewodzący) - 5% mas. Eksperymenty przeprowadzano w typowym teflonowym naczyniu elektrochemicznym typu Swagelok, specjalnie przystosowanym do pomiarów trójelektrodowych (rys. 1). W stosowanym układzie testowany materiał stanowił dolną elektrodę (roboczą), którą przykrywano separatorem nasączonym elektrolitem i dociskano tulejką z perforowanym dnem wypełnioną elektrolitem. Elektrodą przeciwną był drut platynowy, a wybór elektrody odniesienia zależał od rodzaju stosowanego elektrolitu. Dla 1M H 2 SO 4 i 1M Na 2 SO 4 elektrodą odniesienia było Hg Hg 2 SO 4 (potencjał półogniwa względem normalnej elektrody wodorowej NHE wynosi 0,67 V), dla 6M KOH - Hg HgO (0,098 V vs NHE), dla 4,5M KCl i 2M KNO 3 - Hg Hg 2 Cl 2 (0,24 V vs NHE). Badania wykonano metodą potencjodynamiczną, kondensator ładowano i rozładowywano cyklicznie przy szybkości zmiany potencjału 2 mv/s [6, 7]. Tabela. 1. Parametry struktury porowatej oraz wartości pojemności elektrycznej grawimetrycznej (C) i powierzchniowej (C S ) w 6M KOH węgli aktywnych z MCMB stosowanych w badaniach w układzie trójelektrodowym Próbka Powierzchnia S BET Objętość porów Szerokość mikroporów V DR / V T 6M KOH C Cs (m 2 /g) V T (cm 3 /g) L 0 (nm) (F/g) (µf/cm 2 ) MCMB ,20 1,48 0, ,60 MCMB/ ,81 1,15 0, ,60 MCMB/ ,67 1,05 0, ,60 MCMB/ ,57 0,88 0, ,40 W celu dokładnego scharakteryzowania tworzenia się podwójnej warstwy elektrycznej na pojedynczej elektrodzie podczas procesu ładowania i określenia dopuszczalnego zakresu napięcia pracy dla elektrody wykonanej z określonego węgla aktywnego wykonano w każdym elektrolicie serię pomiarów w układzie trójelektrodowym, traktując elektrodę robocza jako dodatnią lub jako ujemną. Zanim przystąpiono do pomiarów dla każdego elektrolitu ustalono limit dolny i górny bezpiecznej pracy układu stosując metodykę opisaną w pracy [8]. Dla elektrody dodatniej istotne jest wyznaczenie górnego limitu potencjału pracy, czyli wartości potencjału przy którym zauważalna staje się deformacja kształtu krzywej woltamperometrycznej spowodowana rozkładem wody i utlenianiem materiału elektrody. Dla elektrody ujemnej graniczny dolny limit określony jest przez wartość potencjału przy którym zaczyna się rozkład wody i wydzielanie wodoru [9]. 109

111 W celu porównania stabilności pracy w różnych elektrolitach parametry pracy układu trójelektrodowego przeliczano względem normalnej elektrody wodorowej (NHE). Rys. 1. Schemat budowy trójelektrodowej celi pomiarowej z platynową elektrodą przeciwną i elektrodą referencyjną (a) i odpowiadający jej schemat elektryczny (b) 2. Wyniki i dyskusja wyników badań Wyniki pomiarów woltametrycznych w układzie trójelektrodowym przedstawiono w dwóch układach. W pierwszym chodzi o określenie wpływu struktury porowatej materiału na charakterystykę potencjałową w poszczególnych elektrolitach. W drugim układzie dla każdej konfiguracji węgiel aktywny elektrolit zestawiono na wykresie krzywe otrzymane przy dodatniej i ujemnej polaryzacji elektrody względem obliczonego potencjału normalnej elektrody wodorowej. Na rysunkach 2 i 3 przedstawiono przykładowe zależności woltametryczne uzyskane dla badanych węgli aktywnych w 1M Na 2 SO 4 i 2M KNO 3. Wykresy oznaczone a otrzymano stosując ujemną polaryzację badanej elektrody, wykresy b przy dodatniej polaryzacji. Podobny kształt większości krzywych sugeruje, że niezależnie od struktury porowatej węgle aktywne z MCMB zachowują się w danym elektrolicie wodnym podobnie, z nielicznymi wyjątkami. W 1M H 2 SO 4 wszystkie węgle aktywne mają graniczne napięcie pracy vs Hg Hg 2 SO 4 + 0,3 V jako elektroda dodatnia, a - 0,7 V jako elektroda ujemna. Przy zastosowaniu 1M Na 2 SO 4 przy tej samej elektrodzie odniesienia nie zmienia się graniczne napięcie pracy przy polaryzacji dodatniej (+ 0,3 V) natomiast przy polaryzacji ujemnej zależy od materiału elektrody roboczej. Dla większości węgli aktywnych (MCMB/600-2, MCMB/700-2 i MCMB/700-3) wynosi - 1,4 V, ale dla MCMB-3 osiąga wartość - 1,9 V. W 4,5M KCl graniczne napięcie pracy vs Hg Hg 2 Cl 2 wynosi + 0,7 V dla elektrody dodatniej, a - 1,1 V (MCMB-3, MCMB/600-2 i MCMB/700-2) lub - 1,4 V (MCMB/700-3) dla elektrody ujemnej. W 2M KNO 3 wszystkie węgle aktywne mają względem Hg Hg 2 Cl 2 graniczne napięcia pracy + 0,7 V i - 1,0 V. Podobnie, nie obserwuje się wpływu rodzaju węgla aktywnego przy zastosowaniu jako elektrolitu 6M KOH, graniczne napięcia pracy względem Hg HgO wynoszą odpowiednio + 0,1 V i - 0,8 V. Na rysunkach 4 i 5 zestawiono przykładowe krzywe woltamperometryczne dla elektrod wykonanych z MCMB/700-3 i MCMB/700-2 ładowanych potencjałem dodatnim i ujemnym w Na 2 SO 4 i KNO 3. Zsumowane krzywe tworzą okno potencjału dla danego układu. 110

112 Rys. 2. Krzywe woltamperometryczne węgli aktywnych z MCMB w 1 M Na 2 SO 4, otrzymane w trójelektrodowym układzie, z zastosowaniem Hg Hg 2 SO 4 jako elektrody odniesienia. Elektroda robocza ładowana potencjałem ujemnym (a) i dodatnim (b). Rys. 3. Krzywe woltamperometryczne węgli aktywnych z MCMB w 2 M KNO 3, otrzymane w trójelektrodowym układzie, z zastosowaniem Hg Hg 2 Cl 2 jako elektrody odniesienia. Elektroda robocza ładowana potencjałem ujemnym (a) i dodatnim (b). Badania potwierdziły, że napięcie w którym może stabilnie pracować kondensator zbudowany z węgli aktywnych z MCMB nie rozkłada się równo na elektrodę dodatnią i ujemną. Zakres potencjału jest przesunięty w zależności od stosowanego elektrolitu, a w niewielkim stopniu także od porowatości materiału, z którego jest zbudowana elektroda. Dla wszystkich węgli aktywnych zakres napięcia pracy w 1M H 2 SO 4 i 6M KOH jest wyraźnie węższy, wynosi ok. 0,8 V, podczas gdy dla elektrolitów neutralnych mieści się w zakresie 1,3 1,8 V. Trudno jednak doszukać się logicznej tendencji obserwowanych zmian. Pomiary w układzie trójelektrodowym pozwalają ocenić wpływ elektrolitu na pojemność elektrody. Podobnie jak w układzie dwuelektrodowym najmniejsze pojemności osiągamy stosując 1M Na 2 SO 4, a najwyższe stosując 6M KOH. Jednocześnie jednak zastosowanie 1M Na 2 SO 4 pozwala na pracę w najszerszym zakresie napięcia bez widocznego efektu utleniania elektrody dodatniej i wydzielania wodoru na ujemnej. Mniej korzystne pod tym względem właściwości wykazują 6M KOH i 1M H 2 SO

113 Rys. 4. Krzywe woltamperometryczne węgli aktywnych z MCMB/700-3 w różnych elektrolitach, otrzymane w trójelektrodowym układzie, przeliczone względem NHE. Elektroda robocza ładowana potencjałem ujemnym (niebieska) i dodatnim (czerwona). Rys. 5. Krzywe woltamperometryczne węgli aktywnych z MCMB/700-2 w różnych elektrolitach, otrzymane w trójelektrodowym układzie, przeliczone względem NHE. Elektroda robocza ładowana potencjałem ujemnym (niebieska) i dodatnim (czerwona). 3. Podsumowanie Badania elektrochemiczne metodą potencjodynamiczną węgli aktywnych z MCMB przy zastosowaniu 6M KOH, 1M H 2 SO 4, 4,5M KCl, 2M KNO 3, 1M Na 2 SO 4 jako elektrolitu wykonano w celu określenia czy rodzaj stosowanego elektrolitu, a także porowatość materiału elektrody mają wpływ na przesunięcie granicznego potencjału pracy elektrody w zależności czy polaryzujemy ją w stroną wartości dodatnich czy ujemnych. Testy w układzie trójelektrodowym pokazują, że napięcie w którym może stabilnie pracować kondensator zbudowany z węgli aktywnych z MCMB nie rozkłada się równo na elektrodę dodatnią i ujemną. Zakres potencjału jest przesunięty w zależności od stosowanego elektrolitu, a w niewielkim stopniu także od porowatości materiału, z którego jest zbudowana elektroda. Dla elektrolitów neutralnych zakres napięcia pracy jest wyraźnie szerszy niż dla 1M H 2 SO 4 i 6M KOH. Porównanie krzywych ładowania potencjałem ujemnym i dodatnim wskazuje, że wyższe wartości pojemności uzyskuje się podczas ładowania potencjałem ujemnym. Obserwowane różnice są nieduże i niezależne od zastosowanego elektrolitu, co sugeruje, że choć węgle aktywne otrzymane z MCMB powinny być rozpatrywane przede wszystkim jako wzorcowy materiał elektrody ujemnej kondensatora to sprawdzają się również dobrze jako materiał elektrody dodatniej. 112

114 Wyniki przeprowadzonych badań w układzie trójelektrodowym wskazują, że przy podobnym charakterze chemicznym węgli aktywnych nawet znaczne różnice w rozwinięciu i strukturze układu porów nie mają istotnego wpływu na poszerzenie napięcia pracy zbudowanego z nich kondensatora. Literatura [1] A. Burke, Ultracapacitors: why, how, and where is the technology, J. Power Sources 91, (2000). [2] R. Kötz, M. Carlen, Principles and applications of electrochemical capacitors, Electrochimica Acta 45, (2000). [3] V. Khomenko, E. Raymundo-Pinero, E. Frackowiak, F. Beguin, High-voltage asymmetric supercapacitors operating in aqueous electrolyte, Appl. Phys. A 82, (2006). [4] V. Khomenko, E. Raymundo-Pinero, E. Frackowiak, F. Beguin, High-voltage asymmetric supercapacitors operating in aqueous electrolyte, J. Power Sources 153, (2006). [5] H. Machnikowska, K. Torchała, K. Kierzek, J. Machnikowski, Carbon 09 The Annual Word Conference On Carbon, Biarritz (Francja), CD-ROM ID623. [6] V. Khomenko, E. Raymundo-Pinero, F. Béguin, A new type of high energy asymmetric capacitor with nanoporous carbon electrodes in aqueous electrolyte, Journal of Power Sources 195, (2010). [7] M.P. Bichat, E. Raymundo-Pinero, F. Beguin, High voltage supercapacitor built with seaweed carbons in neutral aqueous electrolyte, Carbon 48, (2010). [8] L. Demarconnay, E. Raymundo-Pinero, F. Béguin, Adjustment of electrodes potential window in an asymmetric carbon/mno 2 supercapacitor, Journal of Power Sources 196, (2011). [9] V. Khomenko, E. Raymundo-Pinero, F. Béguin, Optimisation of an symmetric manganese oxide/activated carbon capacitor working at 2V in aqueous medium, Journal of Power Sources 153, (2006). Badania sfinansowane zostały ze środków Wrocławskiego Centrum Badań EIT+ w ramach realizacji projektu Wykorzystanie nanotechnologii w nowoczesnych materiałach" NanoMat (POIG /08) finansowanego ze środków Europejskiego Funduszu Rozwoju Regionalnego (Program Operacyjny Innowacyjna Gospodarka, Poddziałanie 1.1.2). CAPACITANCE BEHAVIOUR OF KOH ACTIVATED MESOCARBON MICROBEADS AS ELECTRODE MATERIAL FOR ELECTROCHEMICAL CAPACITORS IN THREE-ELECTRODE CONFIGURATION The study has been focused on assessing the behaviour of activated carbons as positive and negative electrode of capacitor operating in aqueous electrolyte. The materials tested were KOH activated carbons from mesocarbon microbeads (MCMB) of differentiated porosity development. Voltammetric measurements in three electrode system built of activated carbons as working electrode show that the operational range of potential depends on the electrolyte used however porosity development of electrode material has rather little effect. The working potential is distinctly wider for neutral electrolytes (4,5M KCl, 2M KNO 3 and 0,5M Na 2 SO 4 ) than for 1M H 2 SO 4 and 6M KOH. Despite the activated carbons from MCMB are primarily a candidate for negative electrode of asymmetric capacitor they show a good performance as positive electrode. 113

115 Nanokompozyty na bazie żywic poliestrowo-epoksydowych modyfikowane organifilizowanymi glinokrzemianami Małgorzata Żabska 1, Konrad Szustakiewicz 1, Jacek Pigłowski 1 Streszczenie: W artykule przedstawiono wyniki badań wpływu dodatku wielowarstwowych glinokrzemianów na strukturę i właściwości kompozytów otrzymanych na bazie żywic poliestrowo-epoksydowych. Badania strukturalne wykonano z zastosowaniem metody WAXS oraz analizę termiczną przeprowadzono przy użyciu różnicowej kalorymetrii skaningowej DSC. Słowa kluczowe: nanonapełniacze, WAXS 1. Wprowadzenie Pojęcie nanokompozytu odnosi się do materiałów, w których zastosowane napełniacze zdolne są do integracji na poziomie nanometrów. Przykładem takich dodatków są wielowarstwowe glinokrzemiany, mogące w określonych warunkach ulegać rozproszeniu na płytkowe płaskie cząstki o rozmiarze poprzecznym rzędu 1nm oraz podłużnym rzędu setek nanometrów. Najczęściej stosowanymi materiałami tego typu są bentonity, których głównym składnikiem jest montmorylonit [1] Zastosowanie montmorylonitu (MMT) sprzyja zwiększeniu powierzchni właściwej nawet tysiąc razy w porównaniu do konwencjonalnych napełniaczy, dzięki czemu otrzymuje się mocniejsze oddziaływanie z powierzchnią polimeru. Udział 3-8% wag. odpowiednio zdyspergowanego napełniacza wystarcza do osiągnięcia określonych cech materiału takich jak zwiększenie modułu elastyczności, wyższą stabilność termiczną, zwiększone właściwości barierowe, lepsze właściwości optyczne czy lepsze właściwości przetwórcze [3-5]. W procesie otrzymywania nanokompozytu niezwykle ważne jest osiągnięcie odpowiedniego stopnia dyspersji płytek MMT w matrycy polimerowej. Aby materiał stał się nanonapełniaczem musi dojść do interkalacji, a najlepiej eksfoliacji płytek glinokrzemianu [2]. Zmianę struktury minerału monitoruje się za pomocą dyfraktometrii rentgenowskiej. W porównaniu z profilami dyfrakcyjnymi wyjściowego montmorylonitu, maksimum dyfrakcyjne, powstałe wskutek ugięcia promieniowania na płaszczyznach (001) glinokrzemianu, przesunięte jest w kierunku mniejszych kątów rozpraszania. W myśl prawa Braggów (1) oznacza to zwiększenie odległości d001, czyli rozsunięcie płytek glinokrzemianu w obrębie kryształu. W przypadku nanokompozytów dyspersyjnych (delaminowanych) w dyfraktogramach wskutek zaniku regularnej warstwowej budowy minerału maksimum pochodzące od glinokrzemianu nie występuje. 2. Materiały i metody Badania wykonano na próbkach żywic będących handlowo dostępnymi farbami: farba H-41 RAL 7015 oraz tej samej farbie domieszkowanej organofilizowanym bentonitem NanoBent (ZW1). Organobentonit wyprodukowano w Zakładach Metalowo-Górniczych Zębiec z bentonitu sodowego oraz czwartorzędowych soli amoniowych. Kompozyty o zawartości 5% i 8% wag. ZW1 sporządzono przy użyciu wytłaczarki. Badania strukturalne przeprowadzono z zastosowaniem metody WAXS (Wide Angle X-Ray Scattering) w zakresie kątów 2θ = 1,1 10º, przy pomocy proszkowego dyfraktometru rentgenowskiego Rigaku Ultima IV. Źródło promieniowania stanowiła lampa z anodą CuKα λ = 1 Politechnika Wrocławska, Wydział Chemiczny, Zakład Inżynierii i Technologii Polimerów, Wybrzeże Wyspiańskiego 27, Wrocław, malgorzata.zabska@pwr.wroc.pl 114

116 0,1542nm, pracująca przy 40kV i 30mA. Zastosowano układ pomiarowy Bragg-Brentano z geometrią pomiaru 2theta-theta. Pomiar przeprowadzono w trybie ciągłym, ze skokiem pomiarowym 0,02º i czasem naświetlania 5min/º. Pomiary służyły do oznaczenia odległości międzypłaszczyznowej d 001 obliczanej z równania Braggów: gdzie: n rząd ugięcia λ długość fali promieniowania rentgenowskiego d 001 odległość między płaszczyznami (001) θ połowa kąta dyfrakcji nλ = 2d 001 sinθ (1) Analiza termiczna przeprowadzona została z zastosowaniem różnicowej kalorymetrii skaningowej (DSC) przy pomocy mikrokalorymetru Mettler Toledo 821 sprzężonego z chłodziarką sprężarkową. Próbki farby o masie 12-15mg umieszczano w standardowych tyglach aluminiowych. Pomiary przeprowadzano w warunkach nieizotermicznych w zakresie temperatur C z prędkością grzania 10º/min. 3. Wyniki i dyskusja Wyniki badań WAXS wykonane dla próbek domieszkowanych organofilizowanym bentonitem NanoBent (ZW1) wykazały maksima dyfrakcyjne o bardzo małych natężeniach (Rys. 1). Zlokalizowanie ich położenia wymagało dobrania stosunkowo precyzyjnych warunków pomiarowych tj. relatywnie długich czasów naświetlania przypadających na punkt pomiarowy. Tak wykonane badania umożliwiły wyodrębnienie charakterystycznych pików z poziomu szumów. Ze względu na mocno rozmyty charakter refleksów trudno jest jednoznacznie określić położenie maksimum, a tym samym wyznaczyć odległość d 001. W prawym górnym rogu wykresu zamieszczono jego fragment przedstawiając oś rzędnych w skali logarytmicznej w celu lepszego zobrazowania występowania refleksów pochodzących od ugięcia wiązki promieniowania na płaszczyznach 001 montmorylonitu. Prowadząc badania przy mniej dokładnych warunkach pomiarowych możliwe jest niezaobserwowanie tak słabych refleksów co interpretowane jest jako całkowita delaminacja nanonapełniacza NanoBent ZW1 d 001 = 1,8 nm I [a.u.] żywica/ NanoBent (8%) żywica/ NanoBent(5%) żywica [ ] Rys. 1. Krzywe dyfrakcyjne (WAXS) żywic modyfikowanych glinokrzemianem warstwowym. 115

117 Rysunek 2 przedstawia termogramy DSC. Na wykresie zaznaczono charakterystyczne obszary przemian w funkcji temperatury. W Tabeli 1 zamieszczono wartości temperatur procesu sieciowania oraz wartości znormalizowanej entalpii reakcji będącej polem powierzchni pod egzotermicznym pikiem. Za temperaturę sieciowania T m przyjęto wartość temperatury przy maksimum piku. Q/m [J/g] 0,40 0,35 0,30 0,25 uplastycznianie żywica żywica/ Nano-Bent(5%) żywica/ Nano-Bent(8%) płynięcie materiału T oc - poczatek sieciowania T e - koniec sieciowania 0,20 0,15 0, T [ C] T m - temp. sieciowania Rys. 2. Termogramy DSC żywicy oraz jej kompozytów modyfikowanych glinokrzemianem warstwowym. Uzyskane wyniki wskazują, że dodatek napełniacza powoduje wzrost energii przemiany. W stosunku do układu niedomieszkowanego wartość entalpii sieciowania wzrosła o 37% dla układu z dodatkiem 5% wag. NanoBentu i o 54% dla mieszanki zawierającej 8% wag. nanonapełniacza. Nie zaobserwowano jednak znacznych różnic w przypadku temperatur sieciowania pomimo obecności czwartorzędowych soli amoniowych, które w technologii modyfikacji żywic mogą być stosowane jako przyspieszacze sieciowania. Tab. 1. Wartości temperatur i energii przemiany żywica żywica/nanobent 5% żywica/nanobent 8% T m - temp. sieciowania [ºC] T oc - temp. początku sieciowania [ºC] T e - temp. końca sieciowania [ºC] ΔH - entalpia sieciowania [J/g] 10,8 14,8 16,6 4. Podsumowanie Kompozyty otrzymane na bazie żywic modyfikowanych organofilizowanym montmorylonitem poddano badaniom strukturalnym oraz analizie termicznej w celu zbadania wpływu napełniacza na ich właściwości. Wyniki badań WAXS wykonane na próbkach domieszkowanych NanoBentem (ZW1) wykazały maksima dyfrakcyjne o bardzo małych natężeniach. Może być to związane z czynnikiem absorpcyjnym lub liczebnością odbijającej płaszczyzny sieciowej. Z przeprowadzonej analizy termicznej wynika, że dodatek napełniacza powoduje znaczny wzrost energii przemiany egzotermicznej, co wskazuje na wzrost stopnia 116

118 uporządkowania układu. Z punktu widzenia właściwości produktu kluczowym aspektem, w trakcie przygotowywania układów, jest zapewnienie warunków umożliwiających odpowiednią dyspersję napełniacza w matrycy polimerowej. Pozwala to na uzyskanie materiałów o określonych właściwościach fizykochemicznych i mechanicznych. Literatura [1] Okada A., Usuki A.: Twenty years of polymer-clay nanocomposites, Macromolecular Materials and Engineering 2006 [2] Paul D.R., Robeson L.M.: Polymer nanotechnology: Nanocomposites, Polymer 2008 [3] Pigłowski J., Kiersnowski A., Dołęga J.: Otrzymywanie, struktura oraz właściwości użytkowe nanokompozytów z warstwowych glinokrzemianów i poli(ε-kaprolaktonu); Polimery 2006 [4] Spychaj, T.; Heneczkowski, M.; Pigłowski, J.; Oleksy, M.; Kowalczyk, K.; Kiersnowski, A.; Galina, H.: Modyfikowane bentonity (montmorylonity) jako podstawa rozwoju nanomateriałów polimerowych w kraju; Inżynieria Materiałowa [5] Tjong S.C.; Structural and mechanical properties of polymer nanocomposites, Material Science and Engineering 2006 NANOCOMPOSITES BASED ON POLYESTER-EPOXY RESINS MODIFIED WITH ORGANOPHILIZED PHYLLOSILICATES Preparation of polymer/layered silicate nanocomposites proved to be an effective method of improving the mechanical, thermal, heat resistance and barrier properties of numerous polymers. A commonly used layered silicate is montmorillonite (MMT) having layered particles consisting of 1 nm thick platelets with submicron planar dimensions. The exfoliated structures results when the silicate platelets are uniformly dispersed in a continuous polymer matrix. The most commonly used technique for the structure characterization is X-ray diffraction, for instance WAXS. For an intercalated structure, the characteristic peak of montmorillonite (001) tends to shift to lower angle due to expansion of the basal spacing. No peaks are observed in the diffraction pattern of exfoliated polymer nanocomposites due to loss of the structural registry of the layers. Results for polyester-epoxy resins naocomposites modified with 5 and 8% wt. layered silicate are presented. WAXS investigation revealed very weak diffraction peak for resin/ommt blends. Quite sofisticated measurment condition must have been aplied in order to detect these maximums. In other way characteristic peak (001) may not be observed thus misleading in correct interpretation. Thermal analysis show high growth of reaction enthalpy by over 54% for resin/ommt 8% in comparison with unmodified polyester-epoxy resin. 117

119 Część III Nauki techniczne 118

120 Miniaturowy ceramiczny reaktor biochemiczny Paweł Bembnowicz 1 Streszczenie: W artykule przedstawiono właściwości ceramiki LTCC. Podano informacje na temat łańcuchowej reakcji polimerazy (PCR). Opisano proces projektowania oraz konstrukcję miniaturowego ceramicznego reaktora PCR. Zaprezentowano system (oparty na mikroreaktorze wykonanym z LTCC) pozwalający na wykonanie procesu PCR. Porównano efektywność zaprojektowanego urządzenia z komercyjnie dostępną aparaturą. Słowa kluczowe: LTCC, ceramika, PCR, miniaturowy reaktor 1. Wprowadzenie Obecnie nie wyobrażamy sobie życia bez urządzeń elektronicznych. Jesteśmy przez nie otoczeni i bardzo często nawet nie zdajemy sobie z tego sprawy. Większość z nas słyszało o tym, iż jest to możliwe dzięki strukturom krzemowym. Interesuje nas jednak, jak to się odnosi do powszechnie znanych drukowanych płytek elektronicznych z gęstą siecią ścieżek przewodzących i dużą ilością obudów układów scalonych. Widać, iż elektronika to nie tylko krzem. Obecnie obwody elektroniczne wykonywane są za pomocą technologii opartej na laminatach, głównie ze względu na ich niską cenę. Częstotliwość pracy układów cyfrowych zbliża się jednak powoli do wielkości granicznej, po przekroczeniu której standardowe laminaty nie będą mogły być stosowane. Rozwiązaniem tego problemu może stać się wykorzystanie materiałów ceramicznych. Znana od lat osiemdziesiątych niskotemperaturowa ceramika współwypalana LTCC (ang. Low Temperature Co-fired Ceramics) jest coraz częściej stosowana na szeroką skalę. Poza doskonałymi właściwościami elektronicznymi materiał ten charakteryzuje się warstwowością. Warstwy ceramiki grubości od 50 µm do 350 µm prasowane są razem, tworząc jednolitą bryłę. Jednak przed połączeniem możliwe jest drukowanie na nich elementów elektronicznych, takich jak: ścieżki przewodzące, rezystory, a także kondensatory. W ten sposób otrzymywane są trójwymiarowe ceramiczne płyty elektroniczne ze zintegrowanymi elementami biernymi, do których montowane są elementy aktywne. Dzięki temu uzyskiwana jest miniaturyzacja, a także możliwość stosowania układów pracujących z wysokimi częstotliwościami. Technologia LTCC pozwala na konstruowanie czujników (np.: gazu, przepływu, przyspieszenia, wilgotności). Co więcej, możliwe jest wykonywanie miniaturowych kanałów i komór wewnątrz struktur. Opisane właściwości w połączeniu z wysoką odpornością na silnie reaktywne substancje chemiczne czynią ceramikę doskonałym materiałem na wszelkiego rodzaju reaktory chemiczne i biochemiczne [1, 2]. Łańcuchowa reakcja polimerazy PCR (ang. Polymerase Chain Reaction) jest techniką wykorzystywaną w biochemii, która umożliwia syntezę milionów, a nawet miliardów kopii każdej sekwencji genomowego DNA (kwas deoksyrybonukleinowy). PCR wykorzystuje się obecnie powszechnie w diagnostyce mikrobiologicznej, np. do detekcji infekcji wirusowych, a także obecności wirusa HIV (ang. Human Immunodeficiency Virus) we krwi pacjentów chorych na AIDS (ang. Aquired Immunodeficiency Syndrome). Jest nieocenionym narzędziem w wykrywaniu chorób genetycznych, jak również w badaniach markerów nowotworowych. 1 Politechnika Wrocławska, Wydział Elektroniki Mikrosystemów i Fotoniki, pawel.bembnowicz@pwr.wroc.pl 119

121 Umożliwia określenie ewentualnych zmian w sekwencji genów kontrolujących wzrost i podział komórek. W niektórych przypadkach jest używana przed przeszczepami do określania typu genów, od których zależy układ zgodności tkankowej. Łańcuchowa reakcja polimerazy okazała się również przydatna dla medycyny sądowej dzięki temu, że próbka niezbędna do wykonania badań może być znacznie mniejsza niż wymagają tego analizy bezpośrednie. Stosuje się ją przede wszystkim do identyfikacji osób. PCR może się okazać przydatna w rolnictwie do określenia, czy uprawy były modyfikowane genetycznie [3]. Możliwy jest również monitoring środowiska, polegający na wykrywaniu mikroorganizmów szkodliwych dla człowieka (np. bakterii E. coli) przez detekcję specyficznych dla nich fragmentów DNA. Znaczenie tej techniki podkreśla fakt, iż jej odkrywcy Karemu Mullisowi przyznano nagrodę Nobla w roku 1993 z dziedziny chemii. Obecnie w laboratoriach znajdują się urządzenia, które nie wykorzystują w pełni możliwości reakcji. W tym przypadku miniaturyzacja może okazać się skutecznym rozwiązaniem [4, 5]. Miniaturowy system jest w stanie pracować z większą wydajnością zużywając mniejszą ilość drogich odczynników chemicznych. Zastosowanie do konstrukcji miniaturowego reaktora ceramiki jest wskazane ze względu na możliwość integracji w jednej strukturze elementów przepływowych i elektronicznych. Technologia LTCC umożliwia zatem wykonanie struktury typu lab-on chip, w której przeprowadzana będzie automatycznie cała procedura laboratoryjna. Co więcej, dobrze zaprojektowany miniaturowy system, ze względu na niewielkie wymiary, może być wykorzystywany poza laboratorium przez niewykwalifikowanego operatora. 2. Miniaturowy reaktor PCR Wykonanie procesu PCR polega na cyklicznej zmianie temperatury odpowiednio przygotowanej mieszaniny reakcyjnej. Zazwyczaj jest to kilkadziesiąt cykli temperaturowych. Otrzymanie prawidłowego produktu PCR związane jest ze stosowaniem właściwego protokołu czasowo-temperaturowego. Istotne jest również, aby materiał reaktora nie wchodził w interakcję z reagentami. Wykonano szereg testów polegających na zanieczyszczeniu mieszaniny reakcyjnej próbkami wybranych produktów LTCC. W wyniku eksperymentów stwierdzono, iż ceramika DP951 nie powoduje inhibicji reakcji [6]. Z tego powodu do konstrukcji miniaturowych reaktorów wybrano ten typ ceramiki. Technologia LTCC pozwala na integrację biernych elementów elektronicznych. Możliwe jest więc wykonanie miniaturowej komory ceramicznej z zagrzebanym rezystorem grzejnym oraz termistorem. Rys. 1 przedstawia schemat takiej struktury. PDMS Czujnik temperatury Komora Reakcyjna Grzejnik Rys. 1. Rozstrzelny schemat zintegrowanego miniaturowego reaktora PCR. Rys. 2. Schemat miniaturowej komory reakcyjnej uszczlnianej warstwą PDMS. 120

122 Proces przeprowadza się w podwyższonej temperaturze. Takie warunki powodują zwiększenie szybkości parowania próbki biologicznej. W związku z tym konieczne jest hermetyczne zamknięcie reagentów. Uszczelnienie komory można uzyskać za pomocą elastycznej warstwy wykonanej z PDMS (polidimetylosiloksan), dociśniętej do czoła struktury (rys. 2). Ze względu na specyfikę reakcji biochemicznej wymagana była precyzyjna kontrola warunków termicznych procesu. Wskazane było zatem, aby projektowanie wspomagać symulacjami numerycznymi rozkładu temperatury (rys. 3). Celem obliczeń było uzyskanie informacji o zachowaniu się pola termicznego podczas zmian kształtu zagrzebanego grzejnika. Dzięki temu dobrano parametry rezystora grzejnego w taki sposób, aby zapewnić jednolity rozkład temperatury na dnie komory reakcyjnej. Ustalono również, iż umieszczenie warstwy metalicznej (o dużym współczynniku przewodnictwa cieplnego) pod komorą reakcyjną poprawi parametry termiczne elementu. Rys. 3. Rozkład temperatury na miniaturowym reaktorze uzyskany za pomocą obliczeń numerycznych. Rys. 4. Zdjęcie wykonanego miniaturowego reaktora ceramicznego. Rys. 5. Zdjęcie urządzenia sterującego procesem biologicznym wraz zamocowanym reaktorem ceramicznym. Mikroreaktor PCR został skonstruowany w technologii LTCC (rys. 4). Zagrzebane bierne komponenty elektroniczne wykonano za pomocą technik grubowarstwowych. Grzejnik utworzono z pasty rezystywnej dedykowanej do ceramiki DP951. Jako czujnik temperatury zastosowano natomiast rezystor z pasty termistorowej. Niewypaloną ceramikę obrabiano metodami skrawania precyzyjnego. Tak wykonany reaktor podłączono do dedykowanego elektronicznego urządzenia, zarządzającego temperaturą (rys. 5). Elektroniczny system sterujący oparto na mikrokontrolerze ATmega168. Urządzenie skonstruowano tak, aby istniała możliwość ustalenia (z poziomu aplikacji komputerowej) parametrów procesu biochemicznego oraz ciągłego monitoringu reakcji. System pozwolił na przeprowadzenie PCR. Wykonano proces biochemiczny z udziałem ludzkiego DNA. Porównano efektywność reakcji wykonywanej w standardowym wielkogabarytowym urządzeniu laboratoryjnym (GeneAmp PCR System 9700, Applied Biosystems) oraz zaprojektowanym systemie. Ilość powielonych fragmentów DNA w obu produktach była podobna, natomiast czas przeprowadzanej reakcji w miniaturowym systemie był dwukrotnie krótszy. 3. Podsumowanie W pracy przedstawiono pokrótce technologię niskotemperaturowej współwypalanej ceramiki. Wyszczególniono jej właściwości istotne podczas niestandardowych zastosowań tego materiału. Przybliżono znaczenie procesu PCR. Przedstawiono konstrukcję zintegrowanego reaktora biochemicznego, wykonanego w technologii LTCC. Proces konstruowania wspomagano obliczeniami numerycznymi. Wykonano elektroniczny system sterujący, który po podłączeniu miniaturowego reaktora ceramicznego pozwolił na 121

123 przeprowadzenie testów z udziałem materiału biologicznego. Porównano efektywność systemu opartego na strukturze ceramicznej z komercyjnie dostępnym urządzeniem. Produkty PCR uzyskane w obu urządzeniach charakteryzowały się zbliżoną liczbą powielonych fragmentów DNA. Jednakże czas wykonywanego procesu w miniaturowym systemie był około dwukrotnie krótszy. Technologia LTCC charakteryzuje się stosunkowo niskimi kosztami produkcji. W związku z tym przewiduje się, iż wykonany reaktor może być strukturą jednorazowego użytku. Dalsze badania nad przedstawionym systemem powinny prowadzić do opracowania urządzenia, produkowanego na szeroką skale, a przez to powszechnie dostępnego, które w przyszłości umożliwiałoby np. przedlekarską diagnostykę zakażeń wirusowych. Literatura [1] M. Gongora-Rubio, P. Espinoza-Vallejos, L. Sola-Laguna, J. Santiago-Aviles, "Overview of low temperature co-fired ceramics tape technology for meso-system technology (MsST)," Sensors and Actuators A, vol. 89, pp , [2] W. Smetana, B. Balluch, G. Stangl, E. Gaubitzer, M. Kohler,G. Edetsberger, "A multisensor biological monitoring module built up in LTCC-technology," Microelectronic Engineering, vol. 84, pp , [3] L. Stryer, Biochemia, Państwowe Wydawnictwo Naukowe, [4] C. Zhang, J. Xu, W. Ma, W. Zheng, "PCR microfluidic devices for DNA amplification," Biotechnology Advances, vol. 24, pp , [5] Y. Zhang, P. Ozdemir, "Microfluidic DNA amplification A review", Analytica Chimica Acta, vol. 638, pp , [6] P. Bembnowicz, M. Małodobra, W. Kubicki, P. Szczepańska, A. Górecka-Drzazga, J. Dziuban, A. Jonkisz, A. Karpiewska, T. Dobosz, L. Golonka "Preliminary studies on LTCC based PCR microreactor," Sensors & Actuators: B. Chemical, vol. 150, no. 2, pp. pp , Podziękowania Prezentowane prace były współfinansowane ze środków Unii Europejskiej w ramach Europejskiego Funduszu Społecznego MINIATURE BIOCHEMICAL CERAMIC REACTOR In the paper unconventional application of the ceramics is presented. A miniature LTCC (Low Temperature Co-fired Ceramics) reactor for biochemical reaction (PCR - Polymerase Chain Reaction) application is described. The PCR is a method of DNA (deoxyribonucleic acid) specific fragments amplification. The reactor consists of a miniature chamber for the PCR mixture, buried heater and temperature sensor integrated with the chamber. A key to successful carrying out of the PCR is a proper temperature management. Numerical calculations of temperature distribution are used in order to achieve optimal conditions for the PCR process. A dedicated electronic temperature management system is shown. The system with the ceramic miniature reactor allows as successful performance of the PCR. Moreover, the biochemical process made in ceramic structure is significantly faster in comparison with processes carrying out in traditional laboratory equipment. 122

124 Czujniki impedancyjne na mikrobelkach Konrad Chabowski 1 Streszczenie: Miniaturowe czujniki impedancyjne o strukturze palczastej wykonywane są na mikrobelkach krzemowych. Mogą być one wykorzystywane do detekcji różnych substancji i mikroorganizmów w cieczach. W pracy przedstawiono konstrukcję miniaturowego czujnika impedancyjnego oraz wstępne wyniki pomiarów i analizy wpływu wilgotności otoczenia oraz stężenia NaCl w roztworze wodnym na przebieg impedancji i parametry elektrycznego modelu równoważnego. Do odczytywania użytecznych informacji z czujnika zastosowano metodę spektroskopii impedancyjnej. Słowa kluczowe: mikrodźwignia, mikrobelka, czujnik, spektroskopia impedancyjna. 1. Wprowadzenie Badano prostokątne mikrobelki wyposażone w elektrody palczaste, umożliwiające pomiary metodą spektroskopii impedancyjnej (SI). SI jest metodą polegającą na pomiarze elektrycznej odpowiedzi badanego materiału na pobudzenie małym sygnałem elektromagnetycznym w szerokim zakresie częstotliwości i analizie tej odpowiedzi w celu uzyskania użytecznej informacji o fizykochemicznych właściwościach badanego materiału. Znajomość widma impedancji pozwala na identyfikację zjawisk przewodnictwa i polaryzacji elektrycznej zachodzącej w badanym materiale [1]. W pracy przedstawiono konstrukcję miniaturowego czujnika impedancyjnego oraz wstępne wyniki pomiarów i analizy wpływu wilgotności otoczenia oraz stężenia NaCl w roztworze wodnym na przebieg impedancji i parametry elektrycznego modelu równoważnego. Zaprezentowane badania są fragmentem prac prowadzonych w Zakładzie Metrologii Mikro- i Nanostruktur Wydziału Elektroniki Mikrosystemów i Fotoniki Politechniki Wrocławskiej nad zastosowaniem czujników impedancyjnych na mikrobelkach krzemowych w diagnostyce biochemicznej i medycznej [2]. 2. Konstrukcja czujnika Trzonem czujnika jest mikrobelka krzemowa grubości 2,5 µm. Jej kształt i wymiary w milimetrach zaprezentowano na rysunku 1. Dla zapewnienia separacji galwanicznej powierzchnię mikrobelki pokryto cienką warstwą dwutlenku krzemu. Na powierzchnię izolatora zostały naniesione dwie złote elektrody o strukturze palczastej o grubości warstwy złota około 280 nm. Szerokość palców elektrod i odstępy między nimi wynosiły 10 µm. Zaprojektowano mikrodźwignie prostokątne i trójkątne, w obydwu przypadkach na podwójnym zawieszeniu, ze względu na wymiary elektrod i konieczność obniżenia stałej sprężystości dźwigni. Czujniki impedancyjne wytworzono w taki sposób, aby zmiany zachodzące w ośrodku otaczającym czujnik (np. zmiana stężenia soli w roztworze wodnym, zmiana odczynu ph) powodowały zmiany jego impedancji. 1 Wydziałowy Zakład Metrologii Mikro- i Nanostruktur, Wydział Elektroniki Mikrosystemów i Fotoniki, Politechnika Wrocławska, ul. Janiszewskiego 11/17, Wrocław, konrad.chabowski@pwr.wroc.pl 123

125 Cp (F) D a) b) c) Rys. 1. Mikrobelka krzemowa z elektrodami palczastymi (producent ITE Warszawa): a) rysunek z wymiarami w milimetrach, b) zdjęcie z mikroskopu optycznego podświetlanego od spodu, c) włos ludzki dla porównania 3. Pomiar stężenia chlorku sodu w roztworze wodnym Przedstawiony sensor zastosowano do pośredniego pomiaru stężenia NaCl w roztworze wodnym. Aby umożliwić pomiar w systemie przepływowym skonstruowano dedykowaną celkę pomiarową o wymiarach 28x28x11 mm 3, zaprezentowaną na rysunku 2. a) b) Rys. 2. Celka pomiarowa: a) wygląd zewnętrzny z wyprowadzeniami elektrycznymi, b) wnętrze (po lewej stronie widoczny czujnik zamocowany na podstawce) Badanie polegało na pomiarze odpowiedzi czujnika metodą spektroskopii impedancyjnej po wprowadzaniu do celki roztworu kalibracyjnego NaCl. Pomiary charakterystyk w zakresie częstotliwości od 80 Hz do 50 MHz wykonano analizatorem impedancji Agilent 4294A przy pobudzeniu sinusoidalnym sygnałem napięciowym o amplitudzie 25 mv. Zmierzono odpowiedzi czujnika dla roztworów kalibracyjnych o stężeniach 0,1; 1; 10; 100; 1000 i 9000 ppm NaCl. Na rysunku 3 przedstawiono zależność pojemności i współczynnika strat czujnika impedancyjnego w roztworze o różnych stężeniach NaCl % NaCl 0,0001 % 0,001 % 0,01 % 0,1 % 0,9 % T = 20 deg T = 20 deg Częstotliwość (Hz) 0 % NaCl ,0001 % 0,001 % 0,01 % 0,1 % 0,9 % Częstotliwość (Hz) Rys. 3. Widma pojemności w układzie równoległym (Cp) i współczynnika strat (D) wodnego roztworu NaCl Do opisu zmierzonych widm impedancji czujników palczastych zaproponowano elektryczny model równoważny (rys. 4). Poszczególne elementy modelu odzwierciedlają właściwości elektryczne badanej struktury. Rezystancja R s i R 1 reprezentuje odpowiednio: rezystancję elektrod i doprowadzeń oraz rezystancję roztworu wodnego NaCl. Element stałofazowy CPE 1 modeluje 124

126 elektryczną warstwę podwójną, która powstaje na granicy elektrod i medium, natomiast CPE p reprezentuje właściwości struktury. Admitancja elementu stałofazowego opisana jest zależnością Y( ) = Q(j ) n gdzie jest częstością kątową, a Q i n są parametrami [4]. Rs R1 CPE1 CPEp Rys. 4. Elektryczny model równoważny struktury palczastej na mikrobelce w roztworze wodnym NaCl Na rysunku 5 przedstawiono wpływ stężenia NaCl na wybrane parametry elektrycznego modelu równoważnego R 1, Q 1 i Q p. R 1 ( ) 1M 100k 10k 1k Element Freedom Value Error Error % Rs Free(+) 40,61 N/A N/A R1 Free(+) 4,63E05 N/A N/A CPE1-T Free(+) 1,5731E-08 N/A N/A 100n Q p CPE1-P Fixed(X) 0,5 Q 1 N/A N/A CPEp-T Free(+) 1,4371E-10 N/A N/A CPEp-P Free(+) 10n 0,97989 N/A N/A Data File: Circuit Model File: Q (S*s n ) D:\aktualne_PWr\Chabowski\celka z czujni kem czystym\roztwory soli\ostateczny_mod el_debaya_1_sole.mdl Mode: Run Fitting / All Data Points (1-1) Wodny roztwor NaCl (%) Wodny roztwor NaCl (%) Maximum Iterations: 100 Optimization Iterations: 0 Type of Fitting: roztworu NaCl Complex Type of Weighting: Calc-Modulus Rys. 5. Zmiana wartości parametrów elektrycznego modelu równoważnego aproksymującego widma wodnego Z pomiarów wynika, że najbardziej czuła na zawartość jonów w roztworze jest rezystancja medium R 1. Zmniejszanie się grubości elektrycznej warstwy podwójnej na skutek zwiększania koncentracji jonów powoduje wzrost wartości parametru Q elementu stałofazowego CPE 1 [3]. 4. Pomiary wilgotności względnej powietrza Sprawdzono także możliwość wykorzystania czujnika impedancyjnego na mikrobelce jako czujnika wilgotności. Zastosowano tę samą celkę pomiarową (rys. 2a, 2b) co w poprzednim eksperymencie. Pomiary charakterystyk w zakresie częstotliwości od 20 Hz do 2 MHz wykonano mostkiem pomiarowym RLC Agilent E4980A przy pobudzeniu sinusoidalnym sygnałem napięciowym o amplitudzie 25 mv. Do zadawania wilgotności wykorzystano saturator laboratoryjny napędzany sprężonym azotem (rys. 6). Kontrolę zadanej wilgotności zapewniał miernik wyposażony w precyzyjny czujnik wilgotności typu SHT75. 1n 100p Rys. 6. Stanowisko pomiarowe z saturatorem, celką i miernikiem wilgotności Uzyskano podobne widma impedancji jak w punkcie 3. Zmiany wartości parametrów elektrycznego modelu równoważnego (rys. 4) zaprezentowano na rysunku 7. Odpowiadają one zjawiskom fizycznym zachodzącym na czujniku. Wzrost wilgotności względnej powoduje zmiany parametrów warstwy. Przy małych wilgotnościach element CPE 1 można zastąpić kondensatorem (dla n 1 zmierzającego do jedności w miejsce Q 1 podstawiamy pojemność C 1 ). W miarę wzrostu wilgotności przestrzenie między elektrodami zapełniają się wodą adsorbowaną, n 1 maleje, a Q 1 125

127 wzrasta o kilka rzędów. Rezystancja R 1 maleje ze wzrostem wilgotności względnej. Wydaje się, że element CPE 1 jest czułym wskaźnikiem stopnia uporządkowania mikrostruktury warstwy SiO 2. W takim razie wartość wykładnika n 1 może być związana z fraktalnym lub perkolacyjnym mechanizmem adsorpcji cząsteczek wody [4]. 100M 1n Q 1 (S*s n ) Q 1 n 1 1,0 0,9 R 1 ( ) 10M 100p 0,8 0,7 n 1 10p 0,6 1M RH (%) 0,5 1p RH (%) Rys. 7. Zmiana wartości parametrów elektrycznego modelu równoważnego w funkcji wilgotności otoczenia 6. Podsumowanie Zaprezentowane czujniki impedancyjne o strukturze palczastej, zbudowane na mikrobelkach krzemowych, mogą być zastosowane jako czujniki wilgotności powietrza i czujniki konduktometryczne. Funkcjonalizacja powierzchni czujnika przez nałożenie warstwy receptorowej wyczulonej na poszukiwaną substancję umożliwia wykonywanie z nich bardzo dokładnych i skutecznych biosensorów [5]. Ich miniaturowe wymiary pozwalają na umieszczenie bardzo dużej ilości sensorów na niewielkiej powierzchni i stworzenie zminiaturyzowanego systemu pomiarowego wielu czynników środowiskowych. Literatura [1] J. R. MacDonald, Impedance spectroscopy: emphasizing solid materials and systems. John Wiley; [2] Mikro- i Nano- Systemy w Chemii i Diagnostyce Biomedycznej. POIG /08-01, [3] S. Grimnes, O. G. Martinsen, Bioimpedance and Bioelectricity Basics. Academic Press 2000 [4] K. Nitsch, Zastosowanie spektroskopii impedancyjnej w badaniach materiałów elektrycznych. Oficyna Wydawnicza Politechniki Wrocławskiej, Wrocław 1999 [5] K. Chaki, K. Vijayamohanan, Self-assembled monolayers as a tunable platform for biosensor applications. Biosensors & Bioelectronics 17 (2002) 1 12 IMPEDANCE SENSORS ON MICROMECHANICAL CANTILEVERS Miniaturized impedance sensors with interdigitated electrodes were fabricated on silicon micromechanical cantilevers. They can be used for detection of various substances and microbes in liquids. Impedance spectroscopy was used to obtain usable information from sensor. The construction of micromechanical cantilever impedance sensor and measurements of influences of relative humidity and NaCl concentration in solution on sensor s impedance were presented. Obtained data were analysed using equivalent electric circuit modeling. Model parameters were evaluated for few points of humidity and NaCl concentration in solution. Study of changes of model parameters allowed to identificate physical phenomena occurring on sensor s surface. Functionalization of electrodes surface by receptor layer may provide possibility of building a very accurate and efficient biosensor based on presented impedance sensor. 126

128 Stabilizacja chaosu z wykorzystaniem metod ewolucyjnych Andrzej Cichoń 1 Streszczenie: W pracy przedstawiono możliwość wykorzystania algorytmów ewolucyjnych w szczególności algorytmu ewolucji różnicowej do znalezienia optymalnych wartości parametrów metody Pyragasa, zadaniem której jest stabilizacja zachowań chaotycznych w układach dynamicznych. Wyniki przedstawiono dla odwzorowania logistycznego oraz dla odwzorowania Duffinga. Słowa kluczowe: sterowanie chaosem, metoda Pyragasa, algorytmy ewolucyjne 1. Wprowadzenie Zachowania chaotyczne są charakterystyczne dla wielu nieliniowych układów dynamicznych, zarówno tych występujących w naturze (zjawiska pogodowe), jak i stworzonych przez człowieka (np. niektóre układy elektryczne i elektroniczne). Chaos w wielu przypadkach jest jednak zjawiskiem niepożądanym. W związku z tym opracowane zostały metody służące do sterowania zachowaniami chaotycznymi. Jedną z nich jest stabilizacja wykorzystująca pętlę sprzężenia zwrotnego z opóźnieniem (delayed feedback control, DFC), zaproponowana przez Kestutisa Pyragasa [3]. 2. Metoda Pyragasa Oryginalna metoda DFC (określana także jako TDAS time-delay autosynchronization) dotyczy układów ciągłych opisanych równaniami różniczkowymi: dz dt = Q(z,y), dy dt = P(z,y) + F (t) (1) Zmienna y to wielkość, której wartości mogą być mierzone na wyjściu układu, z oznacza pozostałe zmienne opisujące układ, które są nieznane, niemierzalne lub nieistotne dla obserwatora, a F (t) jest pewnym sygnałem zaburzającym wyjście. Przy użyciu tej metody można ustabilizować układ do pewnej orbity okresowej (cyklu okresowego) y = y i (t), y i (t + τ) = y i (t) (τ jest okresem orbity). Pierwotna koncepcja DFC zakładała użycie zewnętrznego oscylatora generującego sygnał proporcjonalny do y i (t) (Rys. 1a). Różnica D(t) między sygnałami y i (t) oraz y(t) została wykorzystana jako sygnał zaburzający F (t) = K [y i (t) y(t)] = K D(t), gdzie K jest doświadczalnie wyznaczaną wagą siły zaburzenia. Przy odpowiednio dobranej stałej K po pewnym czasie układ osiąga swoją rzeczywistą orbitę (y(t) y i (t)), a sygnał zaburzający jest minimalny bądź zanika do zera. Praktyczna realizacja tego układu była jednak w wielu przypadkach skomplikowana z powodu trudności w odpowiednim zaprojektowaniu oscylatora. Zaproponowano zatem kolejne rozwiązanie, w którym zewnętrzny sygnał y i (t) zastąpiony został opóźnionym sygnałem z wyjścia układu (Rys. 1b). Opóźnienie to jest równe okresowi szukanej orbity periodycznej. W pracy [4] zaproponowano uogólnienie powyższej metody (extended time-delay feedback autosynchronization, ETDAS), dzięki której możliwa jest skuteczna stabilizacja orbit o większych 1 Politechnika Wrocławska, Instytut Informatyki, Automatyki i Robotyki, ul. Janiszewskiego 11/17, Wrocław, andrzej.cichon@pwr.wroc.pl 127

129 (a) Rys. 1. Schematy blokowe: (a) układu stabilizacji z oscylatorem zewnętrznym, (b) układu stabilizacji opartego na pętli sprzężenia zwrotnego z opóźnieniem (b) okresach, zarówno w systemach ciągłych, jak i dyskretnych. W metodzie ETDAS wykorzystywana jest informacja o wielu poprzednich stanach systemu, a sygnał zaburzający zdefiniowany jest jako: [ ] F (t) = K (1 R) m=1 R m 1 y(t mτ) y(t) w którym R, podobnie jak K, jest stałą dobieraną eksperymentalnie, a nieskończona suma określa względną wagę przeszłych różnic między y(t mτ) i y(t). Wzór (2) można zapisać w równoważnej, wygodniejszej formie, w której sumę zastąpiono przez odpowiednie wyrażenie z opóźnieniem: (2) F (t) = K [(1 R)S(t τ) y(t)] S(t) = y(t) + R S(t τ) (3) Obie metody mogą być z powodzeniem zastosowane także dla układów dyskretnych: TDAS przyjmuje wtedy postać: a metoda ETDAS: gdzie p oznacza okres docelowej orbity periodycznej. 3. Badania symulacyjne i wyniki 2 x n+1 = P(x n ) + F n, F n = K [x n p x n ], (4) x n+1 = P(x n ) + F n F n = K [(1 R)S n p x n ], (5) S n = x n + R S n p Problem znalezienia odpowiednich paramentów stabilizacji potraktowano jako zadanie optymalizacyjne (minimalizacyjne), do rozwiązania którego zastosowano ewolucję różnicową [1, 2] (differential evolution, DE) prosty i skuteczny algorytm optymalizacji globalnej 3. W algorytmie zastosowano podstawowy schemat tworzenia nowych osobników DE/rand/1/bin oraz przyjęto następujące wartości parametrów: liczba pokoleń GEN = p 1000, liczba osobników NP = 30, a F i Cr parametry odpowiedzialne odpowiednio za mutację i krzyżowanie zmieniały się w trakcie ewolucji w sposób dynamiczny dzięki wykorzystaniu prostego mechanizmu samoadaptacji. Takie podejście pozwoliło 2 Motywacją do zainteresowania się problemem łączącym algorytmy ewolucyjne i zagadnienie sterowania chaosem był artykuł [5]. 3 Szczegółowy opis algorytmu, ze względu na ograniczoną ilość miejsca, zostanie pominięty; literatura dotycząca ewolucji różnicowej jest bardzo bogata i łatwo dostępna. 128

130 uniknąć potencjalnie czasochłonnego etapu dostrajania ich wartości dla poszczególnych przypadków testowych. Rozwiązania zakodowane były z pomocą wektorów rzeczywistoliczbowych. Optymalnych parametrów szukano w zakresach: 2 K 2; 0 F max 0,5 4 oraz 0 R 1. Celem optymalizacji było znalezienie takiego zestawu parametrów K, F max, R, by odpowiedź układu maksymalnie zbliżyła się do docelowej orbity okresowej w jak najmniejszej liczbie iteracji. Te dwa kryteria znalazły swoje odzwierciedlenie w formule oceniającej wygenerowane rozwiązania: min{t max,t 1 +t S } EVAL = penalty + i=t 1 Target i Actual i, (6) gdzie: Target i oznacza pożądaną wartość w iteracji i, Actual i jest rzeczywistą odpowiedzią systemu w i-tej iteracji przy danych parametrach penalty oznacza karę { za zbyt duże opóźnienie w stabilizacji, przy czym penalty = 0,1 ln(t 1 ), jeśli t 1 > 0,5 t max 0 w przeciwnym przypadku. Początkowo należy zaczekać do pierwszej iteracji (oznaczonej jako t 1 ), w której wartość na wyjściu układu zbliży się do wartości oczekiwanej, (np. Target i Actual i < 0,0005). Od tego momentu, przez t S iteracji sumuje się różnice między oczekiwaną a rzeczywistą odpowiedzią układu. Całkowity czas symulacji nie może być jednak większy niż t max iteracji. W badaniach przyjęto t S = 50 oraz t max = 200. Skuteczność podejścia ewolucyjnego w optymalizacji metody Pyragasa przetestowano na przykładzie odwzorowań: logistycznego (jednowymiarowego) oraz Duffinga (dwuwymiarowego). Orbity p1 stabilizowano metodą TDAS, w pozostałych przypadkach zastosowano ETDAS. Dla każdego przypadku symulacje przeprowadzono dziesięciokrotnie; zamieszczone wykresy prezentują zachowanie badanych dyskretnych układów dynamicznych dla najlepszych znalezionych zestawów parametrów. (a) Rys. 2. Odwzorowanie logistyczne: (a) diagram bifurkacji oraz (b) początkowe iteracje dla r = 3,8, x 0 = 0,6. Diagram bifurkacji przedstawia zmiany jakościowe w zachowaniu układu dynamicznego (określane jako droga do chaosu ) wynikające ze zmiany parametru układu. Dla r < 3 układ zachowuje się stabilnie, tzn. kolejne iteracje zbiegają się do pewnej wartości stałej. Przy 3 < r < 3,45 występują oscylacje między dwoma wartościami (cykl o okresie 2), później między czterema, ośmioma itd. Dla r > 3,569 pojawia się chaos (b) 4 Zaburzenie F n może przyjąć dowolnie dużą wartość i spowodować całkowitą destabilizację układu, w związku z tym oczekuje się, że algorytm znajdzie rozwiązanie, w którym F max F n F max. 129

131 Rys. 3. Odwzorowanie logistyczne: najlepsze znalezione rozwiązania dla p1 i p2 (kolumna lewa) oraz zachowanie układu przy różnych wartościach początkowych (kolumna prawa) Rys. 4. Odwzorowanie logistyczne: najlepsze znalezione rozwiązanie dla p4 oraz zachowanie układu przy różnych wartościach początkowych 3.1. Odwzorowanie logistyczne Odwzorowanie logistyczne to jedno z najbardziej znanych i zarazem najprostszych jednowymiarowych układów dyskretnych przejawiających zachowania chaotyczne. Opisane jest pojedynczym równaniem: x n+1 = rx n (1 x n ). (7) Przyjęte do badań parametry układu to r = 3,8 oraz x 0 = 0,6, a cykle okresowe ustalono jako: p1 (punkt stały): 0,73842, p2 (orbita o okresie 2): 0,3737 0,8894, p4 (orbita o okresie 4): 0, ,8037 0,5995 0,

132 Wyniki symulacji przedstawiono na Rysunkach Odwzorowanie Duffinga Odwzorowanie Duffinga to przykład dwuwymiarowego odwzorowania dyskretnego. Opisuje je zestaw równań: x n+1 = y n y n+1 = bx n + ay n y 3 n. (8) Przyjęte w trakcie badań parametry układu to a = 2,75, b = 0,2, x 0 = 1; y 0 = 1, przy czym stabilizowano wartości y n, a cykle okresowe ustalono jako: p1: 1,24499, p2: 1, , Wyniki symulacji przedstawiono na Rys Podsumowanie Zamieszczone wykresy wyraźnie potwierdzają skuteczność zaproponowanego podejścia. Dla każdego z pięciu analizowanych przypadków algorytm ewolucji różnicowej znalazł takie zestawy parametrów metody Pyragasa, które zapewniają dobrej jakości stabilizację zachowań chaotycznych. Dotyczy to zarówno krótkiego czasu, po którym następuje stabilizacja, jak i odporności na różne warunki początkowe. Odwzorowanie Duffinga jest znacznie trudniejsze w stabilizacji. W zależności od warunków początkowych układ może się bowiem ustabilizować do niewłaściwej orbity okresowej (przyczynę tego zjawiska widać na Rys. 5a; mówiąc w uproszczeniu przy niektórych wartościach y 0 kolejne iteracje są przyciągane przez obszar, kóremu odpowiada górna część diagramu bifurkacji). Tę orbitę w sposób nieformalny określono jako lustrzaną, gdyż jej wartości są zgodne co do modułu z oczekiwanym cyklem okresowym. Należy jednak dodać, że mimo tego niepożądanego efektu układ nadal zachowuje się stabilnie w tym sensie, że nie występują dodatkowe oscylacje między parami orbit. (a) Rys. 5. Odwzorowanie Duffinga: (a) diagram bifurkacji, (b) początkowe iteracje przy a = 2,75, b = 0,2, x 0 = 1, y 0 = 1 (b) 131

133 Rys. 6. Odwzorowanie Duffinga: najlepsze znalezione rozwiązania dla p1 i p2 (kolumna lewa) oraz zachowanie układu przy różnych wartościach początkowych (kolumna prawa) Literatura [1] K. V. Price, R. Storn (1997) Differential Evolution a simple evolution strategy for fast optimization. Dr. Dobb s Journal, vol. 22, ss [2] K. V. Price, R. Storn, J. A. Lampinen (2005) Differential Evolution. A Practical Approach to Global Optimization. Springer-Verlag Berlin Heidelberg [3] K. Pyragas (1992) Continuous control of chaos by self-controlling feedback. Physics Letters A 170, ss [4] J.E.S. Socolar, D.W. Sukow, D.J. Gauthier (1994) Stabilizing unstable periodic orbits in fast dynamical systems. Physical Review E 50, ss [5] I. Zelinka i in. (2010) Evolutionary Design of Chaos Control in 1D, [w:] I. Zelinka, S. Celikovsky, H. Richter, G. Chen (red.) Evolutionary Algorithms and Chaotic Systems. Springer-Verlag Berlin Heidelberg Chaos Stabilization Using Evolutionary Algorithms Chaotic behaviour is typical for many nonlinear dynamical system. In most engineering systems, however, such behaviour is unwanted and should be suppressed. The aim of deterministic chaos control considered in the paper is stabilizing chaotic behaviour by means of tiny perturbations applied to the chaotic system. The article presents evolutionary algorithms as a tool for optimizing a very simple and effective stabilization technique called Delayed Feedback Control (DFC), proposed by Kestutis Pyragas. The algorithm employed to find optimal parameters of the DFC method is Differential Evolution with its basic DE/rand/1 strategy and simple self-adaptation of core parameters (Cr responisble for crossover operation and F influencing mutation). The evolutionary approach is tested on two discrete chaotic systems, namely logistic map (1D) and Duffing map (2D), and proves to be quite effective in terms of number of iterations after which the stabilization occurs as well as robustness to initial conditions. 132

134 Poszukiwania czynników chłodniczych z grupy substancji palnych i wybuchowych dla obiegów strumienicowych Bartosz Gil 1 Streszczenie: Poniższy artykuł poświecono zagadnieniu doboru substancji roboczych do strumienicowego systemu chłodniczego. Przedstawiono zasadę działania wyżej wymienionego systemu oraz klasyfikację obecnie stosowanych czynników chłodniczych. Wykonano także analizę pracy urządzenia z zastosowaniem substancji palnych i wybuchowych. Słowa kluczowe: chłodnictwo, klimatyzacja, strumienice, czynniki chłodnicze. 1. Wprowadzenie Rokroczny wzrost zużycia energii elektrycznej do napędu systemów klimatyzacyjnych oraz wymagania stawiane Polsce przez Unię Europejską w zakresie pozyskiwania energii ze źródeł odnawialnych skłaniają do poszukiwań nowych rozwiązań technicznych w branży chłodniczej i klimatyzacyjnej. 2. Budowa i zasada działania strumienicowego systemu chłodniczego Urządzeniem zasilającym systemu strumienicowego jest wytwornica pary. Do jej napędu można wykorzystać energię elektryczną, paliwa kopalne lub energię odnawialną, np. energię promieniowania słonecznego. Wytwarzana w wytwornicy para o wysokich parametrach (T g, P g ) kierowana jest rurociągiem do dyszy napędowej strumienicy. W dyszy, na skutek przepływu pary przez kanał zbieżno-rozbieżny, następuje spadek ciśnienia płynu przy jednoczesnym wzroście prędkości ponad prędkość krytyczną (gdzie Ma=1). Powoduje to wytworzenie efektu ssania w komorze mieszania strumienicy i zasysanie pary czynnika z parowacza. Następnie oba strumienie pary (napędowy oraz zassany) mieszają się ze sobą w komorze mieszania strumienicy, dalej są sprężane w dyfuzorze do ciśnienia skraplania (P c ) oraz kierowane do skraplacza. Ciecz czynnika po skropleniu (o temperaturze T c ) rozdzielana jest na dwie części: pierwsza, podawana za pomocą pompy kondensatu, służy do zasilania wytwornicy pary, druga, poprzez element rozprężny (rurkę kapilarną lub zawór dławiący), zasila parowacz. Ciecz pod niskim ciśnieniem (P e ) i o niskiej temperaturze (T e ) odparowuje na skutek dopływów ciepła od otoczenia, dając tym samym pożądany efekt chłodniczy. Po odparowaniu para czynnika chłodniczego z parowacza zasysana jest przez strumienicę i obieg się powtarza. 1 Politechnika Wrocławska, Instytut Techniki Cieplnej i Mechaniki Płynów, Zakład Chłodnictwa i Pomp Ciepła, Wybrzeże Wyspiańskiego 27, Wrocław, bartosz.gil@pwr.wroc.pl 133

135 Rys. 1. Schemat ideowy pracy strumienicowego systemu chłodniczego. 3. Zastosowanie czynników chłodniczych w ERS Do realizacji obiegu chłodniczego w systemie strumienicowym można wykorzystać różnego rodzaju ciecze robocze. Ich dobór dotyczy kilku kwestii, głównie własności termodynamicznych i fizycznych. Najważniejszymi z nich są: - wysokie utajone ciepło parowania minimalizujące krotność krążenia czynnika na jednostkę wydajności chłodniczej, - stosunkowo niskie ciśnienie pary czynnika roboczego w temperaturze wytwornicy pary Tg pozwalające zmniejszyć masywność konstrukcji wymiennika ciepła oraz zminimalizować wymaganą moc napędową pompy kondensatu, - nietoksyczność i niewybuchowość oraz niekorozyjność i nieagresywność w stosunku do zastosowanych materiałów konstrukcyjnych, - dostępność, cena i bezpieczeństwo dla środowiska naturalnego. Nie bez znaczenia pozostają też masa molowa substancji, jej lepkość oraz objętość właściwa wpływające na gabaryty części składowych systemu oraz średnice rurociągów. Najczęściej stosowane czynniki chłodnicze prezentują poniższe wykresy. 134

136 Rys. 2. Czynniki chłodnicze najczęściej stosowane w strumienicowych systemach chłodniczych: a) podział według grup, b) poszczególne czynniki [1]. Ważnym kryterium doboru czynnika jest przebieg linii nasycenia pary na wykresie T-s. Pozwala ono sklasyfikować substancje w dwóch grupach: - o parze suchej (ujemne nachylenie krzywej) podczas ekspansji płynu w dyszy nie następuje zmiana fazy, - o parze mokrej (dodatnie nachylenie krzywej) podczas ekspansji w dyszy może następować zmiana fazy, powstające kropelki cieczy mogą blokować swobodny przepływ czynnika wewnątrz kanału oraz powodować erozję dyszy napędowej. W celu uniknięcia zjawiska formowania się kropelek cieczy stosuje się przegrzanie czynnika przed wlotem do dyszy strumienicy. Nie wszystkie czynniki dające zadowalające parametry pracy urządzenia są przyjazne dla środowiska. Wpływ czynników na środowisko określają parametry ODP i GWP. Pierwszy z nich mówi o potencjale niszczenia warstwy ozonowej (w odniesieniu do czynnika bazowego R11, dla którego ODP = 1), drugi natomiast o tworzeniu efektu cieplarnianego (punktem odniesienia czynnik R11, GWP = 1). Ciągłe obostrzenia dotyczące ochrony środowiska powodują, iż czynniki niegdyś używane w strumienicowych systemach chłodniczych są obecnie prawnie zakazane (R11, R12). Istnieje więc potrzeba poszukiwania nowych płynów roboczych spełniających powyższe kryteria. 135

137 Tab. 1. Właściwości wybranych czynników roboczych pracujących w obiegu strumienicowym. Czynnik roboczy Temperatura punktu wrzenia przy P =1 atm. ( C) Temperatura / ciśnienie punktu krytycznego ( C / MPa) Ciśnienie w temperaturze 100 C (MPa) Masa molowa substancji (kg/kmol) Utajone ciepło parowania przy T e = 10 C (kj/kg) ODP GWP R11 23,71 197,96 / 4,4076 0, ,37 186, R123 27,82 183,68 / 3,6618 0, ,93 177,49 0,016 0,019 R134a -26,07 101,06 / 4,0591 3, ,03 190,74 0 0,25 R718 99,97 373,94 / 22,062 0, , , Benzen 80,08 288,90 / 4,9012 0, ,11 443,46 bd bd Toluen 110,55 320,73 / 4,2199 0, ,14 422,15 bd bd Metanol 64,48 240,23 / 8,2159 0, , , Wstępne analizy wykazały, że czynniki z grupy substancji palnych i wybuchowych mogą dobrze współpracować z systemami strumienicowymi. Na poniższym wykresie przedstawiono wyniki analizy pracy nowych czynników pod kątem uzyskiwanego współczynnika efektywności chłodniczej COP. Rys. 3. Szacunkowa wartość współczynnika efektywności chłodniczej COP poszczególnych czynników roboczych, w zależności od temperatury pary napędowej T g (założenie: T e =10 C, T c =35 C, Q g =4kW). Można zauważyć, iż czynniki stosowane powszechnie sprężarkowych systemach chłodniczych nie nadają się do pracy w urządzeniach strumienicowych. Ich nisko położony punkt krytyczny uniemożliwia pracę przy temperaturach wytwornicy pary T g powyżej C, przez co 136

138 uzyskiwane COP jest niewielkie. Najwyższe wartości COP uzyskano dla czynników charakteryzujących się wysokim utajonym ciepłem parowania (R718, benzen, toluen) oraz wysoko położonym punktem krytycznym (por. tab. 1.). Zastosowanie tych czynników na jednak pewne wady. Benzen i toluen należą do grupy substancji palnych i wybuchowych, przez co koniecznym jest przestrzeganie obowiązujących norm bezpieczeństwa zgodnie z PN-EN 378-1: Woda z kolei wymaga dużych średnic rurociągów w celu zminimalizowania strat ciśnienia w przepływie na skutek wysokiej objętości właściwej pary wodnej. Ponadto wymusza ona pracę przy stosunkowo niskich wartościach ciśnienia skraplania, przez co koniecznym jest stosowanie skraplaczy chłodzonych cieczą [2]. Dodatkowo woda oraz benzen uniemożliwiają pracę systemu przy ujemnych temperaturach odparowania czynnika (woda zamarza poniżej 0 C, benzen natomiast zestala się w temperaturze 5,5 C). 4. Podsumowanie Wykonana i przedstawiona analiza pracy systemu z zastosowaniem nowych czynników z grupy substancji palnych i wybuchowych pozwala wstępnie stwierdzić, iż mogą one pełnić funkcję czynnika roboczego strumienicowych systemów chłodniczych. Koniecznym jest jednak wykonanie kolejnych analiz, w tym napełnienia układu czynnikiem, aby móc zoptymalizować geometrię wymienników ciepła w celu poprawy parametrów wymiany ciepła a tym samym poprawy ekonomiczności systemu. Literatura [1] B. Gil. Historia i trendy rozwojowe strumienicowych systemów chłodniczych. Chłodnictwo 1-2/2011. [2] S. Aphornratana. Theoretical and experimental investigation of a combine ejector-absorption refrigerator. PhD thesis, University of Sheffield, UK; RESEARCH FOR NEW REFRIGERANTS FROM A GROUP OF FLAMMABLE AND EXPLOSIVE SUBSTANCES FOR EJECTOR REFRIGERATION SYSTEMS The article describes a generalized structure and principle of operation ejector refrigeration systems. Although nowadays these systems are not widely used because of the requirements for Poland by the European Union in the field of energy generation from renewable sources can be a profitable alternative to traditional compressor systems. Moreover, the ejector devices not have moving parts and therefore are easy to use. One of the main issues to solve when designing ejector refrigeration system is the selection of the working fluid circulating in the system. This refrigerant should have a high latent heat of vaporization, low vapor pressure at the temperature of steam generator, and should be non-toxic and non-aggressive in relation to the construction materials used in. Currently, the most frequently used working fluid is water. Its main disadvantage is the lack of opportunities to work in temperatures below zero degrees Celsius. Other fluids used once are nowadays out of legally prohibited due to their ozone depletion potential and the formation of the greenhouse effect. Hence it is necessary to search for new substances that might work in ejector refrigeration system. Conducted preliminary research allowed to nominate more fluids from a group of flammable or explosive substances giving a good performance of the system. However, the use of liquids such as benzene or toluene has some drawbacks. Their flammability and explosiveness enforce compliance with applicable safety standards in accordance with PN-EN 378-1:

139 It is essential that the implementation of further analysis, including the filling fluid of the system in order to optimize the geometry of heat exchangers and to minimize the amount of refrigerant in the system, and thus improve the economic efficiency of the system. 138

140 Podwyższanie niezawodności sieci komputerowych z zastosowaniem przepływów anycast Jakub Gładysz 1 Streszczenie: W poniższej pracy przedstawiony zostanie model oraz wyniki badań dla problemu jednoczesnego wyznaczania przepustowości kanałów oraz przepływów w przeżywalnych sieciach komputerowych. Mianem sieci przeżywalnej będziemy nazywać sieć zdolną do utrzymania pracy po wykryciu uszkodzeń. Jako sytuację awaryjną rozważać będziemy awarie pojedynczego łącza. Jest to najczęściej spotykana fizyczna awaria we współczesnych sieciach komputerowych. Słowa kluczowe: sieci komputerowe, anycast, replikacja, niezawodność, przeżywalność 1. Wprowadzenie W ostatnim czasie możemy zaobserwować wzrost usług internetowych, dla których te same informacje przechowywane są w różnych lokalizacjach sieci komputerowych. Przykładem takich usług są sieci Peer-to-Peer, rozproszone systemy baz danych, sieci Grid, CDN (Content Delivery Network), DNS (Domain Name Serwis), buforowanie stron internetowych [2]. Poprzez replikacje zasobów w sieci zwiększa się jej przeżywalność, odporność na awarię, a dane zlokalizowane są bliżej użytkowników końcowych. Replikacja zasobów zmniejsza również czas transmisji danych, przepływ, a co za tym idzie również koszt działania sieci komputerowych. W poniższej pracy rozważamy minimalizacje kosztu działania sieci komputerowej dla jednoczesnego wyznaczania przepustowości kanałów oraz przepływów unicast oraz anycast. Celem pracy jest zaproponowanie modelu oraz zminimalizowanie kosztów dodatkowej przepustowości, którą musimy dołożyć aby ochronić wszystkie przepływy w 100%. Mianem sieci przeżywalnej będziemy określać sieć zdolną do wykorzystania swoich zasobów w taki sposób, aby ewentualna awaria w jak najmniejszym stopniu wpłynęła na jakość jej działania. W poniższej pracy, jako sytuację awaryjną, rozważać będziemy awarie pojedynczego łącza. Jest to najczęściej spotykana fizyczna awaria we współczesnych sieciach komputerowych. Jako metoda ochrony przed awarią zostaną zastosowane dwa podejścia. Metoda pojedynczej ścieżki zapasowej - każde połączenie składa się z pary rozłącznych tras. Jeżeli trasa podstawowa jest niedostępna w sytuacji awarii, wówczas używana zostaje trasa zapasowa. Drugim sposobem, związanym z przepływami anycast, jest replikacja zasobów w sieci. Te same dane przechowywane są w różnych lokalizacjach. Dzięki temu w sytuacji awarii, gdy trasa podstawowa do określonej repliki jest niedostępna, możemy skorzystać z trasy zapasowej lub zestawić połączenie z inna repliką w sieci. Przepływ unicast jest to rodzaj transmisji w którym istnieje jeden nadawca oraz jeden odbiorca. Jest to najczęściej spotykany rodzaj transmisji w sieciach komputerowych. Każde połączenie unicast składa się z węzła początkowego, węzła końcowego oraz wartości zapotrzebowanie na przesłanie danych. Anycast jest algorytmem adresowania i routingu, w którym dane przekazywane są do najlepszego lub najbliższego węzła w topologii. Zbiór połączeń anycast zdefiniowany jest poprzez węzeł początkowy, zbiór wyznaczonych węzłów w których znajduje się serwer (replika), wartość zapotrzebowania do serwera (repliki) oraz wartość zapotrzebowania od serwera (repliki). Wyznaczanie trasy dla danego użytkownika polega na wyznaczeniu serwera, a następnie połączenia 1 Politechnika Wrocławska, Katedra Systemów i Sieci Komputerowych, Wrocław ul. Janiszewskiego 11/17, Jakub.Gladysz@pwr.wroc.pl 139

141 od użytkownika do serwera oraz z serwera do użytkownika. Szczegółowo przepływy unicast oraz anycast zostały opisane w pracy [5]. Praca jest zorganizowana w następujący sposób: W Rozdziale 2 zostanie przedstawiony model optymalizacyjny badanego problemu. W Rozdziale 3 zostaną przedstawione wyniki badań obrazujące minimalizację funkcji kosztu w zależności od ilości propozycji tras, ilości replik oraz procentowego rozkładu ruchu unicast/anycast w sieci. Kolejny rozdział to podsumowanie pracy. 2. Model optymalizacyjny Sieć komputerowa zamodelowana jest jako graf składający się z węzłów oraz łuków. Węzły V reprezentują urządzenia sieciowe takie jak routery, przełączniki. Łuki e = 1,2,, E reprezentują łącza logiczne bądź fizyczne kable, światłowody, kierunkowe kanały bezprzewodowe. Zakładamy, iż mamy dane połączenia anycast a = 1,2,,A zawierające jednocześnie połączenia do i od serwera oraz połączenia unicast u = A+1,2,,D. Jak zostało zaproponowane w pracy [4] wprowadzimy pojęcie stanów dostępności łączy s = 0,1,,S. Stan s = 0 oznacza normalny stan funkcjonowania sieci, w którym wszystkie elementy są dostępne i działają prawidłowo. Każdy stan awarii opisany jest przez binarny wektor dostępności łącza α s = (α 1s, α 2s,,α Es ). W szczególności jeśli w sytuacji awarii łącze e jest dostępne w 100% wówczas α es = 1 lub jeżeli łącze to jest całkowicie niedostępne wówczas α es = 0. Używając powyższej notacji możemy zapisywać różne scenariusze awarii poszczególnych łączy. Jeżeli rozważamy awarię pojedynczego, musimy rozważyć wszystkie przypadki awarii kolejnych łączy, zatem sytuacji awaryjnych będzie tyle co łączy w sieci, S = E oraz dla każdego stanu awarii łącza e wektor α es = 0 dla s = e oraz α es = 1 dla s e. Jeżeli rozważalibyśmy przypadek awarii węzła można go zamodelować poprzez awarię łączy wychodzących oraz wchodzących do tego węzła. Do matematycznego zapisu modelu użyjemy notacji zaproponowanej w pracy [4]. Opiera się ona na modelowaniu statycznym, czyli zapisie badanych problemów z użyciem równań, zmiennych decyzyjnych oraz ograniczeń. Zakładamy iż struktura topologiczna sieci, zbiór propozycji tras podstawowych i zapasowych, wektor przepustowości łuków, zbiór replik są dane. indeksy d = 1,2,,D połączenia (skierowane żądania) a = 1,2,,A połączenia anycast u = A+1,,D połączenia unicast p = 1,2,,P d propozycja tras dla połączenia d e = 1,2,,E łącza siec (skierowane łuki) stałe δ edp = 1 jeżeli łącze e należy do trasy podstawowej d; 0 w przeciwnym razie α es binarny współczynnik dostępności łącza e w stanie s, α es = 1 oznacza, że łącze e jest dostępne dla awarii s; 0 w przeciwnym razie θ ds. binarny współczynnik dostępności trasy podstawowej d dla awarii s θ dps binarny współczynnik dostępności trasy podstawowej w dp dla awarii s, θ dps = Π {e : δedp = 1}α es. θ dps = 1 oznacza, że trasa podstawowa w dp jest dostępna w czasie awarii s, 0 w przeciwnym razie h d zapotrzebowanie połączenia d M przepustowość pojedynczego modułu k e koszt pojedynczego modułu przepustowości dla łącza górnej warstwy e τ(a) indeks połączenia anycast upstream (downstream) związanego z połączeniem skojarzonym downstream (upstream) dla połączenia a o(d,p) węzeł początkowy trasy d 140

142 t(d,p) o w (d,p) t w (d,p) o b (d,p) t b (d,p) zmienne x dp y e funkcja kryterialna ograniczenia węzeł końcowy trasy d węzeł początkowy dla trasy podstawowej w dp węzeł końcowy dla trasy podstawowej w dp węzeł początkowy dla trasy zapaswoej b dp węzeł końcowy dla trasy zapasowej b dp = 1 jeżeli trasa (para tras) p jest wybrana dla połączenia d; 0 w przeciwnym razie (zmienna binarna) liczba modułów przepustowości wybrana dla łącza e (zmienna całkowita dodatnia) min e k e y e (1) d p x dp h d β edp (1 θ ds ) M y e e = 1,2,,E s = 1,2,,S (2) p x ap o b (a,p) = p x τ(a)p t b (a,p) a = 1,2,,A (3) p x dp = 1 d = 1,2,,D (4) Celem (1) jest minimalizacja kosztu przepustowości potrzebnej do ochrony sieci przed wszystkimi scenariuszami awarii pojedynczego łącza s = 1,2,,S. Zakładamy, iż w sytuacji gdy ścieżka podstawowa w d jest niedostępna (tzn. co najmniej jedno łącze należące do ścieżki w d jest uszkodzone w sytuacji awarii s, θ ds = 0), wówczas ścieżka zapasowa musi być dostępna (tzn. żadne łącze zapasowe dla żądania d nie jest uszkodzone w sytuacji awarii s). Zauważmy że warunek (2) musi być spełniony dla każdego łącza e = 1,2,,E oraz każdej sytuacji awaryjnej s = 1,2,,S. Lewa strona nierówności (2) jest przepływem w łączu e obliczonym dla zapasowej ścieżki w sytuacji s, w przypadku kiedy odpowiadająca jej ścieżka podstawowa jest niedostępna. Ograniczenie (3) zapewnia iż dwie ścieżki zapasowe związane z tym samym żądaniem anycast łącza tą samą parę węzłów. Warunek (4) gwarantuje iż dla każdego połączenia d wybrano dokładnie jedną spośród propozycji tras. 3. Badanie eksperymentalne Badania przeprowadzone zostały dla konkretnej sieci komputerowej składającej się z 26 węzłów oraz 82 kanałów kierunkowych. Na potrzeby badań zostały wygenerowane 234 żądania unicast oraz 22 żądania anycast. Wszystkie badania dla poniższej sieci przeprowadzone zostały przy użyciu pakietu optymalizacyjnego CPLEX 11.0 [3]. Część wyników badań o podobnym charakterze, dla mniejszej sieci składającej się z 12 węzłów oraz 18 kanałów, znajduje się w pracy [1]. Liczba replik Tab. 1. Przykładowe wyniki badań Liczba tras Wynik Liczba tras 85% unicast/15% anycast Wynik % unicast/30% anycast

143 Badania były przeprowadzone dla różnej ilości replik, różnego procentowego rozkładu ruchu unicast oraz anycast, a także dla różnej ilości propozycji tras. Przykładowe wyniki zostały zamieszczone w Tab. 1. Warto również podkreślić, iż wraz ze wzrostem ilości replik oraz ilości propozycji tras ponad wartości znajdujące się w Tabeli, spadek kosztu działania sieci jest znikomy. 4. Podsumowanie W pracy poruszono ważny temat jakim jest zwiększanie niezawodności sieci komputerowej poprzez replikację zasobów w sieci. Jako sytuację awaryjną rozważono awarię pojedynczego łącza jako najczęstszą awarię występującą w sieciach komputerowych. Zaproponowano model problemu oraz przedstawiono wyniki z pakietu optymalizacyjnego CPLEX. Uwzględniając realne koszty dołączenia kolejnych replik oraz zapotrzebowanie użytkowników można oszacować czy przeżywalność sieci zwiększać poprzez metodę dodatkowej ścieżki zapasowej, replikację zasobów czy też warto dokładać dodatkowe moduły przepustowości w kanałach. Podziękowanie. Poniższa praca jest finansowana ze środków Unii Europejskiej w ramach programu Program Operacyjny Kapitał Ludzki Regionalne Kadry Gospodarki Literatura [1] J. Gladysz, K. Walkowiak, Modeling of Survivable Network Design Problems with Simultaneous Unicast and Anycast Flows, 2nd International Symposium on LINDI, Linz 2009 [2] M. Hofmann, L. Beaumont, Content networking: architecture, protocols, and practice, Morgan Kaufmann, San Francisco, 2005 [3] ILOG CPLEX 11.0 User s Manual, France, 2007 [4] M. Pioro, D. Medhi, Routing, Flow, and Capacity Design in Communication and Computer Networks, Morgan Kaufmann Publishers, 2004 [5] K. Walkowiak, Algorytmy wyznaczania przepływów typu unicast and anycast w przeżywalnych sieciach zorientowanych połączeniowo, Monography, Oficyna Wydawnicza Politechniki Wrocławskiej, Wrocław 2007 IMPROVING THE SURVIVABILITY OF COMPUTER NETWORKS USING ANYCAST FLOW This work concentrates on survivable computer networks using simultaneously unicast and anycast flows. Unicast defined as a one-to-one transmission is the most popular transmission approach in the Internet. Anycast one-to-one-of-many transmission technique has the objective to send a packet to one of many hosts. This problem arises from the growing popularity of network services using anycast flows (e.g. Domain Name Service (DNS), peer-to-peer (P2P) systems, Content Delivery Networks (CDN)) and the increasing need to provide reliable network services. We formulate optimization model of joint optimization of network capacity, working and backup connections for both unicast and anycast flows. The goal is to minimize the network cost required to protect the network against failures using the single backup path approach. We consider optimization of only spare capacity. To find solution of this problem we use CPLEX linear programming package. At the end we present results of computational tests.. 142

144 Porównanie jednofazowego silnika synchronicznego z magnesami trwałymi i jednofazowego silnika indukcyjnego badania symulacyjne Maciej Gwoździewicz 1 Streszczenie: W artykule przedstawiono konstrukcję jednofazowego silnika synchronicznego z magnesami trwałymi. W programie Maxwell wersja 14 został zbudowany model polowo-obwodowy jednofazowego silnika synchronicznego z magnesami trwałymi bazującego na konstrukcji jednofazowego silnika indukcyjnego masowej produkcji. Na podstawie otrzymanych wyników symulacyjnych wyznaczono charakterystyki obciążenia. Zbadano właściwości rozruchowe silnika dla napędu o charakterystyce wentylatorowej. Właściwości jednofazowego silnika synchronicznego z magnesami trwałymi porównano z właściwościami odpowiadającemu mu jednofazowego silnika indukcyjnego. Słowa kluczowe: jednofazowy silnik indukcyjny, jednofazowy silnik synchroniczny, magnesy trwałe, metoda elementów skończonych 1. Wprowadzenie Jednofazowe silniki indukcyjne są powszechnie używane w sprzętach gospodarstwa domowego oraz w przemysłowych urządzeniach małej mocy, gdzie dostęp do zasilania trójfazowego jest ograniczony. Moc znamionowa tego typu silników jest ograniczona przez prąd znamionowy gniazda jednofazowego. Wynika stąd, że moc znamionowa silników jednofazowych nie przekracza 3 kw. W silnikach indukcyjnych moment elektromagnetyczny powstaje dzięki poślizgowi pomiędzy wirującym polem magnetycznym a prętami wirnika. Ponadto, do powstania pola magnetycznego jest potrzebny prąd magnesujący, który powoduje dodatkowe straty w miedzi spowodowane przez przepływ prądu o zwiększonej wartości przez uzwojenie stojana silnika. W silnikach synchronicznych pole magnetyczne jest wytworzone przez wzbudzenie elekromagnetyczne lub od magnesów trwałych. Wynika stąd, że cały strumień lub jego większość może być wytworzone wewnątrz maszyny, co znacząco ogranicza wartość prądu pobieranego przez pracującą maszynę. W przypadku wzbudzenia od magnesów trwałych w silniku synchronicznym nie występują straty w miedzi wirnika w wyniku poślizgu pomiędzy wirującym polem magnetycznym a prętami wirnika lub w wyniku przepływu prądu stałego przez wzbudzenie elektromagnetyczne. Jednakże silnik synchronicznym ma kiepskie właściwości rozruchowe. Stojany silnika synchronicznego i indukcyjnego są praktycznie identyczne, więc najprostszym rozwiązaniem do uzyskania zarówno wysokiej sprawności i współczynnika mocy (zalety silników synchronicznych) oraz naturalnej zdolności rozruchowej, prostej budowy i pewności ruchu maszyny (zalety silnika indukcyjnego) w silniku prądu przemiennego jest umieszczenie magnesów trwałych wewnątrz wirnika silnika indukcyjnego zachowując jego klatkę [1, 2, 5]. Taki typ silnika nazywa się silnikiem synchronicznym z magnesami trwałymi o rozruchu bezpośrednim (Line Start Permanent Magnet Synchronous Motor). W przypadku silników trójfazowych ta operacja jest relatywnie prosta z powodu wirującego pola magnetycznego kołowego. W przypadku silników jednofazowych wirujące pole magnetyczne 1 Instytut Maszyn, Napędów i Pomiarów Elektrycznych, Politechnika Wrocławska, maciej.gwozdziewicz@pwr.wroc.pl 143

145 w szczelinie powietrznej jest polem eliptycznym, które można rozłożyć na dwie składowe wirującego pola magnetycznego: zgodną (wirującą zgodnie z kierunkiem wirowania wirnika) i przeciwną (wirująca przeciwnie do kierunku wirowania wirnika) [7]. Składowa przeciwna wirującego pola magnetycznego powoduje powstanie hamującego momentu elektromagnetycznego, co powoduje zmniejszenie sprawności i wytworzonego momentu na wale oraz zmiękczenie charakterystyki mechanicznej silnika [6]. To zjawisko powoduje duże problemy w trakcie rozruchu silnika i synchronizacji. Rozwiązaniem tego problemu jest dodatkowy kondensator rozruchowym w uzwojeniu pomocniczym silnika jednofazowego. Kondensator rozruchowy podłączony równolegle z kondensatorem pracy polepsza właściwości rozruchowe silnika, ale równocześnie powoduje pogorszenie właściwości eksploatacyjnych silnika, dlatego musi być wyłączony po rozruchu wyłącznikiem odśrodkowym lub czasowym [6, 7]. 2. Model polowo-obwodowy silnika Dwuwymiarowy model polowo-obwodowy jednofazowego silnika synchronicznego z magnesami trwałymi został zbudowany w programie Maxwell wersja 14. Model bazuje na jednofazowym silniku indukcyjnym masowej produkcji typu Seh 80-4B o następujących danych znamionowych: P n =750 W, U n =230 V, f n =50 Hz, n n =1370 rpm. Magnesy neodymowe typu N45H o parametrach B r =1,34 T i H cb =995 ka/m zostały wybrane do wzbudzenia silnika. Jednofazowy silnik indukcyjny został zamieniony na jednofazowy silnik synchroniczny z magnesami trwałymi o rozruchu bezpośrednim przez zamianę standardowego wirnika klatkowego na wirnik klatkowy z magnesami trwałymi. Żłobki wirnika zostały zachowane bez zmian. Część polowa modelu silnika jest pokazana na rys. 1, natomiast część obwodowa jest pokazana na rys. 2. Rys. 1. Część polowa modelu silnika Rys. 2. Część obwodowa modelu silnika 144

146 Liczba zwojów uzwojenia pomocniczego oraz pojemność kondensatora pracy zostały zmienione w jednofazowym silniku synchronicznym w celu otrzymania maksymalnej sprawności dla obciążenia znamionowego silnika. Maksymalna sprawność jednofazowego silnika synchronicznego została otrzymana dla liczby zwojów uzwojenia pomocniczego N POMOCzwoje =50 zwojów i pojemności kondensatora pracy C pracy =40 μf. To rozwiązanie będzie porównywane z bazowym jednofazowym silnikiem indukcyjnym, dla którego N POMOCzwoje =94 zwojów i C pracy =20 μf. 3. Właściwości eksploatacyjne Porównanie charakterystyk obciążenia jednofazowego silnika indukcyjnego i jednofazowego silnika synchronicznym z magnesami trwałymi jest pokazane na rys. 3. Otrzymane wyniki właściwości eksploatacyjnych dla obciążenia znamionowego jednofazowego silnika indukcyjnego i jednofazowego silnika synchronicznego z magnesami trwałymi są przedstawione w tab. 1. Rys. 3. Charakterystyki obciążenia jednofazowego silnika indukcyjnego (IM) i jednofazowego silnika synchronicznego (PMSM) Tab. 1. Właściwości eksploatacyjne jednofazowego silnika indukcyjnego (IM) i jednofazowego silnika synchronicznego (PMSM) wielkość jednostka IM PMSM P n W U n V I n A 5,02 5,73 η n % 71,6 82,5 cosφ n - 0,91 0,99 n n rpm M n Nm 5,3 7,0 Sprawność jednofazowego silnika synchronicznego z magnesami trwałymi jest znacząco większa niż sprawność jednofazowego silnika indukcyjnego, ponieważ straty mocy w klatce wirnika silnika synchronicznego są mniejsze od strat mocy w klatka wirnika silnika indukcyjnego, 145

147 co jest przedstawione na rys. 4. Rys. 4. Straty mocy w klatce wirnika jednofazowego silnika indukcyjnego (IM) i jednofazowego silnika synchronicznego (PMSM) Współczynnik mocy jednofazowego silnika synchronicznego z magnesami trwałymi jest większy niż współczynnik mocy jednofazowego silnika indukcyjnego. Ponadto, jest on pojemnościowy, więc jednofazowy silnik synchroniczny z magnesami trwałymi produkuje moc bierną Q w trakcie pracy. Oprócz kiepskich właściwości rozruchowych trójfazowych silników synchronicznych z magnesami trwałymi posiadają one jeszcze jedną istotną wadę w porównaniu z trójfazowymi silnikami indukcyjnymi pobierają silnie odkształcony prąd [4, 5]. W przypadku jednofazowych silników synchronicznych i indukcyjnych to zjawisko jest inne, ponieważ dla obciążenia znamionowego zarówno jednofazowy silnik synchroniczny z magnesami trwałymi jak i jednofazowy silnik indukcyjny pobierają w trakcie obciążenia znamionowego odkształcony prąd. Ponadto, trzecia harmoniczna prądu w jednofazowym silniku synchronicznym jest dwukrotnie mniejsza niż w przypadku jednofazowego silnika indukcyjnego. Wynika stąd, że umieszczenie magnesów trwałych w wirniku jednofazowego silnika indukcyjnego nie wpływa szkodliwie na kształt pobieranego prądu. Kształty pobieranych prądów są ukazane na rys. 5, a ich analiza harmonicznych są przedstawione na rys. 6. Rys. 5. Przebieg prądów dla obciążenia znamionowego jednofazowego silnika indukcyjnego (IM) i jednofazowego silnika synchronicznego (PMSM) 146

148 Rys. 6. Analiza harmoniczna prądów dla obciążenia znamionowego jednofazowego silnika indukcyjnego (IM) i jednofazowego silnika synchronicznego (PMSM) 4. Właściwości rozruchowe Silniki synchroniczne z magnesami trwałymi są rekomendowane do napędu pomp I wentylatorów z powodu ich bardzo dobrych właściwości eksploatacyjnych I kiepskich właściwości rozruchowych [4, 5]. Typowa charakterystyka napędowa dla wentylatora lub pompy jest pokazana na rys. 5. W celu zbadania właściwości rozruchowych jednofazowego silnika synchronicznego z magnesami trwałymi założono typową charakterystykę napędową wentylatora lub pompy zgodną z rys. 5. Moment znamionowy był równy momentowi znamionowemu silnika. Moment bezwładności całego układu był założony jako pięć razy większy niż moment bezwładności wirnika silnika (J wirnik =0,01kgm 2 ). Do badań właściwości rozruchowych jednofazowego silnika synchronicznego z magnesami trwałymi zostały zastosowane dwa kondensatory rozruchowe: 100 μf and 150 μf. Wyniki badań właściwości rozruchowych są przedstawione na rys. 7. Rys. 7. Przebieg prędkości w trakcie rozruchu dla jednofazowego silnika indukcyjnego (IM) i jednofazowego silnika synchronicznego (PMSM) Zgodnie z otrzymanymi wynikami badań właściwości rozruchowych wynika, że wzrost pojemności kondensatora rozruchowego jednofazowego silnika synchronicznego z magnesami trwałymi polepsza właściwości rozruchowe i synchronizacyjne silnika. 5. Podsumowanie Głównymi zaletami jednofazowego silnika synchronicznego z magnesami trwałymi w porównaniu do jednofazowego silnika indukcyjnego są: 147

149 - większa moc z tej samej objętości maszyny, - większa sprawność, - większy współczynnik mocy, - stała prędkość obrotowa. Głównymi wadami jednofazowego silnika synchronicznego z magnesami trwałymi w porównaniu do jednofazowego silnika indukcyjnego są: - dodatkowy kondensator rozruchowy oraz wyłącznik kondensatora rozruchowego, - bardziej skomplikowana konstrukcja. Biorąc pod uwagę bardzo dobre właściwości eksploatacyjne jednofazowego silnika synchronicznego z magnesami trwałymi i przeciętne właściwości rozruchowe, jednofazowe silniki synchroniczne z magnesami trwałymi mogą być zalecane do napędów o stałym obciążeniu i niskim momencie rozruchowym takich jak pompy, wentylatory. Literatura [1] W. Fei, P. Luk, J. Ma, J.X. Shen, G. Yang. A High-Performance Line-Start Permanent Magnet Synchronous Motor Amended From a Small Industrial Three-Phase Induction Motor. IEEE Transaction on Magnetics, Volume 45, Issue 10, [2] X. Feng, L. Liu, J. Kang, Y. Zhang. Super premium efficient line start-up permanent magnet synchronous motor. XIX International Conference on Electrical Machines (ICEM), Rome, Italy, 6-8 September [3] G. Yang, J. Ma, J.X. Shen, Y. Wang. Optimal design and experimental verification of a line-start permanent magnet synchronous motor. International Conference on Electrical Machines and Systems, [4] M. Gwoździewicz, L. Antal. Investigation of line start permanent magnet synchronous motor and induction motor properties. Prace Naukowe Instytutu Maszyn, Napędów i Pomiarów Elektrycznych Politechniki Wrocławskiej nr 64, Studia i Materiały, [5] M. Gwoździewicz. Investigation of properties and comparison of Permanent Magnet Synchronous Motor and Induction Motor. Master s Thesis, Wroclaw University of Technology, Faculty of Electrical Engineering, Wrocław [6] D. Lin, P. Zhou, N. Lambert. Starting Winding Optimization in Single-Phase. Electrical Machines (ICEM), [7] H. Zhong, X. Wang, D. Wang. Analysis and Design of a New Type High-efficiency Singlephase Induction Motor Based on Negative Sequence Magnetic Field Compensation. Maszyny Elektryczne. Electrical Machines and Systems, COMPARISON OF SINGLE-PHASE PERMANENT MAGNET SYNCHRONOUS MOTOR AND SINGLE-PHASE INDUCTION MOTOR - SIMULATION RESULTS Single-Phase Permanent Magnet Synchronous Motor based on the mass production Single- Phase Induction Motor is presented. Two dimensional field-circuit model of the motor was built in Maxwell ver. 14. Load characteristics were determined. Running properties of the motor were also investigated. Obtained results of the Single-Phase Permanent Magnet Synchronous Motor properties were compared with the Single-Phase Induction Motor properties. 148

150 Wpływ sztywności kontaktowej kół jezdnych na kształt wymuszenia kinematycznego Marcin Jasiński 1 Streszczenie: W artykule omówiono sposób analitycznego wyznaczania sztywności kontaktowej kół jezdnych dźwignic wykonanych z materiałów o różnych parametrach wytrzymałościowych i kształtach bieżni. Wyznaczone analitycznie wartości porównano z wynikami badań eksperymentalnych przeprowadzonych na maszynie wytrzymałościowej. Omówiono wpływ sztywności kontaktowej kół na kształt wymuszenia kinematycznego oraz na obciążenia dynamiczne ustroju nośnego dźwignicy. Słowa kluczowe: dźwignice, sztywność kontaktowa, wymuszenie kinematyczne 1. Wprowadzenie Koła jezdne montowane w dźwignicach wykonywane są najczęściej ze stali, staliwa lub żeliwa z bieżniami w kształcie walca lub beczki. W ostatnich latach w lekkich dźwignicach coraz częściej stosowane są koła wykonane z tworzyw sztucznych m.in. poliuretanu, poliamidu wysokociśnieniowego czy litej gumy (rys. 1.). Koła te są bardzo ciche, odporne na ścieranie, dobrze znoszą obciążenia dynamiczne wywołane jazdą po nierównościach oraz nie pozostawiają śladów w postaci pasów na nawierzchni [3]. Ze względu na wysoki współczynnik tarcia (0,3 0,5) są one coraz częściej używane jako koła napędowe. a) b) c) d) Rys. 1. Przykładowe materiały stosowane na koła dźwignicowe [10]: a) stal, b) poliamid, c) poliuretan, d) guma Koła wykonane z tworzyw sztucznych w porównaniu z kołami ze stali mają znacznie mniejszą nośność i odmienne cechy reologiczne, a także histerezę [6]. Różnica we własnościach mechanicznych ma bezpośrednie przełożenie na różne wartości tzw. sztywności kontaktowej. Sztywność kontaktowa kół jezdnych dźwignic jest czynnikiem determinującym sztywność pionową całego ustroju nośnego, co może być istotne podczas szacowania obciążeń dynamicznych wywołanych jazdą po nierównościach oraz częstotliwości drgań własnych [4]. Wspomniane obciążenia dynamiczne są efektem wymuszeń kinematycznych. Kształt wymuszenia kinematycznego może być mniej lub bardziej dokładnym odwzorowaniem nierówności, przez którą przejeżdża koło jezdne. Kształt jest zależny od sztywności koła, jego średnicy i ukształtowania nawierzchni (nierówności). 1 Politechnika Wrocławska, Instytut Konstrukcji i Eksploatacji Maszyn, Wrocław, ul. Łukasiewicza 7/9, marcin.jasinski@pwr.wroc.pl 149

151 2. Wyznaczenie sztywności kontaktu kół szyna 2.1. Analityczne wyznaczenie odkształceń Do analitycznego wyznaczenia naprężeń i odkształceń kół dźwignicowych można posłużyć się równaniami Hertza [2]. Jeżeli obliczenia kół stalowych (staliwnych i żeliwnych) nie przysparzają problemów i wątpliwości to w przypadku kół wykonanych z tworzyw sztucznych obliczenia w strefie kontaktu przeprowadza się przy określonych założeniach. Ze względu na duże odkształcenia kół z tworzyw sztucznych w strefie kontaktu, równania Hertza można wykorzystać dla kół o stosunkowo grubym opasaniu piasty tworzywem sztucznym. Poniżej pewnej grubości tego opasania, naprężenia ściskające w strefie kontaktu mogą przekroczyć wartości maksymalne. Wówczas metoda obliczeń wg Hertza nie ma zastosowania. Minimalna grubość wspomnianego opasania powinna wynosić 25mm [3]. W celu wyznaczenia sztywności kontaktowej można posłużyć się modelem pokazanym na rysunku 2. E 1,υ 1 R 12 R 11 E 2,υ 2 R 22 R 21 Rys. 2. Model kontaktu dwóch ciał z oznaczonymi krzywiznami w dwóch płaszczyznach głównych [2] Odkształcenie sprężyste δ (ugięcie promieniowe koła), traktowane, jako zbliżenie dwóch elementów pozostających w kontakcie i będących pod obciążeniem siły ściskającej P (rys. 3.), oblicza się wg wzoru (1). δ = δ ρ 2 E Σ 3 * * gdzie: δ * bezwymiarowy współczynnik, ρ jest funkcją wielkości krzywizn dwóch ciał, E * zastępczy moduł Younga ciał będących w kontakcie, P siła ściskająca. 2 3 P (1) Σρ Rys. 3. Deformacja stykających się ciał Zależność (1) stosuje się do wyznaczenia odkształceń sprężystych ciał będących w kontakcie punktowym, natomiast dla ciał będących w kontakcie liniowym odkształcenie oblicza się ze wzoru empirycznego Palmgrena [1]. Przeprowadzając obliczenia sztywności kontaktu kół z szyną stalową, analizowano koła wykonane z różnych materiałów tj. ze stali, z poliamidu wysokociśnieniowego i poliuretanu oraz pełnej gumy o podobnych wymiarach geometrycznych (średnica wszystkich kół wynosiła Ø150). 150

152 W płaszczyźnie tego kontaktu koła z tworzyw sztucznych miały styk punktowy, natomiast koła stalowe miały punktowy i liniowy (rys. 4.) Obciążenie promieniowe [N] Sztywność kontaktu koło stalowe szyna (styk liniowy) Sztywność kontaktu koło stalowe szyna (styk punktowy) Obciążenie promieniowe [N] Sztywność kontaktu koło poliuretanowe szyna (styk punktowy) 5000 Sztywność kontaktu koło poliamidowe szyna (styk punktowy) 0 0 0,1 0,2 0,3 0,4 0,5 0,6 Odkształcenie promieniowe [mm ] Sztywność kontaktu koło gumowe szyna (styk punktowy) Odkształcenie promieniowe [mm] Rys. 4. Wykresy sztywności kontaktowej kół z szyną wyznaczone analitycznie Czynnikiem decydującym o prawidłowym oszacowaniu omawianej sztywności kontaktowej jest moduł Younga koła (moduł Younga dla szyny przyjęto, jako wartość stałą). Dla stali parametr ten posiada wartość stałą natomiast dla tworzyw sztucznych przyjmuje on wartości zmieniające się w bardzo szerokim zakresie zależnie od temperatury, wilgotności oraz technologii wykonania Badania eksperymentalne odkształceń Badania sztywności kontaktowej kół przeprowadzono na maszynie wytrzymałościowej. Koła były zamocowane w sworzniach (rys. 5.), które spoczywały na podporach. Maksymalna siła, z jaką obciążano koła była równa wartości podawanej przez producenta [10]. a) b) Rys. 5. Sposób mocowania kół w podporach i obciążenia: a) koło stalowe o bieżni beczkowej (kontakt punktowy), b) odkształcenie koła gumowego przy maksymalnym nacisku Obciążenie promieniowe [N] Sztywność kontaktu koło stalowe szyna (styk liniowy) Sztywność kontaktu koło stalowe szyna (styk punktowy) Sztywność kontaktu koło poliamidowe szyna (styk punktowy) 0 0,1 0,2 0,3 0,4 0,5 0,6 Odkształcenie promieniowe [mm] Rys. 6. Wykresy sztywności kontaktowej kół z szyną uzyskane w wyniku badań Obciążenie promieniowe [N] Sztywność kontaktu koło poliuretanowe szyna (styk punktowy) Sztywność kontaktu koło gumowe szyna (styk punktowy) Odkształcenie promieniowe [mm] 151

153 Z przeprowadzonych badań na maszynie wytrzymałościowej (rys. 6.) wynika, że koła wykonane z tworzyw sztucznych posiadają widoczną histerezę, której nie można określić korzystając z równań Hertza. Uzyskane na podstawie badań wartości odkształceń odbiegają od wartości wyznaczonych analitycznie (tab. 1.). Dla kół stalowych o styku liniowym i punktowym błąd wynosi odpowiednio 77% i 54%. Materiał koła Stal Stal Poliamid Poliuretan Guma Tab. 1. Zestawienie wyników badanych sztywności kontaktu kół Kontakt w strefie zetknięcia Styk liniowy Styk punktowy Styk punktowy Styk punktowy Styk punktowy Siła nacisku Odkształcenie koła - badanie Odkształcenie koła wg teorii Hertza Błąd [kn] [mm] [mm] [%] 25 0,09 0,02 77% 25 0,11 0,05 54% 25 0,48 0,52 8% 0,7 1,36 2,63 93% 0,5 6,55 7,92 21% Wyniki wyznaczonych odkształceń dla kół z tworzyw sztucznych są bardzo zróżnicowane: od błędu wynoszącego 8% (duża zgodność) dla kół wykonanych z poliamidu wysokociśnieniowego do 93 % dla kół z poliuretanu. Powstała różnica może wynikać przede wszystkim z błędnego wstępnego oszacowania wartości modułu Younga. Przy wartości modułu Younga dla koła z poliuretanu zwiększonej o 150 % błąd ten wynosi tylko 8%. 3. Kształt wymuszenia kinematycznego a sztywność kontaktowa koła Dźwignice podczas jazdy narażone są na działanie zmiennych sił i momentów. Wartość tych obciążeń zależy m.in. od: prędkości jazdy, sił bezwładności, średnicy kół, wielkości i kształtu nierówności, sztywności podłoża i sztywności kontaktowej, sprężystości i tłumienia poszczególnych podzespołów i elementów. Powstałe zmienne w czasie wymuszenia w układzie jezdnym spowodowane są przemieszczeniami kół po określonych trajektoriach. a) b) c) Rys. 6. Wpływ sztywności kontaktowej na trajektorię środka koła podczas przejazdu przez nierówność typu ostry próg : a) koło sztywne, b) koło o sztywności pośredniej, c) koło podatne 152

154 Generowane stany obciążeń mogą powodować dwojakiego rodzaju uszkodzenia: doraźne uszkodzenia spowodowane ekstremalnymi wymuszeniami dynamicznymi, uszkodzenia typu zmęczeniowego wywołane długotrwałymi zmiennymi obciążeniami. Kształt wymuszenia kinematycznego jest determinowany sztywnością kontaktową kół jezdnych. Na rysunku 6 przedstawiono przykładowe przebiegi wymuszeń generowane w środku koła podczas przejazdu koła przez nierówność typu ostry próg. Środek sztywnego koła (rys. 6a) odwzorowuje kształt nierówności podczas przejazdu. Trajektoria środka koła podatnego nie odzwierciedla postaci nierówności, krzywa przejazdu ma łagodniejszy przebieg w stosunku do kół sztywnych (rys. 6b, 6c). Skutkuje to zmniejszeniem wartości przyspieszeń pionowych, a także wydłużeniem czasu trwania impulsu, co prowadzi do obniżenia obciążeń dynamicznych [5] (mniejsze amplitudy). 3. Podsumowanie Zaprezentowane powyżej wyniki badań eksperymentalnych pokazują, że sztywność kontaktową kół można wyznaczyć stosując równania Hertza (z odpowiednimi założeniami dla kół z tworzyw sztucznych). Poprawne przyjęcie wartości charakteryzujących własności mechaniczne materiałów kół jezdnych wykonanych z tworzyw sztucznych jest niezbędne do prawidłowego analitycznego wyznaczenia ich nośności. Błędne przyjęcie tych wartości spowoduje uzyskanie niewiarygodnych wyników (przeszacowanie lub niedoszacowanie dopuszczalnych obciążeń). Nazwa polimeru jest niewystarczająca do identyfikacji jego własności, a ustalenie ich jest dość trudne. Celowym działaniem do określenia parametrów danego polimeru może być pozyskiwanie wiarygodnych informacji od jego producenta. Właściwy dobór materiałów z tworzyw sztucznych na koła jezdne dźwignic może przyczynić się do zmniejszenia obciążeń dynamicznych wywołanych jazdą po nierównościach oraz wydłużenia trwałości nawierzchni. Literatura [1] Lunberg G., Palmgren A.: Dynamic Capacity of Roller Bearing. Acta Politechnika 1952 Nr 92. Mechanical Engineering Series Bd. 2, Nr 4. Stockholm [2] Piątkiewicz A., Sobolski R.: Dźwignice. WNT, Warszawa 1978 [3] Severin D., Liu X.: Zum Rad-Schiene-System In der Fordertechnik. dhf 5/1999, str [4] Grabowski E., Kosiara A.: Wpływ sztywności kontaktowej kół na drgania ustroju nośnego suwnicy pomostowej. Transport Przemysłowy Nr 4/2006 [5] Grabowski E., Kulig J.: Metoda obliczania obciążeń dźwignic wywołanych jazdą po nierównościach. Transport Przemysłowy Nr 1/2008 [6] Jasiński M.: Zagadnienia obliczeniowego wyznaczania obciążeń dźwignic wywołanych jazdą po nierównościach. Transport Przemysłowy i Maszyny Robocze. Nr 2(8)/2010, str [7] Jasiński M.: Modele do obliczeń obciążeń dynamicznych mobilnych maszyn roboczych i dźwignic wywołanych jazdą po nierównościach; Interdyscyplinarność badań naukowych 2010, str praca zbiorowa pod redakcją Jarosława Szreka, Oficyna Wydawnicza Politechniki Wrocławskiej, Wrocław 2010 [8] Norma PN-EN :2004. Bezpieczeństwo dźwignic. Ogólne zasady projektowania. Część 2: Obciążenia [9] Norma PN-ISO :1999. Dźwignice. Zasady obliczania i kojarzenia obciążeń. Postanowienia ogólne [10] 153

155 Abstract: The article discusses the analytical methods of determining the contact stiffness of the crane wheels. Crane wheels are made of materials with different strength parameters and shapes raceways. The designated analytical values were compared with the experimental research carried out in a testing machine. Cranes while driving are exposed to variable loads. The value of these loads depends, among others on: velocity, inertia, wheel diameter, the size and shape of the inequality, the stiffness of the substrate and the contact stiffness, elasticity and damping of the various assemblies and components. The resulting varying driving forces in the system are caused by the kinematic movements of the wheels. Generated load can cause two types of damage: immediate damage and fatigue damage. Presented experimental results show that the contact stiffness of the wheels can be determined using the Hertz equation (with appropriate assumptions for the wheels made of plastic). Respective adoption the mechanical properties of the materials of which the crane wheels are made is needed to determine the correct calculation of the deadweight tonnage. Incorrect adoption would yield unreliable results (overestimation or underestimation of allowable loads). The name of the polymer is not sufficient to determine its mechanical properties. Deliberate action to determine the parameters of the polymer may be conducting interviews with its producer. Proper selection of plastic wheels on the lifting can help to reduce the dynamic loads caused by driving over uneven pavement and improve durability. 154

156 Możliwości oceny jakości obrazu siatkówkowego w oku ze wszczepioną soczewką wewnątrzgałkową w sztucznym modelu oka * Agnieszka Jóźwik 1, Damian Siedlecki 1, Marek Zając 1 Streszczenie: Soczewki wewnątrzgałkowe są wszczepiane podczas zabiegu usunięcia zaćmy w miejsce chorej soczewki ocznej. W celu modelowania działania oka z soczewką wewnątrzgałkową skonstruowano optyczno-mechaniczny model oka, umożliwiający obiektywną ocenę jakości obrazu siatkówkowego tworzonego przez taką soczewkę i stanowiący alternatywę do badań in vivo, opierających się na subiektywnym wrażeniu pacjentów po operacji zaćmy. Słowa kluczowe: soczewki wewnątrzgałkowe, zaćma, obraz siatkówkowy, model oka 1. Wprowadzenie Zaćma jest chorobą, polegającą na częściowej lub całkowitej utracie przejrzystości soczewki ocznej [6]. Jedyną skuteczną metodą leczenia jest usunięcie zmętniałej soczewki z jej torebki i zastąpienie jej sztuczną soczewką wewnątrzgałkową (IOL, intraocular lens). Jakość obrazu siatkówkowego zależy w znacznej mierze od rodzaju wszczepionej soczewki. W celu uzyskania jak największego komfortu u pacjenta po operacji wszczepienia IOL, zarówno przy widzeniu do dali jak i bliży, opracowano szereg rodzajów soczewek wszczepialnych. Oprócz typowych soczewek jednoogniskowych dostępna jest duża różnorodność bardziej zaawansowanych modeli, takich jak soczewki wieloogniskowe, pseudoakomodujące i akomodujące [3][5]. W celu polepszenia jakości odwzorowania stosuje się powierzchnie asferyczne gwarantujące dobrą korekcję aberracji, w szczególności korekcję aberracji sferycznej [9]. Najczęściej spotykanym sposobem oceny jakości soczewki IOL jest subiektywna metoda opierająca się na pomiarze ostrości wzrokowej u pacjentów przed i po zabiegu usunięcia zaćmy i wszczepieniu soczewki wewnątrzgałkowej [4][7]. W tej metodzie trudno oddzielić wpływ jakości IOL od wpływu innych, często występujących, schorzeń oka. W celu obiektywnej oceny jakości odwzorowania dawanego przez soczewki wewnątrzgałkowe zbudowano optomechaniczny model oka, odtwarzający anatomiczne i optyczne właściwości rzeczywistego oka [1]. Pomimo wysoko rozwiniętej techniki implantacji istnieje ryzyko złej lokacji soczewki wewnątrzgałkowej w torebce soczewki [2]. Soczewka może ulec przesunięciu osiowemu, decentracji, bądź pochyleniu, co może wpływać na jakość widzenia pacjentów po zabiegu [8]. Celem obecnych badań jest określenie jakości odwzorowania obrazu siatkówkowego dawanego przez soczewki wewnątrzgałkowe przy ich nieprawidłowym ułożeniu w oku. 2. Metoda Optomechaniczny model oka [1] składa się z komory z cieczą imersyjną (woda destylowana o współczynniku załamania n=1,33 bliskim współczynnikom załamania cieczy wodnistej n=1,337 * Praca została wykonana w ramach projektu badawczego NN Instytut Fizyki, Politechnika Wrocławska, Wybrzeże Wyspiańskiego 27, Wrocław, kontakt: agnieszka.jozwik@pwr.wroc.pl 155

157 i ciała szklistego n=1,336), która z jednej strony jest ograniczona rogówką, a z drugiej szklanym oknem [Tab. 1]. Tab. 1 Parametry rogówki i tylnego okna dla modelu oka Materiał/współczynnik załamania Rogówka PMMA/1,49 Tylne okno BK51664/1,52 Promienie krzywizny [mm] R 1 = 7,7 R 2 =6,74 Grubość osiowa [mm] 0,5 2,4 R 1 = 18,9 R 2 =16,5 Obraz siatkówkowy rejestrowany jest aparatem fotograficznym z obiektywem mikroskopowym. Elementem specyficznym dla omawianego modelu oka jest uchwyt soczewek IOL, dający możliwość ich przesuwu osiowego, poprzecznego oraz pochylenia. Ta konstrukcja umożliwia symulację niewłaściwego położenia soczewki w oku oraz analizę wpływu tego przemieszczenia na odwzorowanie siatkówkowe. Możliwe jest wykonanie pomiarów dla różnych wielkości źrenicy (2-8 mm). Jakość obrazu siatkówkowego oceniana jest na podstawie zmierzonej liniowej funkcji rozmycia (LSF, Line Spread Function) oraz wyliczonej na jej podstawie Funkcji Przenoszenia Kontrastu (MTF, Modulation Transfer Function). Jako miary ilościowe przyjęto unormowaną maksymalną intensywność w plamce rozmycia (liczbę Strehla), szerokość połówkową LSF, oraz parametr MTF50 równy częstości przestrzennej, przy której Funkcja Przenoszenia Kontrastu spada do 1/2. 3. Wyniki Badaniom zostały poddane soczewki wewnątrzgałkowe jednoogniskowe, jak również wieloogniskowe, których parametry zostały przedstawione w Tab. 2. Tab. 2 Parametry soczewek wewnątrzgałkowych Materiał części optycznej Kształt części optycznej Moc [D] CZ70BD PMMA dwuwypukły 21,5 SA60AT Akryl dwuwypukły asferyczny 22,0 SK21RU PMMA dwuwypukły 18,5 Inne SN60AT Akryl dwuwypukły 26,5 Filtr UV SA60D3 Akryl dyfrakcyjny 18,0 w/4,0 Soczewki IOL były przesuwane osiowo co 0,2 mm do 1 mm w stronę rogówki i 0,8 mm w stronę siatkówki. Położeniem podstawowym było to, przy którym jakość odwzorowania była najlepsza. Następnie soczewka była pochylana do maksymalnego kąta wynoszącego 12 stopni. W obu przypadkach badano jak zmiana lokacji soczewki w oku wpływa na jakość odwzorowania siatkówkowego. Wpływ tych zmian został pokazany w postaci przykładowych wykresów, przedstawiających zależność parametru MTF50 w funkcji przesunięcia osiowego soczewki [Rys. 1A] oraz zmian szerokości połówkowej LSF w zależności od pochylenia soczewki [Rys. 1B]. 156

158 A Rys. 1 Wpływ przesunięcia osiowego (A) i pochylenia (B) soczewki na jakość odwzorowania siatkówkowego Podczas pochylania soczewek wewnątrzgałkowych do kąta wynoszącego 10 stopni nie obserwuje się zmian szerokości połówkowej LSF. Dopiero powyżej tego kąta jakość odwzorowania siatkówkowego znacząco się pogarsza [Rys. 1B]. Inaczej ma się sytuacja podczas osiowego przemieszczenia soczewki [Rys. 1A]. Małe zmiany jej położenia (0,5 mm) powodują dwukrotny spadek jakości widzenia, wyrażony parametrem MTF50. Badaniom została poddana również soczewka dyfrakcyjna, która jest soczewką wieloogniskową. Dla różnych rozmiarów źrenicy mierzono jakość odwzorowania przy dwóch różnych odległościach widzenia: 4,5 m (jako odległość widzenia do dali) oraz 40 cm (jako odległość bliży). Jakość odwzorowania przez soczewkę dyfrakcyjną zostały porównane z wynikami dla soczewek jednoogniskowych: sferycznej i asferycznej [Tab. 2]. B A Rys. 2 Jakość odwzorowania siatkówkowego dla różnych wielkości źrenic dla odległości 4,5 m (A) i 40 cm (B) Rezultaty pomiarów dla trzech różnych soczewek wewnątrzgałkowych zostały przedstawione w postaci wykresów pokazujących zmianę szerokości połówkowej LSF dla różnych średnic źrenic przy dwóch odległościach widzenia [Rys. 2]. Można zauważyć, że dla obu odległości jakość odwzorowania soczewki wieloogniskowej jest lepsza w porównaniu z soczewkami jednoogniskowymi. Charakterystyczne jednak jest to, że jakość obrazu dla soczewki wieloogniskowej utrzymuje się na podobnym poziomie (LSF = m) dla różnych odległości, podczas gdy dla soczewek jednoogniskowych jakość odwzorowania zmniejsza się czterokrotnie przy odległości 40 cm w stosunku do odległości dalekiego widzenia. 4. Podsumowanie Badania soczewek wewnątrzgałkowych w modelu oka pozwalają ocenić jakość widzenia oka z wszczepioną soczewką wewnątrzgałkową bez konieczności badań na pacjentach. Oprócz badań porównawczych różnych soczewek wewnątrzgałkowych, możliwa jest również ocena wpływu złego ulokowania soczewki w oku na jakość obrazu siatkówkowego. B 157

159 Literatura [1] A. Barcik, J. Nowak, D.Siedlecki, M.Zając, J. Zarówny. Physical model of human eye with implantable intraocular lenses. 16th Polish-Slovak-Czech Optical Conference on Wave and Quantum Aspects of Contemporary Optics, Polanica Zdrój, Poland, 8-12 September [2] M. Baumeister, J. Bühren, T. Kasper, T. Kohnen. Tilt and decentration of spherical and aspheric intraocular lenses: Effect on higher-order aberrations. Journal of Cataract & Refractive Surgery, Vol. 35, 6, , [3] R. Bellucci. Multifocal intraocular lenses. Current Opinion of Ophthalmology,16, 33 37, [4] H. Bhattacharjee, K. Bhattacharjee, J. Mehdi. Visual performance: Comparison of foldable intraocular lenses. Journal of Cataract & Refractive Surgery 32, , [5] J.F. Doane, R.T. Jackson. Accommodative intraocular lenses: considerations on use, function and design. Current Opinion of Ophthalmology, 18, , [6] Facts About Cataract National Eye Institute, National Institutes of Health. Department of Health and Human Services, [7] A.J. Lombardo, D.R. Harden, A.G. McCulloch, J.L. Demarchi, E.A. Davis, R.L. Lindstrom. Changes in contrast sensitivity after Artisan lens implantation for high myopia. Ophthalmology, 112, , [8] D. Siedlecki, J. Nowak, M. Zając. "Placement of a crystalline lens and intraocular lens - retinal image quality". Journal of Biomedical Optics, Vol. 11, , [9] P. Szurman, K. Peteremeier, Aspheric IOLs benefit quality of vision. Cataract & Refractive Surgery Today Europe, 17-18, POSSIBILITIES OF RETINAL IMAGE ESTIMATION IN THE ARTIFICIAL EYE MODEL WITH INTRAOCULAR LENS PERFORMANCE Intraocular lenses (IOL) are being implanted into the eye during cataract extraction procedure in place of removed crystalline lens. In order to test them the optomechanical model of eye was built. Optomechanical eye model consists of a spherical window functioning as a cornea and a chamber filled with an immersion liquid. Special handle allows axial and horizontal decentration and tilt of the inserted intraocular lens. This enables to simulate incorrect location of the lens in the eye and allows to assess how this change affects the quality of vision. For quantitative description of retinal imaging quality the Line Spread Function (LSF) and the Modulation Transfer Function (MTF) as well as parameters estimated on their base are used. There is a possibility to choose different sizes of pupil (2-8 mm). Optical performance of different intraocular lenses depend on the shape and material of the lens. Image quality decreases with the incorrect location of the lens in the eye. Investigation of intraocular lenses performance in the optomechanical eye model enables to assess the quality of vision of the eye with intraocular lens implanted without the need for research on patients. 158

160 Modelowanie połączeń klinczowych użytych do łączenia elementów cienkościennych obciążonych udarowo Paweł Kaczyński 1 Streszczenie: W artykule przedstawiono metodykę modelowania połączeń klinczowych wykorzystanych do łączenia elementów cienkościennych obciążonych udarowo. Wykonano badania materiałowe, które posłużyły do wyznaczenia współczynników umocnienia dynamicznego modelu Cowpera-Symondsa. Przedstawiono także proces prowadzenia eksperymentu numerycznego, wskazując na możliwość wykorzystania zaproponowanego połączenia do analizy profili połączonych złączami punktowymi innymi od przetłaczanych. Słowa kluczowe: połączenie klinczowe, stal wysokowytrzymała, badania materiałowe. 1. Wprowadzenie Połączenia klinczowe mogą być z powodzeniem stosowane w wielu gałęziach przemysłu do łączenia profili cienkościennych. Rozwiązanie to przynosi producentom wielorakie korzyści. Do najważniejszych można zaliczyć zmniejszenie zużycia energii, eliminację negatywnego wpływu strefy ciepła oraz rezygnację z etapu przygotowania powierzchni do łączenia, a także możliwość łączenia materiałów różnoimiennych, również tych z dodatkowymi powłokami. Technologia ta jest ponadto uważana, za przyjazną dla środowiska w miejscu pracy. Nie towarzyszy jej emisja światła o dużym natężeniu, iskier oraz szkodliwych oparów. Łączenie generuje hałas o niskim poziomie natężenia, nie powoduje powstawania odpadów i odbywa się bez osłony gazowej [1]. Zalety połączeń przetłaczanych skłaniają czołowych europejskich producentów narzędzi jak Attexor Equipments, BTM, Eckold, TOX, czy też Trumpf do ich coraz częstszego wykorzystywania. Jednocześnie zaobserwować można intensyfikację badań w kierunku szacowania ich własności mechanicznych. W publikacjach [3, 5] skupiono się nad zagadnieniem przydatności klinczowania do łączenia elementów stalowych, analizując wady i zalety tej techniki oraz przebieg samego procesu. Jedną z ciekawszych pozycji dotyczących tego zagadnienia jest [6]. Podjęto się w niej porównania połączeń klinczowych, śrubowych oraz nitowych pod względem ich wytrzymałości dla wybranych rodzajów węzłów konstrukcyjnych. Inną ciekawą pracą jest [7]. Koncentruje się ona na wpływie kierunku działania siły rozciągającej złącze prostokątne na jego wytrzymałości na ścinanie. W artykule [2] skupiono się natomiast na degradacji własności mechanicznych połączeń pod wpływem czasu. Spotkać się można także z publikacjami J. Varis [4], który bada wpływ ilości wykonanych złącz na koszt wykorzystania danej technologii do punktowego łączenia elementów cienkościennych produkowanych seryjnie. 2. Badania materiałowe Rozważa się możliwość zastosowania połączeń przetłaczanych w elementach energochłonnych systemów bezpieczeństwa biernego pojazdów. Własności wytrzymałościowe połączeń klinczowych są jednak wielokrotnie mniejsze niż powszechnie stosowanych połączeń zgrzewanych. W efekcie podczas zgniatania profilu cienkościennego połączenia klinczowe ulegają zniszczeniu, co wpływa na postać deformacji i charakterystyki elementu energochłonnego. 1 Politechnika Wrocławska, Wydział Mechaniczny, Łukasiewicza 5, Wrocław, pawel.kaczynski@pwr.wroc.pl 159

161 Na dzień dzisiejszy brak jest badań ukierunkowanych na ocenę wpływu własności wytrzymałościowych połączeń przetłaczanych na charakterystyki i prawidłowość deformacji belek. W programie badań przewidziano wykonanie prób wytrzymałościowych połączeń klinczowych, materiałów, jak i samych belek. Badania materiałowe wykonano dla typowych stali o podwyższonej wytrzymałości stosowanych obecnie w przemyśle motoryzacyjnym, tj.: DP600, DP800, DP1000, DP1200 oraz stali głęboko tłocznej. Dla wymienionych gatunków stali wykonano badania materiałowe na maszynie wytrzymałościowej wyposażonej w ekstensometr INSTRON o długości bazy pomiarowej wynoszącej 50 mm. Próbki rozciągano przy prędkości przesuwu belki 300 oraz 0,3, co odpowiadało prędkościom odkształcania oraz. Dane pomiarowe rejestrowano z częstotliwością 50 Hz na PC. Wykonano także próby dynamicznego rozciągania przy wykorzystaniu udarowego młota rotacyjnego w systemie jednoprętowym zaproponowanym przez Kawat'ę. Badania wykonano dla prędkości liniowych wynoszących 4, 7 oraz 14, co odpowiadało prędkościom odkształcania na poziomie = 300, 500 i 900. Do prób dynamicznych wykonano próbki o zmniejszonej długości bazy pomiarowej wynoszącej 15 mm (rys. 1). Zabieg ten jest powszechnie stosowany z uwagi na możliwość uzyskania dzięki niemu dużych prędkości odkształcania. Próbki zostały zamocowane w uchwytach bezpośrednio przytwierdzonych do pręta pomiarowego. Średnica pręta oraz uchwytu, a także materiały z jakich były one wykonane, były takie same. Zabieg ten miał na celu minimalizację zakłóceń sygnału tensometru. 3. Równania konstytutywne Rys. 1. Wymiary próbki do badań dynamicznego rozciągania Kolejnym etapem było zdefiniowanie równań konstytutywnych badanych materiałów. Dane uzyskane z eksperymentów wykonanych na maszynach wytrzymałościowych poddane zostały obróbce w celu przekształcenia siły i przemieszczenia, w przypadku badań statycznych, oraz sygnału napięciowego, w przypadku badań dynamicznych, na naprężenia i odkształcenia rzeczywiste. Obróbka danych uzyskanych na drodze eksperymentu została w znacznej części zautomatyzowana poprzez napisanie programu. Zawarty w nim algorytm wyznaczał dla każdej z próbek początek oraz koniec pomiaru, odrzucając dane nie wchodzące w skład pomiaru i obcinając niepotrzebną część, likwidował offset napięciowy w przypadku jego wystąpienia, a następnie dla każdej z próbek obliczał wg ogólnie znanych zależności naprężenia i odkształcenia rzeczywiste. Opracowane w ten sposób dane poddano analizie statystycznej, w celu dobrania współczynników umocnienienia materiału wraz ze wzrostem prędkości. W tabeli poniżej przedstawione zostały te spośród podstawowych modeli umacniania się materiału wraz ze wzrostem prędkości, które posiadają swoją implementację w programach obliczeniowych wykorzystywanych w eksperymencie numerycznym. 160

162 Tab. 1. Stosowane modele umacniania materiału Model umocnienia materiału Wzór Cowper-Symonds Johnson-Cook Zmodyfikowany Jones - poziom naprężeo wynikający z umocnienia materiału wraz ze wzrostem prędkości - poziom naprężeo dla statyki - odkształcenie - prędkość odkształcania - parametry modelu wymagające wyznaczenia Do dalszej analizy wybrano model materiału Cowpera-Symondsa. Za pomocą narzędzi do analizy statystycznej danych dobrano współczynniki D i p pozwalające na najlepsze dopasowanie modelu do otrzymanych wyników badań. Na poniższym rysunku przedstawiono korelację pomiędzy modelem Cowpera-Symondsa, a wynikami jednego z analizowanych materiałów - tj. stali DP Rys. 2. Przykładowe dopasowanie parametrów D i p modelu umocnienia Cowpera-Symondsa dla stali DP600 Uzyskane współczynniki D i p wykorzystane zostały przy definicji modeli materiałów użytych w eksperymentach numerycznych. 4. Eksperyment W celu przeprowadzenia eksperymentu wykonano modele geometryczne podłużnic, które następnie poddano dyskretyzacji za pomocą elementów powłokowych. Jednym z ważniejszych zagadnień związanych z etapem dyskretyzacji był dobór wielkości elementu skończonego. Miał on decydujący wpływ na długość kroku całkowania, a tym samym na długość prowadzonej analizy. Kolejnym etapem było wprowadzenie warunków brzegowych do modelu i połączenie dwóch części 161

163 profilu przedstawionego na poniższym rysunku za pomocą więzów o właściwościach połączenia klinczowego. Rys. 3. Kolejne etapy tworzenia modelu dyskretnego W modelu użyto połączenia rozłącznego o następującym kryterium zniszczenia: gdzie: F N - wartość siły normalnej, F Nmax - wartość maksymalnej siły normalnej, F S - wartość siły ścinającej, F Smax - wartość maksymalnej siły ścinającej. W zależności (1) istnieją 4 parametry, za pomocą których można kształtować charakterystykę nośności połączenia (rys. 4) dopasowując je tym samym do wyników rzeczywistych badań. Badania połączeń klinczowych polegają na próbach obciążania połączeń przy różnych kątach ustawienia siły obciążającej względem powierzchni łączonych blach. (1) Rys. 4. Zależność nośności złącza od współczynników a1 i a2 Dokonano oceny wartości sił w połączeniach nie podlegających zniszczeniu na belkach energochłonnych. We wstępnych symulacjach numerycznych przyjęto wartości sił F Smax i F Nmax na poziomie uniemożliwiającym eliminacje połączeń, przy których wartości współczynników a1 i a2 nie mają znaczenia. Brak niszczenia połączeń klinczowych w modelu umożliwił prześledzenie przebiegów sił w połączeniach w trakcie deformacji, badanie wpływu różnych czynników - jak rozstaw połączeń, czy ukształtowanie inicjatorów zgniotu - na wartości ekstremalne sił. Użyta metodyka umożliwia wyznaczenie minimalnych własności wytrzymałościowych połączeń klinczowych gwarantujących zachowanie ich ciągłości podczas obciążenia impulsem udaru. 162

164 Problem prawidłowego doboru połączeń klinczowych jest nadal nierozwiązany, ponieważ wyniki symulacji i badania na obiektach fizycznych wskazują na zbyt niskie własności wytrzymałościowe połączeń klinczowych. 5. Nośność złącz Na poniższych wykresach przedstawiono przebieg siły dla próbki "jednoomegowej" o wymiarach 60x60 mm i wysokości 300 mm z zakładką wynoszącą 20 mm. Próbka wykonana została ze stali DP600 o grubości 1,2 mm, a blachy wchodzące w jej skład połączone zostały zakładkowo za pomocą połączeń klinczowych o rozstawie 50 mm. Badana próbka poddana została obciążeniu udarowemu w postaci bijaka młota spadowego o masie 200 kg i prędkości 6. Próbka poddana została oględzinom wizualnym. Jej kolejne postaci przedstawiono na rysunku Rys. 5. Kolejne postacie profilu poddanego obciążeniu udarowemu Siła normalna [N] Połączenie 1 Połączenie 2 Połączenie 3 Połączenie 4 Połączenie ,01 0,02 0,03 0,04 0,05 Czas [s] Rys. 6. Przebieg siły normalnej złącz Warunkiem koniecznym do zapewnienia ciągłości połączeń podczas całego procesu zgniotu jest wykonanie złącza, którego minimalne siły: ścinająca i normalna będą wynosić odpowiednio 1800 i 4000 N, co w świetle wyników prób wytrzymałościowych połączeń klinczowych jest warunkiem trudnym, bądź niemożliwym do osiągnięcia. 6. Wnioski Analiza przebiegów sił normalnych i stycznych w połączeniach pozwala na ustalenie wartości maksymalnych każdej z sił występującej w połączeniach podczas zgniotu próbki. Analiza danych uzyskanych na drodze eksperymentu numerycznego i dotychczasowych badań połączeń klinczowych pozwala wyciągnąć wniosek, iż opracowana wstępnie metodyka badań pozwoli na określenie wymaganych własności wytrzymałościowych połączeń klinczowych, zapewniających ciagłość połączeń. Nie pozwala on natomiast na określenie minimalnych własności połączeń, przy których mimo częściowego zniszczenia połączeń belka energochłonna nadal jest w stanie w dostatecznym stopniu absorbować energię i prawidłowo się deformować. Potrzebne są dalsze 163

165 badania, w których analizowane będą charakterystyki belek zgniatanych i postaci deformacji przy różnych poziomach nośności połączeń klinczowych. Nie da się ocenić jednoznacznie wpływu połączeń klinczowych na proces zgniatania belek. Zastosowany model połączenia nadaję się do analizy dowolnego połączenia punktowego, bez względu na technikę wykonania połączeń. Prace badawcze wykonano w ramach projektu badawczego nr.: NN finansowanego ze środków MNiSW. Literatura [1] Materiały informacyjne firmy Attexor Equipments [2] M. Carboni, S. Beretta, M. Monno; "Fatigue behaviour of tensile-shear loaded clinched joints"; Engineering Fracture Mechanics, Volume 73, Issue 2, Pages ; January 2006, [3] J. P. Varis; "The suitability of clinching as a joining method for high-strength structural steel"; Journal of Materials Processing Technology, Volume 132, Issue 1-3, Pages ; January 2003, [4] J. Varis; "Economics of clinched joint compared to riveted joint and example of applying calculations to a volume product"; Journal of Materials Processing Technology, Volume 172, Issue 1, Pages ; February 2006, [5] N. Nong, O. Keju, Z. Yu, Q. Zhiyuan, T. Changcheng, L. Feipeng; "Research on press joining technology for automotive metallic sheets"; Journal of Materials Processing Technology, Volume 137, Issues 1-3, Pages ; June 2003, [6] R. F. Pedreschi, B. P. Sinha; "The potential of press-joining in cold-formed steel structures"; Construction and Building Materials, Volume 10, Issue 4, Pages ; June 1996, [7] R. Davies, R. Pedreschi, B. P. Sinha; "The shear behaviour of press-joining in cold-formed steel structures"; Thin-Walled Structures, Volume 25, Issue 3, Pages ; July MODELING OF CLINCH JOINTS OF STROKE-LOADED THIN-WALLED ELEMENTS In this paper clinch joints modeling methodology was presented. It is commonly used to connect thin-walled stroke-loaded elements. For selected strain rates following high-strength alloy steels were tested: DP600, DP800, DP1000, DP1200 and deep-drawing steel. They were used to determine D and p Cowper-Symonds model strain rate hardening coefficients. Main numerical experiment steps were presented, starting from the geometric model creation, trough the finite element size selection and meshing process, and ending on setting the boundary conditions. Used joints enabled to continuously monitor the forces value: the normal and shear components. Their maximum value was set as 50kN. In fact, this level was not reached. The consequence of taking such high values is rupture impossibility of the connector. This allows the author to thoroughly investigate the time course of forces. Presented studies indicate the possibility of the numerical joint usage for minimal required mechanical properties estimation. Presented numerical joint can be applied to every point connector, like spot welds or redrawing connectors. 164

166 Wykorzystanie algorytmów obniżających entropię w celu zmniejszenia efektywności metod wykrywających zaszyfrowane dane Michał Kędziora 1 Streszczenie: Artykuł opisuje teoretyczne oraz praktyczne sposoby na oszukanie metod wykrywania zaszyfrowanych danych komputerowych poprzez wykorzystanie algorytmów obniżających entropię badanych danych. W pracy zaproponowano a następnie przetestowano dwa algorytmy, które z powodzeniem mogą być wykorzystywane w tym celu. Słowa kluczowe: bezpieczeństwo komputerowe, kryptografia 1. Wprowadzenie Podstawowa metoda wykrywania zaszyfrowanych danych polega na odnalezieniu plików stworzonych przez narzędzia służące do szyfrowania danych [5]. Wykorzystuje się do tego analizę sygnatur (Signature Analysis) czyli proces identyfikacji i porównania rozszerzenia, nagłówka i stopki plików. Jednak warto zwrócić uwagę, iż ta metoda nie wykrywa samego szyfrowania, ale jedynie wskazuje, że plik został utworzony przez narzędzie kryptograficzne. Aby potwierdzić, czy plik posiada zaszyfrowane dane, należy wykorzystać metody statystyczne. Metody te są skuteczne w wykrywaniu kryptografii, gdyż aby zapobiec kryptoanalizie opartej na analizie statystycznej, szyfry ewoluowały i obecnie przypominają ciągi losowe, jest to wynik celowy spowodowany użyciem techniki nazywanej wybielaniem (whitening) [2] i która ma zatrzeć wszelkie korelacje pomiędzy tekstem jawnym a szyfrogramem. Zabiegi te zwiększyły bezpieczeństwo algorytmu jednak również umożliwiły identyfikacje zaszyfrowanych danych przy wykorzystaniu testów badających losowość danych [4]. Najbardziej rozpowszechnioną metodą służącą do badania losowości serii danych w celu stwierdzenia, że dane te mogą być zaszyfrowane jest obliczanie entropii. Zgodnie z definicją Entropię można opisać jako niepewność wystąpienia zdarzenia elementarnego. Jeżeli zdarzenie wystąpi z prawdopodobieństwem równym 1, to jego entropia wynosi 0, natomiast gdy prawdopodobieństwo będzie wskazywało na wartość losową entropia będzie bliska wartości maksymalnej. Z definicji entropia H dyskretnej losowej wartości [1] X o możliwych wartościach {x 1,,x n } wynosi: H X = E I X, (1) jeśli p(x) oznaczymy jako prawdopodobieństwo zajścia zdarzenia x, a n liczbę wszystkich zdarzeń danej przestrzeni to wartość entropii będzie równa: n n H X = p x i I x i = p x i log b p x i i=1 i=1, (2) 1 Politechnika Wrocławska, Instytut Informatyki, michal.kedziora@pwr.wroc.pl 165

167 gdzie b jest podstawą logarytmu. Zgodnie z definicją wartość entropii powinna być bliska wartości maksymalnej w sytuacji gdy dane wejściowe będą losowe [6]. Każdy wykryty porządek w ciągu danych powinien spowodować obniżenie wartości entropii dla badanego ciągu danych. Algorytm ten jest często używany w celu wykrywania zaszyfrowanych kontenerów danych jednak wyraźnie widać, iż nie jest on efektywny w implementacji gdyż istnieje potrzeba czasochłonnego obliczania logarytmu [3]. 2. Proponowane Algorytmy W celu zmniejszenia efektywności mechanizmów wykrywających zaszyfrowane dane na dyskach twardych komputerów zaproponowałem dwa algorytmy, które w założeniu mają zaburzać wskaźniki losowości pliku, a przez to uniemożliwiać wykrycie zaszyfrowanych danych. Założenia pierwszej metody E nt D ec1 były następujące: Do pliku p 0 o entropii E(p 0 ) dodany zostaje fragment o obniżonej entropii E nt l. W celu stworzenia fragmentu pliku o obniżonej entropii użyłem ciągu znaków o kodzie decymalnym 0030, co oznacza w układzie ASCII znak "0". Jako iż przy algorytmach liczenia entropii najczęściej używa się bajtów danych o wartości {0..255} uważam, że będzie to skutkować wektorem o wystarczająco małym poziomie entropii, nie ma potrzeby użycia ciągów o jeszcze niższej entropii. Długość dodawanego fragmentu ustaliłem na 1% początkowej długości pliku p 0. Wybór wartości 1% jako wartości przyrostowej był podyktowany chęcią dokładnej lokalizacji długości wektora p x, przy której wartość entropii dla całego pliku E(p x ) spadnie poniżej progu detekcji E(det). Próg ten zależy od dokładności, z którą algorytm wykrywania zaszyfrowanych danych ma je rozróżnić od innych typów danych, w szczególności danych skompresowanych, które również posiadają wysoką entropię [8]. E nt D ec 1 p x < E det, p x = p 0 + l n p 0 100, n [0.. y] (3) Drugi zaproponowany algorytm nazwany E nt D ec2, ma za zadanie zmylenie programów wykrywających szyfrowane pliki poprzez rozciągnięcie pliku tak aby zredukować ilość możliwych kombinacji bajtów w kanale komunikacyjnym. Testowanym rozwiązaniem jest zaproponowanie algorytmu E nt D ec2 który każdy bajt b 0 pliku p 0 zamienia na dwa bajty L 0 R 0 tak że: E nt D ec 2 p x = L 0 = B ; P 0 = B 0 2, B 0mod2 = 0 P 0 = B ; P 0 = B 0 + 1, B 2 0 mod2 = 1 (4) Efektem działania algorytmu jest przetworzenie danych tak, aby w rozkładzie histogramu dla wartości powyżej 128 miały wartość 0, co dla algorytmów wykrywania szyfrowania poprzez obliczenie entropii powinno być wskaźnikiem wykluczającym te dane jako potencjalnie zaszyfrowane. 3. Wyniki Testów Jako pierwszy zaimplementowałem i przetestowałem algorytm EDC lin. W pierwszym teście przyjęte zostały założenia o długości pliku p 0 = bajtów przy długości fragmentu 166

168 E(pn) obniżającego entropię l=10484 bajty. Obliczenia zostały wykonane dla 40 przypadków zgodnie z wzorem nr 3. W celu wygenerowania zaszyfrowanych plików testowych wykorzystano program truecrypt) Rys. 1. Entropia p n dla E nt D ec1 z rosnącym l Wynik został przedstawiony na wykresie nr 1. Wartości entropii wyraźnie maleją wraz ze wzrostem długości odcinka l. Spadek wartości jest liniowy, wartość E nt D ec1 (p x ) poniżej odnotowuje się już przy l= czyli 30% wielkości p 0. Po wykonaniu aproksymacji liniowej funkcja spadku entropii na tym przedziale jest w przybliżeniu równa E nt D ec1 (p n )=-0.03x+8 Z tego równania można obliczyć wymaganą długość l dla danego progu detekcji. W przypadku obliczania entropii plików, ważnym czynnikiem jest wielkość tego pliku, przy małych wielkościach możemy mieć zbyt mało danych aby algorytmy wykrywania entropii mogły zadziałać poprawnie. Dlatego następnie testy przeprowadziliśmy dla plików o długości p 0 = bytów i długości l= bytów. Taki dobór długości plików p był spowodowany chęcią symulacji zachowania się algorytmu dla dużych kontenerów szyfrujących, szczególnie znaczenie może to mieć dla prostych implementacji liczenia entropii użytych w niektórych programach wykrywających zaszyfrowane pliki (np. EnCase) pn data Rys. 2. Entropia E nt D ec1 w zależności od wielkości pn, od góry: dla l = 100MB, 10MB, 1MB Dla dokładniejszego zobrazowania wyników utworzono wykres (Rys. nr 2), który obrazuje dokładność algorytmów liczenia entropii według definicji jak i entropii liczonej na podstawie histogramu czyli metody używanej w części praktycznych rozwiązań softwarowych obecnych na rynku (na przykład EnCase). Wartości entropii liczonej według definicji E nt D ec1 (p x ) pokrywają się 167

169 dla zbiorów danych wielkości 1, 10 oraz 100 MB. Tymczasem entropia liczona na podstawie histogramu Eh nt D ec1 (p x ) wykazuje wysoką zależność od wielkości badanego pliku. W przypadku plików o długości 1MB zakres wahań wartości entropii dla 1% kawałków pliku wynosi od 3,1 do 4,4. W przypadku pliku 10MB otrzymujemy dokładniejszy wynik w zakresie 6,2 do 6,6. W przypadku pliku wielkości 100 MB wartość jest już praktycznie stała w zakresie ok 7,5. Nadal jest to jednak wyraźnie mniej niż wartość entropii obliczona z algorytmu na bazie definicji. W przypadku implementacji algorytmu E nt D ec2 przyjęto p 0 = co po zastosowaniu E nt D ec2 dało plik o długości p x = Entropia E(p x ) wyniosła 7, a wartość Eh nt D ec2 (p x ) wynosiła 0, Również tutaj wyraźnie widoczna jest różnica pomiędzy różnymi sposobami liczenia entropii. 4. Podsumowanie Wyniki testów dowodzą, że zaproponowane algorytmy skutecznie potrafią doprowadzić do sytuacji w której badane dane zostaną sklasyfikowane poniżej progu detekcji, a tym samym nie zostaną wykryte jako zaszyfrowane. Badania wskazały, iż w wykrywaniu szyfrowania kluczowy jest dobór odpowiednich algorytmów liczenia entropii. Algorytm obliczający entropię na podstawie analizy histogramu, który jest w prawdzie wydajny i prosty w implementacji nie nadaję się on do wykrywania szyfrowania w małych plikach, jest on również bardzo wrażliwy i łatwy do oszukania przez zaproponowane algorytmy, a tym samym jest zdecydowanie mniej efektywny. Dalsze badania będą polegały na zmodyfikowaniu obecnie używanych programów tak aby domyślnie mogły obsługiwać proces kodowania i dekodowania zgodnego z przedstawianymi algorytmami. Pozwoli to na badanie wydajności działania tych programów w porównaniu z niezmodyfikowanymi wersjami. Literatura [1] Hamming, Richard W. Coding and Information Theory. Englewood Cliffs NJ: Prentice-Hall, [2] Knuth, Donald E. The Art of Computer Programming, Volume 2 / Seminumerical Algorithms. Reading MA: Addison-Wesley, ISBN [3] Ziv J. and A. Lempel. A Universal Algorithm for Sequential Data Compression. IEEE Transactions on Information Theory 23, 3, pp [4] Park, Stephen K. and Keith W. Miller. Random Number Generators: Good Ones Are Hard to Find. Communications of the ACM, October 1988, p [5] Steve Bunting, The Official EnCase Certified Examiner Study Guide, Wiley Publishing, 2008, ISBN: [6] A. Menezes, P. van Oorschot, S. Vanstone, Handbook of Applied Cryptography, CRC Press, 1996 [7] Eoghan Casey, Gerasimos J. Stellatos,The impact of full disk encryption on digital forensics, ACM SIGOPS Operating Systems Review, Volume 42 Issue 3, April 2008 [8 ] I. Jozwiak, A.Melinska, M. Kędziora; "Theoretical and Practical Aspects of Encrypted Containers Detection in Digital Forensics Approach, Dependability and Computer Systems DepCoS RELCOMEX,

170 Równoległe rozwiązywanie równania Poissona metodą wielosiatkową na karcie graficznej Andrzej Kosior 1, Henryk Kudela 2 Streszczenie: W artykule przedstawiono sposób zrównoleglenia metody wielosiatkowej rozwiązującej trójwymiarowe równanie Poissona na kartach graficznych. Opisana została metoda wielosiatkowa w dwóch odmianach (cykle V i FMG). Na koniec przedstawione zostały wyniki otrzymanych przyspieszeń. Słowa kluczowe: metoda wielosiatkowa, obliczenia równoległe, karty graficzne 1. Wprowadzenie W praktyce inżynierskiej aby lepiej zrozumieć zjawiska i procesy zachodzące w czasie i przestrzeni staramy się je opisać równaniami różniczkowymi cząstkowymi. Trudności związane z analitycznymi możliwościami takich równań zmuszają do ich numerycznego rozwiązywania. Jeżeli zagadnienie jest trójwymiarowe oraz zachodzi potrzeba wielokrotnego rozwiązywania danego równania to czas obliczeniowy nawet na współczesnych komputerach dużej mocy może być znaczy. Rozwój techniki komputerowej wskazuje obecnie na pewne technologiczne ograniczenia w możliwościach zwiększania szybkości obliczeń pojedynczych procesorów. Stąd też wynika potrzeba dokonywania obliczeń równoległych w środowiskach wieloprocesorowych. W obecnej pracy przedstawimy na przykładzie trójwymiarowego równania eliptycznego Poissona możliwości wykorzystania kart graficznych komputerów typu PC. Karty graficzne, które konstruowane były z myślą o grach komputerowych, dostarczyły niespodziewanie taniego i wydajnego środowiska wieloprocesorowego umożliwiającego prowadzanie obliczeń równoległych. Równanie Poissona należy do jednego z najważniejszych równań fizyki matematycznej. Jednym z najbardziej efektywnych algorytmów ich numerycznego rozwiązywania są algorytmy szybkiego, bezpośredniego rozwiązywania równań algebraicznych powstałych po dyskretyzacji równania różniczkowego cząstkowego (FES - fast elliptic solver). Niestety algorytmy te są nieodpowiednie do obliczeń równoległych. Ponadto są one skuteczne tylko dla prostych, regularnych obszarów oraz ustalonego typu warunków brzegowych wzdłuż jednego brzegu obszaru. W obecnym artykule podjęto próbę opracowania algorytmu rozwiązywania równania Poissona na architekturze wieloprocesorowej kart graficznych tak zwaną metodą wielosiatkową, która pozwala na paralelizację obliczeń i usunięcie ograniczeń odnośnie obszaru i warunków brzegowych. 2. Równanie Poissona Równanie Poissona ma postać: ψ ψ ψ + + = f x y z x y z (,, ) (1) 1 Instytut Inżynierii Lotniczej, Procesowej i Maszyn Energetycznych, Wybrzeże Wyspiańskiego 27, Wrocław, andrzej.kosior@pwr.wroc.pl 2 Instytut Inżynierii Lotniczej, Procesowej i Maszyn Energetycznych, Wybrzeże Wyspiańskiego 27, Wrocław, henryk.kudela@pwr.wroc.pl 169

171 gdzie ψ( x, y, z ) jest nieznanym polem skalarnym, a (,, ) f x y z funkcją prawej strony. Siedmiopunktowa dyskretyzacja równania Poissona na siatce numerycznej ( ih x, jh,kh y z ), zakładając dodatkowo równe kroki siatki we wszystkich kierunkach ( h x = h y = h z = h ) będzie miała ostateczną postać: ψ +ψ +ψ - 6ψ +ψ +ψ +ψ = f h i, j,k+1 i, j+1,k i+1, j,k i, j,k i-1, j,k i, j - 1,k i, j,k-1 i, j,k gdzie indeks i odnosi się do zmiennej x ( i ) 2 i = 0,1,2,...,N j = 0,1,2,...,N k = 0,1,2,...,N x = ih, indeks j do zmiennej y ( j ) zmiennej z ( z k = kh ). Otrzymuje się układ równań algebraicznych dla wartości siatki numerycznej. Układ ten będziemy rozwiązywać metodą wielosiatkową. 3. Metody iteracyjne x y z (2) y = jh a indeks k do ψ i, j,k w węzłach Przedstawione powyżej równanie można rozwiązywać metodami iteracyjnymi takimi jak metoda Jacobiego lub Gaussa-Seidla. W metodzie Jacobiego postępujemy według algorytmu [1]: (n) 1 2 (n 1 ) (n 1 ) (n 1 ) (n 1 ) (n 1 ) (n 1 ) ψ i, j,k = ( fi, j,k h ψi, j,k+1 ψi, j+1,k ψi+1,j,k ψi 1,j,k ψi, j 1,k ψi, j,k 1 ) (3) 6 gdzie n jest numerem iteracji. Jeżeli do tego wzoru wprowadzimy błąd zdefiniowany jako: e = u ψ (4) (n) (n) i, j,k i, j,k i, j,k gdzie u jest rozwiązaniem dokładnym. Możemy przekształcić wzór (3) do postaci: 1 e = e +e +e +e +e +e 6 ( ) (n) (n 1 ) (n 1) (n 1) (n 1) (n 1) (n 1) i, j,k i, j,k+1 i, j+1,k i+1, j,k i 1, j,k i, j 1,k i, j,k 1 (5) Widzimy zatem, że błąd w każdej kolejnej iteracji jest uśrednieniem wartości błędów w węzłach sąsiednich z poprzedniej iteracji. Skutkiem tego będzie wygładzanie błędu. Stąd właśnie inna nazwa tych metod metody wygładzające błąd (smoothers). Aby poprawić własności wygładzające podanych metod możemy wprowadzić dodatkowo współczynnik relaksacyjny ω. Wzór (3) musi zostać przekształcony w tym celu do postaci: 1 ψ =ψ +ω ( f h ψ ψ ψ ψ ψ ψ ) ψ 6 (n) (n 1) 2 (n 1 ) (n 1 ) (n 1 ) (n 1 ) (n 1 ) (n 1 ) (n 1 ) i, j,k i, j,k i, j,k i, j,k+1 i, j+1,k i+1,j,k i 1,j,k i, j 1,k i, j,k 1 i, j,k Zachowanie błędu charakteryzują wartości i funkcje własne macierzy (2). Dla tak postawionego zagadnienia możemy znaleźć wektory własne i wartości własne. Dla lepszego zobrazowania własności wygładzających algorytmu wielosiatkowego rozważania zostaną podane 2 d ψ dla przypadku jednowymiarowego, = f ( x) 2 w przedziale ( 0,1 ) z podziałem jednorodnym na dx N punktów. Dla tego przypadku funkcje i wartości własne mają postać [3]: l,i ( ) w = sin lπx l = 1,...,N 1 (7) i 2 ( ) ( ) λ ω = 1 2ωsin lπh (8) l (6) 170

172 Błąd rozwiązania można przedstawić w postaci szeregu Fouriera przy pomocy wektorów własnych [3]: e N 1 = αlwl (9) l= 1 Po jednej iteracji metodą Jacobiego bądź Gaussa-Seidla błąd będzie miał postać [3]: e N 1 = λlαl wl (10) l= 1 Zatem wartości własne możemy traktować jak współczynnik tłumienia. Na rysunku 1 przedstawione są wartości własne w funkcji liczby falowej l. Widać, że w zależności od wybranego współczynnika relaksacji ω otrzymujemy różne wartości własne. Widać także, że we wszystkich przypadkach najmocniej tłumione będą składowe szybkozmienne (duże wartości l) a najsłabiej wolnozmienne (małe wartości l) 4. Metoda dwusiatkowa Rys. 1. Wartości własne w funkcji liczby falowej [4] Podstawowa idea metody wielosiatkowej wynika z obserwacji, że dla metody Jacobiego czy Gaussa-Seidla szybkozmienne składowe błędu są szybciej redukowane niż składowe wolnozmienne. Należy zauważyć, że jeżeli zastosujemy rzadszą siatkę to na niej szybciej będą niwelowane składowe błędu o niższych częstotliwościach niż to miało miejsce na siatce gęstej. Rozważmy zatem zagadnienie brzegowe dla dyskretnego równania eliptycznego postaci [3]: Lhu h = f h Wprowadźmy wektor błędu i wektor residuów ( n) ( n) h h h (Ω h ) (11) e = u u (12) ( n) ( n) r = f L u (13) h h h h Przekształcając równanie (11) otrzymujemy: L e = r (14) n n h h h To równanie można rozwiązać a następnie wyznaczony błąd dodać do rozwiązania równania (11). Ta procedura może zostać zastosowana do wyznaczenia poprawki na rzadszej siatce w metodzie dwusiatkowej. Jest to metoda iteracyjna o następującym schemacie [3]. Najpierw należy 171

173 wykonać pewną zadaną liczbę iteracji ν 1 wybraną metodą wygładzającą błąd (Jacobi, Gauss-Seidel, SOR). Następnie należy obliczyć residua ( n) v ( n) ( ) ˆ 1 u = SMOOTH u,l, f (15) h h h h ( n) ( n) r ˆ = f L uˆ (16) h h h h Przenieść wartości wektora residuów na rzadszą siatkę: ( n) H ( n) r ˆ = I r ˆ (17) H h h I rozwiązać na rzadkiej siatce dokładnie równanie (12) ( ) ( n ) ˆ n H H H Otrzymane rozwiązanie przenosimy na gęstą siatkę L e = r (18) ( n) h ( n) e ˆ = I e ˆ (19) h H H I dodajemy je jako poprawkę do rozwiązania ( n) ( n) ( n) u = u +e ˆ (20) h h h Na koniec wykonywane jest ponowne wygładzanie błędu wybraną metodą ( n+1) v ( n) u = SMOOTH (u,l, f ) (21) h 2 h h h W ten sposób kończy się pojedyncza iteracja metody dwusiatkowej. 5. Metoda wielosiatkowa Metoda wielosiatkowa stanowi rozwinięcie metody dwusiatkowej. Zamiast rozwiązywać dokładnie zagadnienia na błąd na siatce rzadszej wywołuje się rekurencyjnie algorytm przejścia pomiędzy siatkami. Powtarzane jest to do momentu osiągnięcia najrzadszej siatki na której otrzymane zagadnienie rozwiązywane jest dokładnie. W niniejszej pracy zostaną opisane dwie różne implementacje metody wieolsiatkowej Cykl V W cyklu V zaczynamy algorytm z poziomu najgęstszej siatki. Na tym poziomie wykonujemy zadaną liczbę iteracji wybraną metodą relaksacyjną (Jacobi, Gauss-Seidel, SOR). Następnie wyliczamy wektor residuów. Wektor ten posłuży za wektor prawych stron w rozwiązywaniu zagadnienia na rzadszej siatce. Zostaje on przeniesiony na węzły rzadszej siatki za pomocą jednej z trzech metod (Injection, HW, FW). Na niższym poziomie za rozwiązanie początkowe przyjmuje się rozwiązanie zerowe. Ponownie stosuje się zadaną liczbę iteracji wybraną metodą iteracyjną, wylicza residua i przechodzi poziom niżej. Na najniższym poziomie otrzymane zagadnienie rozwiązywane jest dokładnie dowolną metodą. Otrzymane wyniki interpoluje się na gęstszą siatkę wyższego poziomu i jako poprawka rozwiązania dodawane są do aktualnego wektora niewiadomych na danym poziomie. Na tym poziomie ponownie wykonywana jest zadana liczba iteracji wybraną metodą relaksacyjną. Otrzymane rozwiązanie interpolowane jest na wyższy poziom i dodawane jako poprawka. Proces ten powtarzany jest do momentu dojścia do 172

174 najwyższego poziomu. W ten sposób kończy się jeden cykl V. Proces ten jest powtarzany do uzyskania satysfakcjonującej dokładności rozwiązania. Cykl V jest przedstawiony na rys Cykl FMG (Pełna metoda wielosiatkowa) Największym problemem wykonywania obliczeń cyklem V jest brak odpowiedniego przybliżenia początkowego. Ten problem zostaje rozwiązany w cyklu FMG czyli tzn. pełnej metodzie wielosiatkowej. Obliczenia rozpoczynane są na najniższym poziomie od dokładnego rozwiązania zagadnienia na najrzadszej siatce. Wynik ten jest interpolowany na gęstszą siatkę i rozpoczynany jest cykl V dla tego poziomu. Otrzymany wynik ponownie jest interpolowany na gęstszą siatkę i rozpoczynany jest cykl V. Proces ten jest powtarzany do osiągnięcia najgęstszej siatki. Osiągnięte w ten sposób rozwiązanie stanowi przybliżenie początkowe do pełnego cyklu V. Jedna iteracja cyklu FMG daje dokładność obliczeń na poziomie błędu dyskretyzacji zagadnienia. Cykl FMG został przedstawiony na rys. 5. Rys. 2. Cykl V Rys. 3. Cykl FMG (Pełna metoda wielosiatkowa) 6. Testy Testy zostały przeprowadzone dla trójwymiarowego równania Poissona, którego rozwiązaniem była funkcja: ψ ( x, y,z ) = sin( 2πx) sin( 2πy) sin( 2πz ); x, y,z [ 0,1] (22) Z dwoma rodzajami warunków brzegowych. Badane były warunki brzegowe typu Dirichleta i okresowe. Jako metoda wygładzania została wykorzystana metoda SOR Red-Black Gaussa-Seidla. Przeniesienie wartości na niższe poziomy siatki było realizowane przy pomocy metody "połówkowego ważenia" (Half-Weighting). Rozwiązanie dokładne na najniższym poziomie było otrzymywane w wyniku iteracji metodą Gauss-Seidla. Za rozwiązanie uważano wektor dla którego maksymalna wartość residuów nie przekraczała 1.0E-4. Przeniesienie wartości na siatkę gęstszą było realizowane za pomocą interpolacji liniowej. Dla cyklu V zatrzymywanie obliczeń następowało w momencie gdy maksymalna wartość residuów dla najgęstszej siatki nie przekraczała wartości 1.0E-8. Dla cyklu FMG wykonywana była jedna iteracja. Wyniki otrzymanych przyspieszeń względem metody Fast Elliptic Solver działającej na jednym rdzeniu znajdują się na rysunkach 4 i 5. W tabeli 1 umieszczone zostały informacje o osiągniętych dokładnościach. Tab. 1. Dokładności obliczeń Liczba węzłów FES (CPU) MGD (GPU) FMG (GPU) 65x65x E E E-4 129x129x E E E-4 257x257x E E E-5 173

175 Rys. 4. Przyspieszenie obliczeń dla warunku brzegowego typu Dirichleta Rys. 5. Przyspieszenie obliczeń dla okresowego warunku brzegowego Skróty użyte w Tabeli 1 oraz rysunkach 5 i 6: FES - Fast Elliptic Solver, MGD Metoda wielosiatkowa, FMG Pełna metoda wielosiatkowa. 7. Wnioski Architektury równoległe kart graficznych pozwalają na uzyskanie znaczących przyspieszeń umożliwiają osiągnięcie przyspieszenia. Stosunek ceny wymaganego sprzętu do teoretycznej maksymalnej mocy obliczeniowej jest bardzo obiecujący i jednocześnie sprzęt ten jest łatwo dostępny. Ważnym elementem w obliczeniach równoległych jest odpowiedni dobór metody obliczeniowej. Przenoszenie wprost metod działających sekwencyjnie na pojedynczych rdzeniach nie dostarcza najszybszego rozwiązania. Literatura [1] Braide B. A Friendly Introduction to Numerical Analysis, Pearson Prentice Hall, 2006, [2] Thomas J.W. Numerical Partial Differential Equations: Conservation Laws and Elliptic Equations, Springer-Verlag, New York, 1999, [3] Trottenberg U., Oosterlee C.W., Schuller A. Multigrid, Academic Press, London, [4] PARALLELIZING MULTIGRID METHOD ON GPU FOR THREE-DIMENSIONAL POISSON EQUATION Partial differential equations are one of the most important part of physics. Especially it is related to the Poisson equation. In recent years computational power of a single processor has stopped rising. To speed-up calculations we decided to use multicore architecture of the graphics card (GPU). The fastest way to solve it numerically on a single processor is to use so called Fast Elliptic Solver. Unfortunately it cannot take advantage of multicore architectures. We decided to use multigrid method for parallel computations. To find out how large speed-up can be obtained tests were performed for two different boundary conditions. In this paper we showed two different implementations of the multigrid method (V-cycle and Full Multigrid method). 174

176 Zasada TPA w elektroenergetyce Joanna Kott 1 Streszczenie: Warunkiem i gwarancją istnienia wolnego rynku energii jest zasada dostępu stron trzecich do sieci zasada TPA (Third Party Access), dzięki której odbiorcy końcowi mogą indywidualnie i swobodnie wybierać sprzedawcę energii (wytwórcę lub spółkę obrotu), który zaoferuje najkorzystniejsze warunki sprzedaży, nadal korzystając z sieci energetycznej przedsiębiorstwa sieciowego (Operatora Systemu Przesyłowego lub Operatorów Systemów Dystrybucyjnych). W artykule przedstawiono podstawy prawne oraz ogólne przesłanki realizacji zasady TPA. Słowa kluczowe: zasada TPA, postawy prawne, OSD 1. Wprowadzenie Na rynku energii elektrycznej w Polsce długo panowała opinia, że idealny rynek to układ wytwórca - dystrybutor - konsument. Idealny jednak rynek, to rynek płynny, tzn. taki, na którym w dowolnym momencie można kupić i sprzedać oferowane na nim produkty, nie wpływając przy tym w sposób znaczący na ich chwilową cenę. Zapewnić to miała przyjęta przez Unię Europejską w dniu 26 czerwca 2003 rok dyrektywa 2003/54/WE Parlamentu Europejskiego i Rady w sprawie wspólnych zasad dla wewnętrznego rynku energii elektrycznej. 2. Podstawy prawne zasady TPA Unia Europejska przyjęła dyrektywę 2003/54/WE zwaną dyrektywą energetyczną, uchylającą dyrektywę 96/92/WE. W tym prawnym akcie wspólnotowym zawarto zasadę dostępu stron trzecich do sieci (zasada TPA, ang. Third Party Access). Dyrektywa ta przewiduje m.in. swobodny dostęp podmiotów gospodarczych do sieci nie będącej ich własnością, co umożliwia odbiorcom zakup energii elektrycznej bezpośrednio u wytwórcy i korzystanie z usług przesyłowych przedsiębiorstwa sieciowego [1]. Zgodnie z zawartymi w dyrektywie zapisami prawo wyboru sprzedawcy od 1 lipca 2004 roku mają w krajach członkowskich tzw. odbiorcy komercyjni, czyli wszyscy odbiorcy z wyjątkiem gospodarstw domowych. Pełne otwarcie rynku energii elektrycznej, czyli nabycie prawa również przez odbiorców w gospodarstwach domowych nastąpiło 1 lipca 2007 roku. Polska, jako kraj członkowski jest zobowiązana do przyjęcia odpowiednich rozwiązań prawnych, zgodnych z przesłankami prawa wspólnotowego. Wiele rozwiązań przyjętych w polskim 1 Politechnika Wrocławska, Instytut Organizacji i Zarządzania, ul Wybrzeże Wyspiańskiego 27, Wrocław, joanna.kott@pwr.wroc.pl Stypendystka projektu Przedsiębiorczy doktorant - inwestycja w innowacyjny rozwój regionu (Program Operacyjny Kapitał Ludzki, Priorytet VIII Regionalne Kadry Gospodarki, Działanie 8.2 Transfer Wiedzy, Poddziałania Regionalne Strategie Innowacji). Projekt współfinansowany ze środków Unii Europejskiej w ramach Europejskiego Funduszu Społecznego. 175

177 prawie energetycznym jest zbieżna z zapisami dyrektywy elektroenergetycznej 2003/54/WE. Według Ustawy Prawo energetyczne polscy odbiorcy mają prawo zakupu energii elektrycznej od wybranego przez siebie sprzedawcy (art. 4j). W celu zapewnienia odbiorcom możliwości korzystania z nadanego im prawa, ustawodawca zobowiązał przedsiębiorstwa świadczące usługi przesyłowe lub dystrybucyjne energii elektrycznej do świadczenia tych usług na zasadzie równoprawnego traktowania, wszystkim odbiorcom (art. 4 ust. 2). Świadczenie tych usług odbywa się na podstawie właściwej umowy. Ustawa Prawo energetyczne, podobnie jak dyrektywa elektroenergetyczna, wprowadza możliwość stosowania odstępstw od zasady TPA. Przedsiębiorstwo sieciowe może odmówić zawarcia umowy o świadczenie usług przesyłania lub dystrybucji energii elektrycznej. Zobowiązane jest jednocześnie powiadomić o tym fakcie Prezesa URE oraz zainteresowany podmiot (odbiorcę), podając uzasadnienie odmowy (art. 4g ust. 1). Podmiot występujący o zawarcie umowy o świadczenie usług sieciowych, może zwrócić się o przedstawienie informacji na temat działań, jakie należy podjąć, aby zmienić sieć w celu umożliwienia zawarcia umowy, a za opracowanie informacji może być pobrana opłata odzwierciedlająca koszty jej przygotowania (art. 4g ust. 2) [2]. Świadczenie usług sieciowych nie może obniżać niezawodności dostarczania i jakości energii elektrycznej poniżej poziomu wskazanego w przepisach prawa oraz powodować niekorzystnej zmiany cen lub stawek opłat za dostarczaną energię (art. 4f ust. 1) [2]. W artykule 4f Prawa energetycznego zapisana została, wspomniana wcześniej, zasada wzajemności. W przypadku odmowy świadczenia usług sieciowych, z powodu nieuznania odbiorcy za uprawnionego do wyboru sprzedawcy, Prezes URE na uzasadniony wniosek odbiorcy lub sprzedawcy, może zwrócić się za pośrednictwem Ministra Gospodarki, do Komisji Europejskiej o zobowiązanie państwa będącego członkiem UE lub Europejskiego Porozumienia o Wolnym Handlu (EFTA) stronie umowy o Europejskim Obszarze Gospodarczym, w którym odmówiono świadczenia usług sieciowych, do realizacji żądanej usługi [2]. 3. Realizacja zasady TPA w Polsce Na początku 2011 roku, ponad 10 tysięcy odbiorców z różnych grup taryfowych skorzystało z prawa wyboru sprzedawcy energii elektrycznej. Z danych udostępnionych przez URE wynika, że do końca lutego 2011 r. ponad 9 tysięcy odbiorców z grup taryfowych A, B i C (tzw. odbiorców komercyjnych) zmieniło sprzedawcę energii. Sytuacja choć nieznacznie, to jednak zmienia się także w grupie taryfowej G, czyli wśród klientów w gospodarstwach domowych [3]. Rys. 1. Liczba odbiorców w posycyeglnzch grupach tarzfowzch [3] 176

178 Korzystanie przez odbiorców energii z zasady TPA różni się u poszczególnych operatorów systemów dystrybucyjnych i jest w kraju nierównomierne. W 2010 roku Największa liczba odbiorców w grupach taryfowych A, B, C, w 2010 roku, którzy zmienili sprzedawcę, występowała na terenie działania ENERGIA PRO SA, ENION SA oraz ENERGA - Operator SA. Natomiast wśród gospodarstw domowych największa liczba odbiorców, którzy zmienili sprzedawcę, występowała na terenie działania PGE Dystrybucja SA Oddział Białystok. W 2010 r. największą wartość energii elektrycznej dostarczonej w ramach TPA zakupili odbiorcy przyłączeni do sieci spółki Vattenfall Distribution Poland SA. W spółce tej energia dostarczona do odbiorców korzystających z zasady TPA stanowiła ponad 42% całości dostaw. Na drugim miejscu był: ENION SA z 39%-owym udziałem energii elektrycznej dostarczonej w ramach TPA. Trzecie miejsce zajął PGE Dystrybucja Oddział Łódź-Miasto SA z ok. 26%-owym udziałem energii elektrycznej dostarczonej w ramach TPA. Największą spośród wszystkich dystrybutorów liczbę odbiorców korzystających z TPA odnotowano w EnergiaPro SA [3]. Mapa przedstawia korzystanie z prawa wyboru sprzedawcy na terenie działania poszczególnych operatorów systemów dystrybucyjnych Rys. 2. Liczba odbiorców TPA na terenie Operatorów Systemu Dystrybucji [3] 177

179 4. Podsumowanie Na polskim rynku energii elektrycznej tylko nieliczni odbiorcy korzystają z zasady TPA. Zauważalny jest jednak powolny wzrost osób korzystających z możliwości zmiany dostawcy energii. Istnieją liczne bariery, które skutecznie uniemożliwiają praktyczną implementację zasady TPA. Nakładające się na te bariery poziomy cen sprzedaży energii elektrycznej oraz silne zróżnicowane cen w różnych segmentach rynku stawiały i stawiają często pod znakiem zapytania opłacalność zmiany sprzedawcy energii elektrycznej przez odbiorcę. Literatura [1] Dyrektywa 2003/54/WE Parlamentu Europejskiego i Rady z dnia 26 czerwca 2003 r. dotycząca wspólnych zasad rynku wewnętrznego energii elektrycznej i uchylająca dyrektywę 96/92/WE. [2] Ustawa Prawo energetyczne z dn , z późniejszymi zmianami. [3] THE THIRD PARTY ACCESS IN POWER SECTOR Precondition and guarantee of a free market principle is the energy of third party access to networks - the principle of TPA (Third Party Access). By way of TPA endusers can freely choose individually and electricity retailer, manufacturer or marketing company. The selection is made based on the most favorable terms of sale, still using the power grid company network (Transmission System Operator or Distribution System Operator). Number of customers from different tariff groups exercising their right to choose the supplier of electricity in Poland is slowly increasing. The most important legal document that describes the national policy TPA is Energy Law. This document provides detailed guidelines for the DSO. The article also presents data on customers who have made changes to the energy vendor. Data refer to early

180 Krajowe regulacje wpływające na rozwój energetyki odnawialnej w Polsce Joanna Kott 1 Streszczenie: Jednym z priorytetowych działań Unii Europejskiej jest zrównoważona polityka energetyczna. Jednym z jej filarów jest promowanie odnawialnych źródeł energii. W artykule przedstawiono krajowe dokumenty prawne wpływające na rozwój odnawialnych źródeł energii (OZE) w Polsce. Szczegółowo opinano m. in. Ustawę prawo energetyczne. Słowa kluczowe: odnawialne źródła energii, prawo krajowe, Ustawa prawo energetyczne 1. Wstęp Polska poprzez przystąpienie do Unii Europejskiej, zobowiązała się realizacji wspólnych celów określonych przez Komisję Europejską. Na każdym nowym kraj członkowskim Unii Europejskiej spoczywa obowiązek dostosowania krajowych ustaw, przepisów i regulacji do wspólnego prawa unijnego. Z tego powodu nieodzowna jest ścisła współpraca regulacyjna pomiędzy krajami członkowskimi. Współpraca ta ma dotyczyć między innymi sektora elektroenergetycznego. Rozwój odnawialnych źródeł energii, zarówno w Polsce jaki w Unii Europejskiej, pozwala na zdywesyfkowanie źródeł dostaw energii. Energetyka odnawialna charakteryzuje się najczęściej niewielkimi jednostkami wytwórczymi zlokalizowanymi blisko odbiorcy. Wytwarzanie energii z OZE cechuje się niewielką lub zerową emisją zanieczyszczeń, co pozytywnie wpływa na środowisko [4, 5, 6]. 2. Prawo krajowe Ustawa prawo energetyczne z kwietnia 1997 roku jest pierwszym polskim dokumentem, w którym zdefiniowano odnawialne źródło energii oraz określono mechanizmy wsparcia produkcji energii z OZE. Jednym z głównych mechanizmów jest system tzw. zielonych certyfikatów. System ten dotyczy przedsiębiorstw energetycznych, które zajmują się sprzedażą energii elektrycznej odbiorcom końcowym. Na przedsiębiorstwach spoczywa obowiązek uzyskania i przedstawienia do umorzenia Prezesowi Urzędu Regulacji Energetyki określonej ilości świadectw pochodzenia energii elektrycznej wytworzonej w odnawialnych źródłach energii, bądź uiszczenia opłaty zastępczej [8]. W styczniu 2010 roku nastąpiła nowelizacja Ustawy prawo energetyczne obejmująca m.in. nowe regulacje w zakresie świadectw pochodzenia energii ze źródeł odnawialnych, jak i wysokosprawnej kogeneracji. Wprowadzono świadectwa, dla biogazu rolniczego, które traktowane są jak świadectwa dla energii elektrycznej wytarzanej w odnawialnych źródłach energii. W 1 Politechnika Wrocławska, Instytut Organizacji i Zarządzania, ul Wybrzeże Wyspiańskiego 27, Wrocław, joanna.kott@pwr.wroc.pl Stypendystka projektu Przedsiębiorczy doktorant - inwestycja w innowacyjny rozwój regionu (Program Operacyjny Kapitał Ludzki, Priorytet VIII Regionalne Kadry Gospodarki, Działanie 8.2 Transfer Wiedzy, Poddziałania Regionalne Strategie Innowacji). Projekt współfinansowany ze środków Unii Europejskiej w ramach Europejskiego Funduszu Społecznego. 179

181 przypadku energii pochodzącej z wysokosprawnej kogeneracji, wprowadzono dodatkowe świadectwa pochodzenia dla energii wytwarzanej w wysokosprawnej kogeneracji opalanej metanem [8]. Rada Ministrów w 2010 roku przyjęła Politykę energetyczną Polski do 2030 r. Dokument ten zawiera długoterminową strategię rozwoju sektora energetycznego, prognozę zapotrzebowania na paliwa i energię oraz program działań wykonawczych do Najważniejsze założenia polskiej polityki energetycznej wiążą się z ustaleniami przyjętymi w projekcie Pakietu klimatycznoenergetycznego Unii Europejskiej. Główne cele polityki energetycznej w zakresie rozwoju wykorzystania OZE obejmują [5]: a. Wzrost udziału odnawialnych źródeł energii w finalnym zużyciu energii co najmniej do 15% w 2020 roku oraz dalszy wzrost tego wskaźnika w ciągu kolejnych lat, b. Osiągnięcie w 2020 roku 10% udziału biopaliw w rynku paliw transportowych, oraz zwiększenie wykorzystania biopaliw II generacji, c. Ochronę lasów przed nadmiernym eksploatowaniem, w celu pozyskiwania biomasy oraz zrównoważone wykorzystanie obszarów rolniczych na cele OZE, w tym biopaliw, tak aby nie doprowadzić do konkurencji pomiędzy energetyką odnawialną i rolnictwem oraz zachować różnorodność biologiczną, d. Wykorzystanie do produkcji energii elektrycznej istniejących urządzeń piętrzących stanowiących własność Skarbu Państwa, e. Zwiększenie stopnia dywersyfikacji źródeł dostaw oraz stworzenie optymalnych warunków do rozwoju energetyki rozproszonej opartej na lokalnie dostępnych surowcach. W dużej mierze działania określone w polityce energetycznej będą realizowane przez komercyjne firmy energetyczne, działające w warunkach konkurencyjnych rynków paliw i energii lub rynków regulowanych. Wobec powyższego, interwencjonizm państwa w funkcjonowanie sektora musi mieć ograniczony charakter i jasno określony cel. Cel ten to zapewnienie bezpieczeństwa energetycznego kraju. Tylko w takim zakresie i w zgodzie z prawem UE stosowana będzie interwencja państwa w sektorze energetycznym[5]. Planowane działania na rzecz rozwoju OZE, określone w polityce energetycznej, pozwolą na osiągnięcie zamierzonych celów udziału odnawialnych źródeł energii. Efektem działań będzie zapewnienie bezpieczeństwa energetycznego kraju, zrównoważony rozwój OZE, w tym biopaliw oraz zmniejszenie emisji CO2 [5]. Kolejnym dokumentem wpływającym na rozwój OZE w bilansie energetycznym Polski było przyjęcie dyrektywy 2009/28/WE w sprawie promowania stosowania energii ze źródeł odnawialnych. Dyrektywa ta wpisuje się w realizację Pakietu klimatyczno-energetycznego i dotyczy zwiększenia udziału energii pochodzącej ze źródeł odnawialnych. Dokument ten m.in. wyznacza wspólne ramy dla promowania energii ze źródeł odnawialnych, określa krajowe cele ogólne w odniesieniu do całkowitego udziału energii ze źródeł odnawialnych w końcowym zużyciu energii brutto i w odniesieniu do udziału energii ze źródeł odnawialnych w transporcie [2]. W załączniku I dyrektywy 2009/28/WE określony jest 15% udział energii ze źródeł odnawialnych w końcowym zużyciu energii brutto w 2020 roku. Dyrektywa 2009/28/WE nie wprowadza jednolitego systemu wsparcia dla energii pochodzącej ze źródeł odnawialnych na terenie krajów członkowskich. Każde państwo UE dokonuje wybór sposobu wspierania energii pochodzącej z OZE, przy czym przewidziano możliwość wspierania energii ze źródeł odnawialnych wytworzonej na terenie innego państwa członkowskiego. Do narzędzi współpracy w zakresie energii ze źródeł odnawialnych należy zaliczyć[2]: 180

182 a. transfery statystyczne energii ze źródeł odnawialnych pomiędzy krajami członkowskimi, b. wspólne projekty w zakresie budowy instalacji wytwarzania energii ze źródeł odnawialnych pomiędzy krajami członkowskimi, c. wspólne projekty w zakresie budowy instalacji wytwarzania energii ze źródeł odnawialnych pomiędzy krajami członkowskimi i państwami trzecimi, d. wspólne systemy wsparcia powiązane z transferami statystycznymi. Każde państwo członkowskie zostało zobowiązane do opracowania i przyjęcia krajowych planów działania w zakresie energii ze źródeł odnawialnych. Zakres tych planów obejmuje [2]: a. krajowe cele w zakresie udziału energii ze źródeł odnawialnych w sektorach transportowym, energii elektrycznej, ogrzewania i chłodzenia, b. wpływ środków polityki efektywności energetycznej na końcowe zużycie energii oraz odpowiednie środki, które należy podjąć dla osiągnięcia krajowych celów ogólnych, w tym współpracę między organami władzy lokalnej, regionalnej i krajowej, c. zaplanowane transfery statystyczne lub wspólne projekty, d. krajowe strategie ukierunkowane na rozwój istniejących zasobów biomasy i zmobilizowanie nowych zasobów biomasy do różnych zastosowań, e. środki, które należy podjąć w celu wypełnienia zobowiązań dotyczących procedur administracyjnych, regulacji prawnych, dostępu do sieci elektroenergetycznej oraz zrównoważonego rozwoju w zakresie biopaliw i biopłynów. Wszystkie powyższe regulacje prawne dowodzą, że energetyka odnawialna, jest szczególnie istotna dla państw europejskich. Wszystko także wskazuje, że jeszcze długo stopień jej istotności się nie zmniejszy a wręcz będzie wzrastał. 3. Podsumowanie Poczynione kroki prawne w Europie i w Polsce zmierzają w kierunku większego uprzywilejowania odnawialnych źródeł energii. Wynika to głównie z postanowień zawartych w pakiecie klimatyczno-energetycznym, którego jednym z sygnatariuszy była Polska. Obecnie istnieje jeszcze wiele barier legislacyjno-prawnych, które opóźniają realizację celów krajowych. Głównymi barierami są m.in.: brak jasnej polityki rozwoju energetyki odnawialnej, niespójne przepisy prawa dotyczące przyłączania OZE do sieci, brak odpowiednich regulacji prawnych np. planów zagospodarowania przestrzennego oraz przede wszystkim zły stan polskich sieci przesyłowych. Literatura [1] Dobroczyńska A., Juchniewicz L., Zaleski B.: Regulacja energetyki w Polsce. Wydawnictwo Adam Marszałek, Toruń [2] Dyrektywa Parlamentu Europejskiego i Rady 2009/28/WE z dnia w sprawie promowania energii ze źródeł odnawialnych zmieniająca i w następstwie uchylająca dyrektywy 2001/77/WE oraz 2003/30/WE. [3] Europejska Polityka Energetyczna, Komisja Wspólnot Europejskich, KOM (2007) 1, Bruksela, [4] Ney R: Uwagi w sprawie polityki energetycznej Unii Europejskiej, Polityka Energetyczna, tom 10, zeszyt specjalny

183 [5] Polityka energetyczna Polski do 2030 roku, Warszawa. [6] Surdej A: Determinanty regulacji administracyjnoprawnych w oddziaływaniu państwa na gospodarkę. Wydawnictwo Akademii Ekonomicznej w Krakowie, Kraków [7] Trefor J.: Business economics and managrial decision making, John Wiley &Sons, LTD, West Sussex England, 2005; Weber. [8] Ustawa Prawo energetyczne z dn , z późniejszymi zmianami. [9] NATIONAL REGULATIONS INFLUENCING ON DEVELOPMENT OF RENEWABLE ENERGY IN POLAND One of the priority activities of the European Union is a sustainable energy policy. One of its pillars is the promotion of renewable energy sources. Polish accession to the European Union has committed itself to the common objectives set by the European Commission. For each new member state of the European Union is responsible for adapting national laws, rules and regulations for common EU law. The article presents the national legal documents affecting the development of renewable energy sources (RES) in Poland. Hug detail, inter alia, the Energy Law, Polish Energy Policy until 2030 the provisions of which are associated with the arrangements laid down in the draft Climate Package, the European Union. 182

184 Metodyka optymalizacji produkcji z zastosowaniem TRIZ oraz DFSS Sebastian Koziołek 1, Mariusz Ptak 2 Streszczenie: W artykule przedstawiono fragment kompletnej metodyki optymalizacji procesów produkcyjnych z zastosowaniem wybranych narzędzi teorii TRIZ oraz strategii Design for Six Sigma. Zaprezentowano etapy innowacyjnego rozwiązywania problemów technicznych posiłkując się przykładami wdrożenia opisywanej metodyki w wybranych przedsiębiorstwach produkcyjnych. Słowa kluczowe: optymalizacja produkcji, TRIZ, DFSS, zarządzanie jakością 1. Problemy jakości w procesie wytwarzania Przedsiębiorstwa produkcyjnie nieustannie borykają się z problemami utrzymania stałej jakości w produkcji. Często problemy te powodowane są trudną technologią i niewłaściwym dostosowaniem do niej narzędzi i maszyn produkcyjnych. Innym razem źródłem problemów jest brak komunikacji pomiędzy procesem projektowania i wytwarzania, a także poprawianie wydajności bez zmiany warunków produkcji, technologii, czy surowców. Problemów i ich przyczyn jest o wiele więcej i nie sposób je wszystkie wymienić. Niemniej jednak, mogą one być źródłem pozytywnych zmian w przedsiębiorstwie. Usuniecie awarii, czy poprawa wydajności produkcji to nie jedyny pozytywny efekt pojawienia się problemu. Mogą być one także źródłem nowych pomysłów rozwoju produktu i zastosowania nowej technologii wytwarzania. Podejście to stanowi podstawę opracowania prezentowanej metodyki optymalizacji produkcji z zastosowaniem teorii innowacyjnego rozwiązywania problemów technicznych [2, 3, 8, 10] oraz wybranych narzędzi i metod strategii DFSS (Design for Six Sigma) [4, 6, 7, 9]. Optymalizacja produkcji, podobnie jak optymalizacja obiektu technicznego, przeprowadzana jest na podstawie określonych kryteriów oceny. Kryteria nie są jednak podstawą bezpośredniego wprowadzania zmian konstrukcyjnych, czy technologicznych. Służą one jedynie do właściwego katalogowania problemów, ich przyczyn i miejsca powstania w celu analizy statystycznej. Takie zastosowania przyjęło do realizacji wiele firm produkcyjnych, które prowadzą pełną statystykę zarejestrowanych problemów wytwarzania. Jedną z istotnych przyczyn analizy statystycznej problemów produkcyjnych jest koszt działań korygujących, które często znacznie przewyższają koszty działań zapobiegawczych [5]. W związku z tym dodatkową analizą, która stanowi podstawę innowacyjnego rozwiązywania problemów, jest mapowanie przepływu strumienia wartości [5]. Model takiej analizy (rys. 1) umożliwia identyfikację etapu produkcyjnego, w którym problem jest spowodowany. Wynikiem tej analizy jest także właściwa definicja zarejestrowanego problemu produkcyjnego. 1 Politechnika Wrocławska, Instytut Konstrukcji i Eksploatacji Maszyn, ul. Łukasiewicza 7/9, Wrocław, Sebastian.koziolek@pwr.wroc.pl 2 Politechnika Wrocławska, Instytut Konstrukcji i Eksploatacji Maszyn, ul. Łukasiewicza 7/9, Wrocław, Mariusz.ptak@pwr.wroc.pl 183

185 Rys.1. Schemat procesu analizy wartości dodanej w procesie produkcyjnym 2. Wiedza o systemie produkcyjnym Właściciele procesów produkcyjnych często bazują wyłącznie na swojej wiedzy o systemie wytwarzania. Mimo długoletniego doświadczenia zwykle nie są w stanie opisać większości zjawisk fizycznych występujących w procesie produkcyjnym. Jednym z podstawowych 3 etapów zastosowania proponowanej metodyki jest opis procesu wytwarzania, wyznaczenie jego lokalizacji oraz parametryczny opis problemu (rys. 2). Takie postępowanie umożliwia uzupełnienie wiedzy o tym fragmencie procesu produkcyjnego, w którym powstał kluczowy problem. Opis procesu i przepływ strumienia wartości Powołanie zespołu -DFSS- Identyfikacja lokalizacji problemu produkcyjnego Ograniczenia i funkcje Parametryczny opis problemu produkcyjnego Uzupełnianie wiedzy o systemie produkcyjnym Rys. 2. Wybrane etapy zastosowania metodyki optymalizacji procesu produkcyjnego Metodykę optymalizacji produkcji zastosowano m. in. w przedsiębiorstwie produkcji płytek ceramicznych, które wyraziło chęć doskonalenia procesu produkcyjnego. Problem zidentyfikowany przez pracowników przedstawiony został jako błędy powstawania pręg na płytce. Przedsiębiorstwo to nie stosowało dotychczas rejestracji problemów produkcyjnych, w związku z tym przeprowadzono wstępną analizę statystyczną błędów szkliwienia płytek ceramicznych. W wyniku tej analizy oszacowano jedynie zakres zmienności pojawiania się pręg na powierzchni płytki. Błędy szkliwienia były przyczyną zatrzymania linii produkcyjnej nawet do 10h, a pręgi pojawiały się na płytkach wytwarzanych na wszystkich sześciu liniach produkcyjnych. Problem pręg zwykle rozwiązywano sortując gotowe produkty i nadając im jakość dwu lub trzecio gatunkową. Takie rozwiązywanie problemów zwykle generuje ogromne straty zwłaszcza, że utrzymanie pierwszego gatunku jakości bywa kłopotliwe nawet przez kilka kolejnych zmian. W początkowej fazie projektu przeprowadzono analizę procesu produkcyjnego określając lokalizację powstawania błędów szkliwienia oraz charakterystykę maszyn i urządzeń (rys. 3). 184

186 Rys. 3. Proces szkliwienia płytek ceramicznych (1-dzwon, 2-płytka, 3-przenośnik, 4-rama przenośnika) Następnie opracowano plan pomiarów i analiz w celu identyfikacji zachodzących zjawisk fizycznych w badanym etapie procesu produkcyjnego. W planie tym opisano badane elementy procesu, mierzone parametry oraz aparaturę pomiarową (rys. 3). Następnie scharakteryzowano problem produkcyjny definiując jednocześnie sposoby identyfikacji zachodzących zjawisk fizycznych (rys. 5). Podczas pomiarów zarejestrowano poziomy drgań dzwonów i ram w osi pionowej, przemieszczenia kurtyny szkliwa, amplitudę i wysokość profilu płytek po szkliwieniu oraz prędkość płytek. Badania przeprowadzono na wszystkich liniach produkcyjnych. Do pomiarów zastosowano zaawansowaną aparaturę badawczą w postaci szybkiej kamery, wibrometru oraz profilometru (rys. 3). W wyniku tych działań dokonano szczegółowej charakterystyki błędu szkliwienia płytek ceramicznych, którego źródłem był zmienny poziom drgań dzwonu. Po przeprowadzeniu analizy opracowano precyzyjną definicję błędu pręg oraz opracowano matematyczny model powstawania tego problemu technicznego (rys. 4). 3. Sprzeczności parametryczne Rys. 4. Matematyczny model powstawania błędu pręg podczas procesu szkliwienia płytek ceramicznych Parametryczna definicja problemu produkcyjnego jest warunkiem koniecznym przystąpienia do jego rozwiązywania. Jednak przed opracowaniem koncepcji należy określić sprzeczności parametryczne badanego układu. Sprzeczności te stanowią podstawię opracowania koncepcji rozwiązań projektowych z zastosowaniem wybranych narzędzi i metod teorii TRIZ oraz strategii DFSS. 185

187 Inną firmą, która wyraziła chęć zastosowania prezentowanej metodyki było przedsiębiorstwo produkcji półosi do samochodów osobowych. Problemem produkcyjnym, nad którym pracowano przez niemal 3 lata było utrzymanie w pełni automatycznego charakteru montażu pierścieni zabezpieczających na półosie. Niestety utrzymanie ciągłości produkcji wymagało zaangażowania operatora do niemal 80% montowanych pierścieni. Analiza wydajności procesu produkcyjnego uwidoczniła jeden z kluczowych problemów produkcyjnych bezpośrednio wpływających na wydajność produkcji. Po zdefiniowaniu problemu produkcyjnego zacinania się pierścienia zabezpieczającego (rys. 5) podczas transportu na stożek stabilizujący (rys. 6) przystąpiono do wyznaczania sprzeczności parametrycznych. Rys. 5. Przykładowa ilustracja pierścienia zabezpieczającego z widocznym brakiem symetrii kształtu Rys. 6. Stanowisko montażu pierścieni zabezpieczających półosi do samochodów osobowych Na podstawie pomiarów zachodzących zjawisk fizycznych podczas montażu pierścieni zabezpieczających na półosie przeprowadzono analizę problemu w kontekście identyfikacji sprzeczności parametrycznych. W tym konkretnym przypadku zastosowano narzędzie operatora systemowego 9boxes [10] teorii innowacyjnego rozwiązywania zadań. Zdefiniowany problem potraktowano szerzej jako system, który powiązany jest z podsystemem i nadsystemem w teraźniejszości, przeszłości i przyszłości (rys. 7). NADSYSTEM Podajnik pierścieni Droga doprowadzenia pierścienia z listwą Listwa w fazie umieszczania pierścienia na stożku SYSTEM Pierścień w podajniku Pierścień na drodze doprowadzenia na stożek Pierścień na stożku PODSYSTEM Sztywne końce pierścienia Sztywne przeszkody na drodze doprowadzenia pierścienia na stożek Określenie pozycji pierścienia PRZESZŁOŚĆ TERAŹNIEJSZOŚĆ PRZYSZŁOŚĆ Rys. 9. Operator systemowy 9boxes zastosowany do pracowania sprzeczności parametrycznych problemu montażu pierścieni na półosie 186

188 Proces identyfikacji sprzeczności parametrycznych bywa niezwykle kłopotliwy i jest on kluczowym etapem rozwiązywania problemów wytwarzania z zastosowaniem metody optymalizacji produkcji. Etap ten wymaga przeprowadzenia wnikliwej analizy i opracowania matematycznego modelu występowania problemu. W związku z tym przystępowanie do wyznaczania sprzeczności parametrycznych bez wnikliwej analizy systemu ma bardzo małe szanse powodzenia w rozwiązywaniu problemów, a tym bardziej w projektowaniu innowacyjnych technologii produkcji. Poszukiwanie sprzeczności parametrycznych w systemie montażu pierścieni zabezpieczających na półosie do samochodów osobowych przeprowadzone zostało z zastosowaniem tzw. drzewa sprzeczności parametrycznych (rys. 10). Pierścień posiada parametr Odległość transportu [mm] Powinna być Duża odległość Mała odległość ale w celu w celu ale P1 (-): zła pozycja pierścienia P2 (+): pierścień na stożku P1 (+): właściwa pozycja pierścienia P2 (-): pierścień niedostarczony na stożek Rys. 10. Drzewo sprzeczności parametrycznych systemu 4. Rozwiązywanie problemów produkcyjnych Wyznaczona sprzeczność parametryczna dla systemu montażu pierścieni zabezpieczających na półosie samochodów osobowych związana jest z odległością transportu pierścienia z podajnika pierścieni na stożek (rys. 8). Odległość transportu pierścienia powinna być i krótka i długa. Duża odległość pokonywana jest w celu umieszczenia pierścienia na stożku. Jest to uwarunkowane konstrukcją omawianego stanowiska produkcyjnego. Jednocześnie długa droga wpływa na możliwość obrotu pierścienia w związku z jego niesymetrycznym kształtem. Krótka droga transportu umożliwiłaby utrzymanie właściwej pozycji pierścienia, ale niepozwana na umieszczenie pierścienia na stożku. W wyniku zastosowania szeregu innych narzędzi teorii innowacyjnego rozwiązywania zadań opracowano koncepcję transportowania pierścienia na listwie, która dotychczas przesuwała go po bieżni. Droga transportu była długa z punktu widzenia pierścienia na stożku P2(+), ale krótka z punktu widzenia właściwej pozycji pierścienia P1(+) (rys. 10). Koncepcja ta została wykorzystana do opracowania projektu technicznego optymalizacji stanowiska automatycznego montażu pierścieni zabezpieczających na półosie do samochodów osobowych. W tym przypadku podstawowym kryterium optymalizacji było utrzymanie wysokiej efektywności pracy na stanowisku. Kryterium to zostało sformułowane bardzo ogólnie, podobnie jak kryteria oceny konstrukcji (rys. 1). W związku z tym proponowana metodyka optymalizacji produkcji umożliwia identyfikację właściwego zbioru szczegółowych kryteriów, które nie tylko stanowią podstawę oceny konstrukcji, ale także wskazują właściwą drogę w poszukiwaniu rozwiązań problemów produkcyjnych. 187

189 4. Podsumowanie Zaprezentowana metodyka optymalizacji produkcji obecnie jest w fazie testowania w przemyśle i wciąż ulega modyfikacjom. Faza opracowywania koncepcji rozwiązywania problemów produkcyjnych jest najbardziej twórczym etapem zastosowania proponowanej metodyki. W związku z tym ten obszar działalności wciąż jest rozwijany zwłaszcza w kontekście zastosowania wybranych metod heurystycznych, głównie Synektyki [1, 2, 3], oraz metody uzupełniania wiedzy z zastawaniem nowego podejścia Brain Network. Ten obszar badań jest niezwykle ekscytujący, a ponadto umożliwia opracowywanie koncepcji interdyscyplinarnych pozbawionych dominacji tylko jednej z dziedzin nauki. Literatura [1] Arciszewski T., Michalski,R.S.: Inferential Design Theory, chapter, in the book Artificial Intelligence in Design 94, Kluwer Academic Publishers, USA, [2] Arciszewski T.: Successful Education. How to Educate Creative Engineers, Successful Education LLC, [3] Arciszewski. T., Grabska E., Harrison C.: Visual Thinking in Inventive Design: Three Perspective, Saxe-Coburg Publications, UK, [4] Breyfogle III F. W. Implementing Six Sigma: Smarter Solutions using Statistical Methods, John Wiley and Sons, New York, USA, [5] Kleyner A., Sandborn P., Boyle J.: Minimization of Life Cycle Costs Through Optimization of the Validation Program A Test Sample Size and Warranty Cost Approach. Elsevier: International Journal of Production Economics, USA, [6] Kwak Y. H., Anbari F. T.: Benefits, obstacles, and future of six sigma approach. Elsevier: Technovation, USA, [7] Mazur G. H.: QFD in Support of Design for Six Sigma (DFSS), 14th Symposium on QFD, USA, 2003 [8] Shirwaiker R. A., Okudan G. E.: Triz and axiomatic design: a review of case-studies and a proposed synergistic use, Springer Science+Business Media, LLC, USA, [9] Sokovic M., Pavletic D., Fakin S.: Application of Six Sigma methodology for process design. Elsevier: Journal of Materials Processing Technology, USA, [10] YUAN Feng, WANG Tai-yong, NIE Hui-juan. Function and principle innovative design of mechanical products based on TRIZ/FA. Higher Education Press and Springer-Verlag METODOLOGY OF MANUFACTURING OPTIMIZATION WITH THE USE OF TRIZ AND DFSS The paper presents a part of a complete methodology of manufacturing optimization with the use of selected tools of TRIZ and Design for Six Sigma. The 3 main phases of methodology application ware described. Problem description, advanced knowledge acquisition and problem solving ware presented based on the implemented conceptions in the industry. In summary the new research direction of innovative design was shown. 188

190 Zastosowanie metody dyfuzyjnej w oparciu o metodę różnic skończonych w modelowaniu pola akustycznego modyfikacje warunków brzegowych Jarosław Kraszewski 1 Streszczenie: Prognozowanie pola akustycznego w oparciu o równanie dyfuzyjne pozwala na obliczenie energii pole akustycznego traktując dźwięk jako zbiór cząstek nazywanych fononami. Opisany w artykule model dyfuzyjny oparty jest na dwóch hipotezach: pole dźwiękowe jest jednorodne, oraz strumień energii dźwiękowej jest taki sam we wszystkich kierunkach. Dzięki modelowi można symulować pole dźwiękowe w pomieszczeniach o różnym współczynniku pochłaniania w stanie ustalonym i zmiennym w czasie. Artykuł pokazuje sposób numerycznej implementacji obliczeń gęstości energii akustycznej używając metody różnic skończonych, a także pokazuje modyfikacje równana brzegowego pozwalające na zmniejszenie czasu obliczeń i generowania dodatkowej energii. 1. Wprowadzenie Słowa kluczowe: równanie dyfuzyjne, fonon, akustyka architektoniczna, pole akustyczne Model dyfuzyjny jest oparty na równaniu dyfuzyjnym, odnoszącym się do dyfuzji cząsteczek gazu, oraz odbić tych cząsteczek pomiędzy sobą. Model oparty jest na dwóch hipotezach: pole dźwiękowe jest jednorodne oraz strumień energii dźwiękowej jest taki sam we wszystkich kierunkach [1]. Początkowo model brał pod uwagę jedynie średni współczynnik pochłaniania ścian, dodatkowo był rozważany tylko w przypadkach pomieszczeń o uproszczonych kształtach takich jak: tunele o nieskończonych wymiarach, długie korytarze [2] czy ulice [3]. Później model został wzbogacony o warunki brzegowe, które dawały możliwość wprowadzenia różnych współczynników pochłaniania ścian [4]. Model dyfuzyjny został również porównany do modeli geometrycznych, oraz zweryfikowany na podstawie pomiarów połączonych pomieszczeń [5]. Następnie Jing i Xiang [6] zaproponowali użycie w równaniach brzegowych formuły Eyringa, aby otrzymać lepsze rezultaty w pomieszczeniach o większych współczynnikach pochłaniania. Kolejne artykuły rozszerzały zakres działania modelu i dawały możliwości użycia w pomieszczeniach z lustrzanymi odbiciami (bez odbić rozproszonych) [7], [10]. Równocześnie równanie dyfuzji zostało użyte do badania przenikania dźwięku przez ścianę działową [8]. W tym samym czasie model wzbogacono o pochłanianie przez powietrze [9]. 2. Teoria Model dyfuzyjny bazuje na pojęciu cząsteczek dźwięku zwanych fononami, czyli cząsteczek o stałej energii poruszających się po linii prostej z prędkością c, uderzających zarówno o ściany jak i elementy rozpraszające. Energia fononów oraz ich kolizji jest przyrównana do energii cząstek w gazie, rozpraszanych przez inne cząsteczki. Proste równanie dyfuzji wygląda następująco:, (1) 1 Politechnika Wrocławska, Wybrzeże Wyspiańskiego 27, Wrocław; jaroslaw.kraszewski@o2.pl 189

191 w którym J to strumień energii. Dla małych zmian w czasie lokalny strumień energii J(r,t) jest aproksymowany do lokalnego gradientu gęstości cząsteczek w(r,t):. (2) Dla przypadku ze stałym współczynnikiem dyfuzji, równanie dyfuzji przyjmuje postać: Gęstość cząsteczek może zostać wyznaczona na podstawie równania dyfuzji:. (3), (4) w którym q(r,t) jest funkcją źródła dźwięku, definiującą liczbę generowanych cząsteczek w jednostce czasu i objętości w punkcie r i czasie t. D jest współczynnikiem dyfuzji, natomiast σ określa pochłanianie energii przez elementy rozpraszające (w gazie). Aby wyprowadzić analogię pomiędzy współczynnikiem pochłaniania cząsteczek gazu α i współczynnikiem pochłaniania ścian modelu α r, gęstość energii może zostać opisana tym samym równaniem co gęstość cząsteczek w środowisku rozpraszającym. Współczynnik dyfuzji D oraz wyrażenie σ określające pochłanianie energii w gazie, może zostać zapisane w postaci:, (5). (6) Droga swobodna, określająca drogę którą przebędzie cząsteczka pomiędzy kolizjami ze ścianami określona jest jako:, (7) V r i S r to odpowiednio objętość oraz całkowita powierzchnia pomieszczenia. Aby użyć równania dyfuzji w pomieszczeniu ograniczonymi ścianami, muszą zostać wprowadzone równania brzegowe. Warunki brzegowe wyeliminują możliwość przenikania energii przez ściany modelu. Ponieważ wyrażenie definiujące pochłanianie energii σw(r,t) opisujące zmiany gęstości energii w czasie jest już uwzględnione w równaniu, aby zapewnić warunki brzegowe wprowadza się warunek brzegowy Neumanna. w V, (8) na S. (9) Wyrażenie σ r w(r,t), definiujące pochłanianie energii przez ściany pomieszczenia, może zostać porównane do wychodzącego strumienia energii (2). Otrzymujemy akustyczne równanie dyfuzji z warunkiem brzegowym: 3. Sposób rozwiązania w V, (10) na S. (11) Równanie (10) oraz (11) są równaniami różniczkowymi cząstkowymi, które mogą zostać rozwiązane poprzez zastosowanie metody różnic skończonych. Używając rozwinięcia funkcji w danym punkcie w szereg Taylora, a później używając ilorazu różnicowego centralnego pierwszej i drugiej pochodnej, otrzymujemy prostą formę iteracyjną tych równań [11]:, (12) 190

192 . (13) Ostatecznie równanie (12) w prostej formie iteracyjnej (dla przypadku 1D) może zostać zapisane jako:, (14) gdzie. Posiadając wiedzę o wartościach energii w punktach otaczających w poprzednim kroku czasowym, możemy wyznaczyć wartość energii interesującego nas punktu w kolejnym kroku czasowym. Otrzymujemy tzw. metodę jawną równania, zwaną również FTCS (Forward Time, Central Space). Metoda jest stabilna numerycznie dla 0<δ<0,5 (dla przypadku 1D) co oznacza, że dla tych wartości δ błąd w kolejnych iteracjach nie rośnie. Użycie tej metody cechuje się niskim zapotrzebowaniem obliczeniowym. 4. Obliczanie dodatkowych punktów Użycie ilorazu centralnego (12), (14) daje lepszą aproksymację funkcji, jednak zmusza nas do obliczenia dodatkowego punktu przy obliczaniu warunku brzegowego. Zauważmy, że obliczając warunek brzegowy musimy mieć informację o wartości energii w punkcie przed i za ścianą. Jeżeli mowa o przypadku 1D, obliczamy zaledwie dwa punkty dodatkowe (dodatkowe oznacza w tym przypadku dwa punkty poza modelem) to niewiele, ale już dla przypadku 2D musimy obliczyć dodatkowo: 2 (i+j) punktów, gdzie i oraz j to wymiary przestrzeni 2D. W przypadku trójwymiarowym jest to już: 2 ((i j)+(k i)+(k j)) dodatkowych punktów (i, j, k to wymiary pomieszczenia). Rysunek 1 oraz rysunek 2 pokazują w procentach stosunek punktów zewnętrznych do wewnętrznych, dla przypadku modelu o stałym kroku przestrzennym Δx wzdłuż wymiarów i, j oraz k. Stosunek ten zależy od kształtu i wymiarów modelu. Wraz ze wzrostem modelu stosunek spada, jednak nawet dla modelu o wymiarach 50 x 50 x 50 punktów wynosi ponad 10% dodatkowych punktów do wyliczenia. Oznacza to, że ze 125 tys. punktów wewnątrz pomieszczenia, należy wyliczyć dodatkowo 15 tys. punktów spoza pomieszczenia w każdej iteracji czasowej. Aby wyeliminować konieczność wyliczania energii punktów poza pomieszczeniem, zaproponowano modyfikację równania brzegowego:. (15) W równaniu tym jest wartością punktu leżącego bezpośrednio przed ścianą. Równanie to jest rezultatem wprowadzenia wartości z równania (13) do równania (14). 5. Generowanie dodatkowej energii Gdy zaimplementowane zostaną równania (12) i (14) w modelu zacznie pojawiać się dodatkowa energia. Energia ta będzie generowana na ścianach modelu i będzie podwajana. Aby polepszyć właściwości modelu i wyeliminować możliwość generowania dodatkowej energii na ścianie zaproponowano modyfikację równania (15):. (16) Modyfikacja ta została przebadana dla teoretycznego przypadku w którym α r =0. Po zastosowaniu modyfikacji dla modelu, w którym nie występuje pochłanianie, energia nie wzrasta ponad wartość źródła. Rysunek 3 oraz rysunek 4 pokazują zanik energii w pokoju o wymiarach 8 x 8 x 8 oraz 6 x 6 x 6 punktów odpowiednio: z niemodyfikowanymi oraz modyfikowanymi warunkami brzegowymi. 191

193 stosunek punktów zewnętznych do wewnętrznych [%] stounek punktów zewnętrznych do wewnętrznych [%] k=10 k=20 k=30 k=40 k= ilość punktów wzdłuż wymiarów i, j Rys. 1. Stosunek punktów zewnętrznych do punktów wewnętrznych w modelu 3D o stałym kroku przestrzennym. Przypadek dla modelu o wymiarach do 20 punktów wzdłuż wymiarów i oraz j; ilość punktów wzdłuż wymiaru k jest parametrem k=10 k=20 k=30 k=40 k= ilość punktów wzdłuż wymiarów i, j Rys. 2. Stosunek punktów zewnętrznych do punktów wewnętrznych w modelu 3D o stałym kroku przestrzennym. Przypadek dla modelu o wymiarach od 20 do 50 punktów wzdłuż wymiarów i oraz j; ilość punktów wzdłuż wymiaru k jest parametrem. W czasie t=0 obecne jest źródło dźwięku o wartości 1000 cząstek, po czasie t=0, źródło zostaje wyłączone. Jak widać na Rys. 3. w pomieszczeniu pojawia się dodatkowa energia. Energia ta nie występuje w modelu z zaproponowanymi modyfikacjami (Rys. 4.). 6. Podsumowanie Artykuł opisuje modyfikacje warunków brzegowych przy wykorzystaniu równania dyfuzyjnego w modelowaniu pola akustycznego. Dzięki modyfikacjom uzyskujemy zmniejszenie ilości punktów obliczeniowych, co przyczyni się do przyśpieszenia procesu obliczeniowego. Dodatkowo dzięki modyfikacjom wyeliminowano generowanie dodatkowej energii w modelu, co czyni go fizycznie poprawnym dla współczynnika pochłaniania α r =0. 192

194 energia energia α=0,0 α=0,2 α=0,4 α=0,6 α=0,8 α=1, krok czasowy (iteracja) Rys. 3. Rozkład energii w niemodyfikowanym modelu 3D o wymiarach 8 x 8 x 8 pkt. w funkcji współczynnika pochłaniania, dla kroku przestrzennego x=1 i czasowego t=0, α=0,0 α=0,2 α=0,4 α=0,6 α=0,8 α=1, krok czasowy (iteracja) Rys. 4. Rozkład energii w modyfikowanym modelu 3D (eliminacja generowania dodatkowej energii, eliminacja konieczności obliczania energii poza ścianą) o wymiarach 6 x 6 x 6 pkt. w funkcji współczynnika pochłaniania dla kroku przestrzennego x=1 i czasowego t=0,0001. Literatura [1] Picaut J.,Simon L., Polack J., A mathematical model of diffuse sound field based on a diffusion equation. Acustica. Acta Acustica, 83, 1997,

195 [2] Picaut J.,Simon L., Polack J., Sound field in long rooms with diffusely reflecting boundaries. Applied Acoustics, 56, 1999, [3] Picaut J.,Simon L., Hardy J., Sound field modeling in streets with diffusion equation. Journal of Acoustical Society of America, 106 (5), 1999, [4] Valeau V., Picaut J., Hodgson M., On the use of a diffusion equation for room-acoustic predictions. Journal of Acoustical Society of America, 119(3), 2006, [5] Bilion A, Valeau V.,Sakout A., Picaut J., On the use of a diffusion model for acoustically coupled rooms. Journal of Acoustical Society of America, 120(4), 2006, [6] Jing Y., Xiang N.,A modified diffusion equation for room acoustic predication. Journal of Acoustical Society of America, 121(6), 2007, [7] Valeau V., Hodgson M., Picaut J., A diffusion-based analogy for the prediction of sounds fields in fitted rooms. Acta Acustica united with Acustica, vol. 93, 2007, [8] Billon A.,Foy C.,Picaut J., Valeau V., Sakout A., Modeling the sound transmition between rooms coupled through partition walls by using a diffusion model. Journal of Acoustical Society of America, 123(6), 2008, [9] Billon A.,Foy C.,Picaut J., Valeau V., Sakout A., Introducing atmospheric attenuation within a diffusion model for room-acoustic predictions. Journal of Acoustical Society of America, 123(6), 2008, [10] Xiang N.,Jing Y.,Bockman A.C., Investigation of acoustically coupled enclosures using a diffusion-equation model. Journal of Acoustical Society of America, 126(3), 2009, [11] Kraszewski J., Room acoustic field modeling using diffusion equation method based on finite difference method. 56 th Open Seminar on Acoustics, 2009, Artykuł powstał w ramach projektu: Przedsiębiorczy doktorant- inwestycja w innowacyjny rozwój regionu, Program Operacyjny Kapitał Ludzki, Priorytet VIII, Działanie 8.2, Poddziałanie DIFFUSION EQUATION METHOD BASED ON FINITE DIFFERENCE METHOD IN ROOM ACOUSTIC FIELD MODELING - BOUNDARY CONDITION MODIFICATION Model predicting sound filed, based on diffusion equation, computes sound field, treating sound as a collection of particles, called phonons. Diffusion sound field model is developed on the basis of two hypotheses. The sound field is uniform and the sound energy flow is the same in all directions. Thanks to the model we can simulate sound filed in rooms, with divers absorption coefficient in steady-state and time-varying sound fields. This article takes into account way to numerical implementation of energy density, using finite difference method, and boundary term modification which allows to reduce computation time. Article treats also about elimination of additional energy, which appear in the model for low absorption coefficient. 194

196 Metoda TPM i jej wdrożenie w przemyśle Joanna Krawczyk 1 Streszczenie: W artykule przedstawiono jedno z narzędzi filozofii szczupłego wytwarzania - TPM totalne produktywne utrzymanie ruchu. Omówionych zostało dwanaście etapów jego wdrażania oraz zalety płynące dla przedsiębiorstwa z korzyści wynikających z wdrożenia. Słowa kluczowe: Total Productive Maintenance, autonomiczna i planowa konserwacja 1. Wprowadzenie TPM czyli totalne, produktywne utrzymanie ruchu (od angielskich słów Total Productive Maintenance) jest jednym z narzędzi Lean Manufacturing. Cały etap wdrożenia TPM w przedsiębiorstwie trwa ok. 2, 3 lata. W tym czasie realizowane są poszczególne kroki, które przybliżają firmę do pełnego wdrożenia podejścia TPM. Kroki te zostały podzielone na 12 kolejnych grup zadaniowych [1,2]: 1 Ogłoszenie przez kierownictwo decyzji o wprowadzeniu TPM, 2 Uruchomienie programu szkoleń, 3 Przygotowanie organizacji do wprowadzenia TPM, 4 Ustalenie podstawowych celów TPM, 5 Przygotowanie planu wprowadzenia TPM, 6 Rozpoczęcie TPM, 7 Poprawa stopnia wykorzystania maszyn, 8 Wprowadzenie programu autonomicznej konserwacji, 9 Wprowadzenie programu planowej konserwacji, 10 Program szkoleń i treningów, 11 Zarządzanie wyposażeniem, 12 Kompletne wprowadzenie TPM. 2. Etapy wdrażania TPM w przedsiębiorstwie Rozpoczęcie wdrażania narzędzia TPM następuje z chwilą oficjalnego ogłoszenia tego faktu przez najwyższe kierownictwo danego przedsiębiorstwa. Ważnym czynnikiem jest, by kierownictwo firmy było całkowicie zainteresowanie tym projektem. Przy wprowadzaniu TPM muszą uczestniczyć wszyscy pracownicy, począwszy od wspomnianego już najwyższego kierownictwa aż po pracowników produkcyjnych. Tylko dzięki wspólnej pracy można uzyskać najlepsze efekty wdrażania. Podejście TPM uwzględnia samodzielność pracowników produkcyjnych, ale możliwe jest to tylko wtedy, gdy są oni odpowiednio zmotywowani i przygotowani do pomyślnego wykonania zadań. Przygotowanie przyjaznego środowiska do takich działań jest głównym celem kierownictwa na tym etapie. Podczas początkowych etapów wprowadzania TPM zarząd musi szkolić pracowników do samodzielnego radzenia sobie ze sprzętem. Możliwe to jest dzięki szkoleniom, poprawiającym umiejętność obsługi maszyn oraz dotyczącym samodzielnego serwisowania maszyn. Dobre efekty 1 Instytut Technologii Maszyn i Automatyzacji, ul. Łukasiewicza 5, Wrocław, joanna.krawczyk@pwr.wroc.pl 195

197 można osiągnąć jedynie poprzez ciągłe motywowanie pracowników do aktywnego udziału w optymalnym utrzymaniu sprzętu, za który odpowiadają. Na wczesnym etapie wdrażania TPM konieczne jest uruchomienie programu szkoleń. Celem szkoleń jest nie tylko przedstawienie podejścia TPM, ale też obniżenie oporu pracownika na zmiany, w tym przypadku zmiany związane z wdrażaniem nowego narzędzia TPM. Do zmiany ludzkiego nastawienia i nawyków potrzebny jest znaczny okres czasu, ale z drugiej strony nastąpi poprawa środowiska pracy, która z pewnością pociągnie za sobą wzrost zadowolenia wśród pracowników z wykonywanej przez nich pracy. W kolejnym kroku następuje przygotowanie organizacji do wprowadzenia TPM. Należy zastanowić się i zdecydować na jakim obszarze będzie wdrażany TPM - będzie to tak zwany obszar pilotażowy. Następnie podejmujemy decyzję o osobie odpowiedzialnej za proces wdrożeniowy. Na kolejnym etapie ustalane są podstawowe cele TPM. Cele te powinny być przedstawione w sposób ilościowy, precyzyjnie opisując następujące składowe: - główny cel, czyli co chcemy osiągnąć/poprawić, - ilość (w procentach), czyli o ile chcemy poprawić, - okres czasu, w którym ma być to wykonane. Cele kształtowane są zgodnie z metodologią SMART (powinny one być: Skonkretyzowane, Mierzalne, Akceptowalne, Realne, Terminowe). Przykładowym celem może być zmniejszenie liczby awarii na frezarce o 15% w przeciągu jednego kwartału. Kolejnym krokiem jest przygotowanie głównego planu wprowadzania TPM. Plan taki zawierać musi: - poprawę stopnia wykorzystywania maszyn poprzez eliminowanie sześciu podstawowych strat, - wdrożenie autonomicznej konserwacji konserwacji wykonywanej samodzielnie przez operatorów, - zapewnienie jakości, - wdrożenie planowej konserwacji konserwacji wykonywanej przez mechaników według wcześniej ustalonego planu, - ciągłe doskonalenie dalsza edukacja i treningi, w celu podwyższania umiejętności. Rozpoczyna się faza druga wdrażania TPM - prawidłowe rozpoczęcie wdrażania TPM. Wcześniejsze kroki to tylko przygotowanie do tego etapu. Od tej chwili każdy pracownik musi zaprzestać pracy według tradycyjnego harmonogramu, a zacząć pracę z harmonogramami TPM. Każdy pracownik odgrywa teraz bardzo ważną część programu. Znaczy to, że pracownicy wspierają zarząd TPMu poprzez swoją działalność i pracę nad sześcioma podstawowymi stratami. W kolejnym kroku należy powołać zespoły, składające się z inżynierów, mechaników i operatorów. Zespoły te mają za cel wprowadzanie usprawnień i eliminowanie przestojów, a co za tym idzie poprawę stopnia wykorzystania maszyn. Działania te mają dwojaki charakter: z jednej strony usprawnienie produkcji, z drugiej zaś ukazanie efektów pracy z TPM, a gdzieniegdzie rozwianie wątpliwości co do tego podejścia. Sposób postępowania przy identyfikacji problemów: - zdefiniowanie problemów przeanalizowanie występujących problemów, porównanie ich z podobnymi przypadkami, - analiza przyczyn wystąpienia problemu problemy mogą być często wyjaśnione za pomocą prostych praw fizyki, np. zadrapanie jest wynikiem kontaktu dwóch elementów, - wyizolowanie wszystkich przyczyn występowania problemu - na podstawie zebranych danych oraz wcześniejszej analizy ustalenie wszystkich możliwych przyczyn jego wystąpienia, - ocena sprzętu, materiału i metod ocena stanu sprzętu, wykorzystywanych metod oraz materiałów w celu stworzenia listy czynników wpływających na stan produktu, 196

198 - plan badania zaplanowanie badań poprzez wybranie wielkości mierzonych oraz sposobu ich pomiaru w celu ustalenia czynników mogących powodować usterkę, - badanie usterki wykonanie badań według planu z poprzedniego punktu, należy zbadać wszystkie czynniki, bez pomijania tych, które wydawać się mogą nieistotne, - sformułowanie planu wprowadzenia usprawnienia. Następnym ważnym elementem jest przeszkolenie operatorów, by nabyli oni wiedzę potrzebną do samodzielnej konserwacji maszyn. Muszą oni być przekonani, że każdy z nich z osobna jest odpowiedzialny za maszynę bądź grupę maszyn na których pracują. Natomiast mechanicy i dział utrzymania ruchu szkoleni są z przeprowadzania planowej konserwacji. Szkolenie pracowników i stwarzanie im dogodnych sytuacji podnoszenia swoich kwalifikacji zawsze przyniesie firmie podwojone zyski. Przedsiębiorstwo, które wdraża TPM musi inwestować w szkolenia, które umożliwia pracownikom nabycie odpowiedniej wiedzy do prawidłowej obsługi maszyn. Końcowym krokiem jest kompletne wprowadzenie TPM. Podczas tego okresu stabilizacji każdy pracownik stara się wciąż poprawiać rezultaty wdrożenia TPM. Określa się nowe cele, jeszcze odważniejsze od poprzednich. Wdrożenie tego ostatniego kroku zapewnia firmie wiele korzyści. Pracownicy powinni czuć się usatysfakcjonowani efektem zmian na lepsze, większą czystością panującą na ich stanowiskach i to wynikającą bezpośrednio dzięki ich pracy i zaangażowaniu. Powinno odbyć się z tej okazji wspólne spotkanie, uroczysta kolacja, bądź powinna zostać przyznana premia dla pracowników. Ale rozdawanie nagród nie oznacza ukończenia TPM, oznacza tylko to, że proces wdrażania dobrze się rozpoczął i umożliwia przejście o kolejny krok dalej, do osiągania dalszych celów i kolejnych sukcesów [3,4,5,6,7]. 3. Podsumowanie Totalne produktywne utrzymanie ruchu (ang. Total Productive Maintenance) TPM jest ważną metodą kompleksowego utrzymania ruchu. Jest on jednym z narzędzi filozofii szczupłego wytwarzania (Lean Manufacturing), którego wdrożenie pozwala przedsiębiorstwu na dążenie do doskonałości. Korzyści wynikające z wdrożenia TPM są następujące: wzrost produktywności dostępnego sprzętu i wyposażenia, redukcja przestojów maszyn, wzrost wydajności produkcji, mniejsze koszty produkcji, wzrost satysfakcji z wykonywanej pracy. Literatura [1] J.P. Womack, D.T. Jones. Lean Thinking. Centrum Informacji Inżyniera, Warszawa, [2] J.P. Womack, D.T. Jones. The Machine That Changed the World. Rawson Associates, [3] K. Shirose. TPM Team Guide. Productivity Press. Portland [4] S. Nakajima. Introduction to TPM. Productivity Press. Portland [5] S. Nakajima. TPM Development Program. Productivity Press, [6] T. Suzuki. TPM in Process Industries. Productivity Press, 1994 [7] J. Brzeski, M. Figas. Wprowadzenie do TPM. Inżynieria i utrzymanie ruchu zakładów przemysłowych, czerwiec

199 IMPLEMENTING TPM METHOD IN THE PRODUCTION ENTERPRISE Total Productive Maintenance is an important method of the complex maintenance. Implementation of this Lean Manufacturing tool helps the company to strive for perfection. Advantages of TPM implementation are: increase of equipment productivity, reduced shutdowns, increase of plant capacity, lower production and maintenance costs, growth of work satisfaction, return on investment. Lean Manufacturing is a philosophy of production management. Total Productive Maintenance is one of Lean Manufacturing tools. In this paper TPM philosophy is described. Advantages of this Lean Manufacturing tool implementation are recognized. Assumption of autonomous maintenance like continuous cleanness, immediate failure remove are described in details. Planned maintenance based on periodic maintenance involving preventive and predictive maintenance is explained as well. 198

200 Konstrukcja dennicy wysokociśnieniowego zbiornika kompozytowego na ciecze i gazy Piotr Krysiak 1 Streszczenie: W pracy przedstawiono różne warianty rozwiązań konstrukcji króćców wyjściowych zbiornika kompozytowego. W szczególności omówiono ich zasadę działania, wykonano symulację pracy oraz wskazano wady i zalety rozwiązań. Słowa kluczowe: zbiornik kompozytowy, obliczenia wytrzymałościowe 1. Wprowadzenie Obecnie na świecie bardzo dynamicznie rozwija się wykorzystanie paliw gazowych (LPG, CNG, wodór) do zasilania silników spalinowych. Najwięcej pojazdów zasilanych CNG porusza się w Argentynie (ok. 830 tys.). W Europie liderem są Włochy (ponad 430 tys.). W ciągu ostatnich pięciu lat największy wzrost liczby pojazdów, nawet dziesięciokrotny, zanotowano w USA, Chinach, Niemczech, Szwecji i Japonii [1]. Pojazdy, które zasilane będą m.in. wodorem, potrzebują do poprawnego działania odpowiednich instalacji. W przypadku wodoru instalacje zasilające są dość skomplikowane, głównie ze względu na niebezpieczeństwo związane ze stosowaniem tego paliwa jak również faktem, że wodór jako paliwo gazowe pracuje pod dużym ciśnieniem sięgającym 70 MPa. Najważniejszy elementem takiego układu jest zbiornik, przy czym do zasilania pojazdu jest ich z reguły kilka. Podyktowane jest to przede wszystkim ich małą pojemnością. W omawianym zastosowaniu korzystne, między innymi jest, aby zbiorniki na paliwo gazowe były lekkie i wytrzymałe. Warunek ten spełniają zbiorniki kompozytowe. Stosowanie zbiorników kompozytowych umożliwia prawie czterokrotną redukcję masy zbiornika w porównaniu do zbiornika stalowego [1]. 2. Określenie materiałów do projektu dennicy Zbiornik kompozytowy najnowszej generacji składa się głównie z króćca, warstwy kompozytowej oraz linera termoplastycznego (rys. 1), przy czym dwa ostatnie materiały należą do grupy tworzyw sztucznych. Króciec (głowica) natomiast, ze względu na charakter pracy, wykonany jest z materiałów metalicznych. Najczęściej jest to stal konstrukcyjna lub stopy aluminium, które łatwo poddają się obróbce skrawaniem. Skomplikowane kształty króćców mogą być oczywiście wykonane technologią odlewania. Dlatego struktura konstrukcyjna dennicy jest skomplikowana, szczególnie pod względem wytężenia, ponieważ występuje konieczność współpracy trzech materiałów o odmiennych właściwościach fizycznych. 1 Politechnika Wrocławska, Instytut Materiałoznawstwa i Mechaniki Technicznej, Ul. Smoluchowskiego 25, piotr.krysiak@pwr.wroc.pl 199

201 Rys. 1. Budowa zbiornika kompozytowego Poniżej przedstawiono zestawienie i stałe charakteryzujące wymienione materiały: 1) Króciec wykonany ze stali konstrukcyjnej: - moduł sprężystości podłużnej (Young a) E = 210 GPa - współczynnik Poissona ν = 0,3 - gęstość ρ = 7,86 g/cm 3 2) Liner wykonany z tworzywa sztucznego PEHD (high density PE niskociśnieniowy polietylen o dużej gęstości) [2]: - moduł sprężystości podłużnej (Young a) E = 8,5 GPa - współczynnik Poissona ν = 0,45 - gęstość ρ = 0,97 g/cm 3 3) Warstwa kompozytowa składająca się z włókna węglowego oraz żywicy epoksydowej. Stałe materiałowe poszczególnych składowych kompozytu [3]: - włókno węglowe: E w = 300 GPa; ν w = 0,34; ρ w = 1,7 g/cm 3 - żywica epoksydowa: E z = 4,0 GPa; ν z = 0,36; ρ z = 1,3 g/cm 3 Aby wyznaczyć stałe materiałowe kompozytu, skorzystamy z teorii mieszanin. Zakładamy że udział poszczególnych składników wynosi po 50%. A zatem: (1) (2) (3) 200

202 1. Rozwiązania konstrukcyjne dennicy Zbiorniki wysokociśnieniowe należą do specyficznej grypy elementów maszyn, a ze względu na obszar stosowania oraz szereg rygorystycznych wymagań, praktycznie każda konstrukcja jest opatentowana. Dlatego dokonano przeglądu ponad dwudziestu różnych rozwiązań patentowych a po ich analizie zaproponowano rozwiązania autorskie Rozwiązanie nr 1 W rozwiązaniu tym zamodelowano króciec jako jednoczęściowy, który łączy się z linerem w procesie jego wytwarzania. Liner wytwarzany jest w procesie wtrysku tworzywa termoplastycznego do formy, w której dodatkowo umieszcza się wcześniej przygotowany króciec. Podczas takiej operacji powstaje trwałe połączenie obu elementów. Całość (w procesie nawijania lub wyplatania) wzmacnia się kompozytem na bazie ciągłych włókien (węglowych, szklanych). Model rozwiązania pokazano na rysunku Rozwiązanie nr 2 Rys. 2. Rozwiązanie konstrukcyjne nr 1; a model rozwiązania, b konstrukcja króćca W tym rozwiązaniu zamodelowano króciec jako jednoczęściowy, połączony z linerem rozłącznie. Liner, składający się z dwóch dennic i części środkowej walcowej wykonuje się w procesie wtrysku tworzywa sztucznego do formy. Następnie umieszcza się w nim omawiany króciec i łączy poprzez nakrętkę. W dalszej kolejności wszystkie części linera łączy się technologią zgrzewania. Na tak wykonany element nawija się włókno ciągłe i przesyca żywicą w celu konsolidacji kompozytowej warstwy nośnej. Model rozwiązania pokazano na rysunku 3. Rys. 3. Rozwiązanie konstrukcyjne nr 2; a model rozwiązania, b konstrukcja króćca oraz sposób łączenia elementów składowych 201

203 2.3. Rozwiązanie nr 3 W rozwiązaniu trzecim zamodelowano króciec jako dwuczęściowy (rys. 4). Wewnętrzna część króćca wciśnięta jest w szyjkę linera. Dodatkowo umieszcza się w niej uszczelnienie. Druga część króćca (zewnętrzna), której zadaniem jest dociśnięcie i utrzymywanie w stałej pozycji części wewnętrznej, jest bezpośrednio połączona z szyjką linera. Z zewnątrz dociska ją nawinięty na liner kompozyt włóknisty. Rys. 4. Rozwiązanie konstrukcyjne nr 3; a model rozwiązania, b konstrukcja króćca oraz sposób łączenia elementów składowych Króciec składa się z dwóch części. Element wewnętrzny posiada gwint służący do przyłączenia elementów instalacji. Na powierzchni zewnętrznej wykonano dwa podcięcia pod osadzenie uszczelnienia a zakończony jest kołnierzem, który opiera się o szyjkę linera. Druga część element zewnętrzny, dociska element wewnętrzny. Na jego powierzchni wewnętrznej wykonano gwint, przez co możliwe jest połączenie z szyjką linera. W tym rozwiązaniu liner nie musi być wykonany metodą zgrzewania, jak w poprzednich rozwiązaniach. W tym przypadku liner może być wykonany jako bryła jednoczęściowa np. metodą spiekania rotacyjnego. W ten sposób eliminujemy zbędne operacje technologiczne procesu cięcia oraz zgrzewania. 2. Analiza numeryczna W kolejnym etapie przeprowadzono symulację numeryczną. Dennice dla potrzeb obliczeń wykonano jako model bryłowy a dyskretyzacji dokonano przy pomocy elementów skończonych typu tetra (4-węzłowe). Następnie obciążono element ciśnieniem działającym od wewnątrz zbiornika o wartości 20 MPa (rys. 5), jednakowym dla każdego rozwiązania konstrukcyjnego. a) b) Rys. 5. Analiza wytężeniowa; a warunki brzegowe, b postać deformacji rozwiązania nr 1 202

204 a) b) Rys. 6. Analiza wytężeniowa; a postać deformacji rozwiązania nr 2, b postać deformacji rozwiązania nr 3 Z przeprowadzonej analizy wynika, że największe odkształcenia 0,097 mm wystąpiły w rozwiązaniu nr 2 (rys. 6). Ponadto można zauważyć, że w rozwiązaniu nr 1 i 2 wszystkie elementy składowe tworzą budowę zwartą po przyłożeniu obciążenia, natomiast w rozwiązaniu nr 3 elementy doznały znacznej deformacji, co może spowodować rozwarstwienie i rozszczelnienie zbiornika. Wszystkie opracowane konstrukcje są uproszczone i wymagają dalszych prac aby mogły być wykorzystane do opracowania zbiornika kompozytowego najnowszej generacji. W modelach nie uwzględniono mniejszych fazowań i zaokrągleń oraz występu pod osadzenie klucza płaskiego przy wkręcaniu zaworu. Ponadto, naddatek warstwy kompozytowej występujący w bezpośrednim otoczeniu króćca może powodować lokalne spiętrzenia naprężeń a w efekcie pęknięcia. 4. Podsumowanie Niniejsza praca zawiera wytyczne do skonstruowania takiej dennicy, która może znaleźć zastosowanie w budowie wysokociśnieniowych zbiorników przeznaczonych do gromadzenia gazów. Aby osiągnąć taki cel, należy dokonać wielokryterialnej optymalizacji konstrukcji w świetle wymagań stawianych tego typu elementom. W ten sposób opracowane rozwiązanie może być konkurencyjne wobec rozwiązań potentatów w tej dziedzinie, takich jak Stany Zjednoczone czy Niemcy. Podczas opracowywania konstrukcji tego typu elementów, należy wziąć szczególnie pod uwagę następujące aspekty: - ze względu na technologiczność, należy zwrócić uwagę na możliwości wytwarzania termoplastycznego linera, współpracującego z nim króćca oraz wzajemnego połączenia współpracujących elementów, - współpraca tworzywa termoplastycznego z kołnierzem zapraski (króćca) musi zawsze zapewniać szczelność układu, nawet przy wielokrotnych obciążeniach cyklicznych np. tankowanie oraz opróżnianie zbiornika (wg wytycznych normowych np. [4]). Podczas tej operacji występują również duże skoki temperatury ( - 40 C do +85 C) związane ze zmianą ciśnienia w zbiorniku. Należy pamiętać również o tym, że współpracujące elementy wykonane są z materiałów o różnej rozszerzalności temperaturowej. 203

205 Literatura [1] W. Błażejewski, A. Gasperowicz, P. Gąsior, J. Kaleta: Kompozytowe zbiorniki dla CNG i wodoru, wymogi homologacyjne i metody badań. Instytut Materiałoznawstwa i Mechaniki Technicznej, Politechnika Wrocławska [2] [3] V.V. Vasiliev., E. Morozov. Advanced Mechanics of Composite Materials Elsevier Science Ltd., 2001 [4] PN-EN ISO 11439:2003 Wysokociśnieniowe butle do gazu ziemnego stosowane jako zbiorniki paliwa pojazdów samochodowych. CONSTRUCTION OF A HIGH-PRESSURE TANK COMPOSITE BOWL FOR FLUIDS AND GASES The paper presents three options for the construction output nozzles of composite vessel, described in the literature as type 4 new generation. The presented designs are not protected by copyright and patent law. Based on the three design options presented are their advantages and disadvantages. In the paper showing the directions of change in order to obtain the original construction of output nozzles. Nozzle is made of metal embedded or glued to a liner made of thermoplastic material reinforced by filament winding method. Liner is made of thermoplastic material by injection molding plastic into a mold. The whole was reinforced fiber composite material. The composite consists of carbon fiber or fiberglass and epoxy resin. For all variants of the structure, strength calculations were performed for the same loads. The results are shown in the form of contour deformation. 204

206 Czynniki wpływające na niedokładność pomiaru aberracji Malwina Lewandowska-Soboń 1, Marek Zając 1 Streszczenie: W prezentowanej pracy wykonano symulację pomiaru aberracji sferycznej podłużnej soczewki wypukło-płaskiej oraz dubletu achromatycznego przy zastosowaniu techniki skanowania pojedynczym promieniem (dysk Scheinera). W badaniach oszacowano maksymalną szerokość promienia możliwego do zastosowania podczas pomiaru, który nie wprowadza znacznego odstępstwa od danych teoretycznych. Dodatkowo wykonano analizę wpływu zastosowanego punktu odniesienia w plamce rozmycia na ostateczne aberracje. Słowa kluczowe: aberracja sferyczna, dysk Scheinera, plamka rozmycia 1. Wprowadzenie Mimo istnienia licznych komercyjnych przyrządów nazywanych aberrometrami, sam pomiar aberracji oka nie jest jeszcze dokładnie poznany i opanowany. Nadal istnieje wiele niejasności w interpretacji wyniku pomiaru aberrometrem. Wydaje się, że w tym względzie technika (konstrukcja aberrometrów) i komercja (ich produkcja i sprzedaż) wyprzedziły nieco zrozumienie sensu aberracji oka przez okulistów i w ogóle osoby zajmujące się jakością widzenia. W literaturze dostępne są liczne prace dotyczące porównania wyników otrzymanych podczas pomiarów aberracji oka różnorodnymi metodami [1, 2, 4, 5]. W pracach tych pokazano istotne różnice między mapami aberracji falowych oraz współczynnikami Zernikego otrzymanymi z pomiarów wykonanych różnymi technikami (większość komercyjnie dostępnych aberrometrów wykorzystuje metodę biegu promieni, aberrometr Tscherninga oraz czujnik Hartmanna-Shacka). Takie rozbieżności mogą być spowodowane różnymi czynnikami. Jednym z nich może być założenie o abstrakcyjnym nieskończenie cienkim promieniu stosowane w modelu teoretycznym. W rzeczywistości wiązka światła docierająca do badanego układu optycznego ma skończoną szerokość, przez co uśrednia aberracje na swoim przekroju. Co za tym idzie otrzymany obraz nie jest punktem, lecz plamką aberracyjną. Biorąc ten fakt pod uwagę, pożądane jest, aby wiązka była jak najwęższa. Z drugiej strony jednak im węższa będzie wiązka, tym większe będzie rozmycie dyfrakcyjne. Tak więc istotnym zagadnieniem staje się dobór szerokości wiązki. Pomiar aberracji falowej polega na określeniu lokalnego nachylenia frontu falowego α (rys. 1). Aby określić lokalne nachylenie frontu falowego, należy wyznaczyć punkt przecięcia promienia z płaszczyzną detekcji E (rys. 1). Ze względu na to, że obraz nie jest więc punktem, lecz plamką rozmycia, określenie punktu przecięcia nie jest dokładne. W takiej sytuacji należy odnieść się do konkretnego punktu w otrzymanej plamce rozmycia. Jest to punkt, który ma odgrywać rolę środka plamki. W literaturze nie znaleziono jednak jednoznacznego określenia, co jest uważane za środek plamki. Najczęściej stosowanym punktem odniesienia jest środek ciężkości rozkładu intensywności światła w plamce aberracyjnej. 1 Instytut Fizyki, Politechnika Wrocławska, Wybrzeże Wyspiańskiego 27, Wrocław, malwina.sobon@pwr.wroc.pl 205

207 P W E α W tg x Rys. 1. Schemat przedstawiający sposób określania aberracji falowej: E ekran, P płytka ograniczająca wiązkę promieni z otworem, α lokalne nachylenie frontu falowego, W front falowy W prezentowanej pracy wykonano analizę aberracji sferycznej podłużnej dwóch elementów optycznych, wykorzystując program służący do przeliczania biegu promieni ZEMAX. Analizowano jaki wpływ na otrzymywane wartości aberracji ma wybór środka plamki oraz jak na wyniki wpływa średnica otworu w płytce ograniczającej bieg promieni. Rozważano 3 różne definicje środka plamki rozmycia oraz 4 średnice otworu w płytce ograniczającej bieg promieni. 2. Wyniki Przeliczenia wykonano dla soczewki wypukło-płaskiej, charakteryzującej się dużymi wartościami aberracji sferycznej podłużnej (rys. 2) oraz dla dubletu achromatycznego (rys. 3). (A) (B) Rys. 2. Schemat badanej soczewki wypukło-płaskiej (A); Aberracja sferyczna podłużna badanej soczewki (B) 206

208 (A) (B) Rys. 3. Schemat badanej dubletu achromatycznego (A); Aberracja sferyczna podłużna badanego dubletu (B) W programie ZEMAX zasymulowano technikę skanowania pojedynczym promieniem zapoczątkowaną już w XVI wieku przez Scheinera [1]. Punktem, który można uznać za środek plamki, a zatem którego przesunięcie względem obrazu geometrycznego gaussowskiego świadczy o wielkości aberracji, może być środek geometryczny plamki, środek ciężkości albo miejsce maksymalnego natężenia światła w obrazie. Współrzędne tych punktów wyliczono z rozkładu natężenia światła w plamce aberracyjnej. Wpływ średnicy otworu w płytce ograniczającej bieg promieni na kształt rejestrowanej plamki rozmycia sprawdzono dla promienia przyosiowego i pozaosiowego (rys. 4). Rys. 4. Przykładowe obrazy plamki rozmycia otrzymane dla różnych średnic otworu w dysku Scheinera dla wiązki przyosiowej i pozaosiowej po przejściu promienia przez soczewkę wypukło-płaską z wyliczoną liczbą Strehla S dla każdego obrazu Można zauważyć, że wielkość średnicy wiązki wchodzącej do układu optycznego ma bardzo duży wpływ na wynik pomiaru aberracji. Przy bardzo małym otworze ograniczającym wiązkę promieni wejściowych, niezależnie od wysokości promienia padającego na badany element optyczny, plamka rozmycia jest praktycznie plamką czysto dyfrakcyjną i nie uwidacznia się tu wpływ aberracji. Natomiast przy dużych średnicach otworu widać dominujący wpływ aberracji 207

209 uśrednionych po przekroju wiązki. Można przyjąć, że najlepszy byłby najmniejszy otwór ograniczający wiązkę promieni, ponieważ im mniejszy otwór, tym otrzymany obraz bardziej przypomina obraz bezaberracyjny. Ponieważ środek ciężkości plamki jest najbardziej zbliżony do środka geometrycznego i punktu położenia maksymalnego natężenia w plamce, w takim przypadku środek plamki można jednoznacznie zlokalizować. Jednak w rzeczywistości należy uwzględnić również inne fakty, takie jak duże straty energii światła przy zastosowaniu bardzo małego otworu. Innym bardzo istotnym tu czynnikiem są możliwości technologiczne. Żeby potwierdzić powyższe wnioski, zasymulowano numerycznie pomiar aberracji sferycznej dwóch elementów optycznych przy różnych średnicach otworu w płytce ograniczającej bieg promieni. Wyniki przedstawiono na rys. 5. W tej części badań jako środek plamki przyjęto środek ciężkości. Można tu zauważyć, że zastosowanie szerokiej wiązki wejściowej może zaniżyć wartość aberracji sferycznej dla coraz większych promieni otworu w płytce otrzymywane wartości są coraz bliższe zera. 3,5 3 2,5 2 1,5 1 0,5 0-1,5-1 -0,5 0 3,5 3 2,5 2 1,5 1 0,5 0-0,06-0,04-0,02 0 0,02 0,04 0,06 Wysokość promienia [mm] R=0,05 mm R=0,1 mm R=0,25 mm R=0,5 mm Aberracja sferyczna podłużna [mm] Rys. 5. Aberracja sferyczna podłużna wyznaczona dla różnych promieni otworu w płytce; po lewej: soczewka wypukło-płaska, po prawej: dublet achromatyczny Różnice pomiędzy wartościami aberracji sferycznych wyznaczonymi przy użyciu wiązki o średnicy D=0,1 mm (R=0,05 mm) i D=0,2 mm (R=0,1 mm) są niewielkie, dlatego można przyjąć, że zastosowanie promienia o średnicy 0,2 mm było najlepszym rozwiązaniem. Dla dużych średnic wiązki wejściowej (R 0,25 mm) na otrzymany obraz mają wpływ uśrednione aberracje powstałe w wyniku przejścia promienia przez układ optyczny. Następnie symulacje powtórzono przy różnych definicjach środka plamki. 208

210 Rys. 6. Aberracja sferyczna podłużna w zależności od odległości promienia wejściowego od osi wyznaczona dla różnych punktów odniesienia Wartości aberracji sferycznych podłużnych wyznaczanych na podstawie różnych punktów odniesienia w plamce dają odmienne wyniki, jednak tylko dla wiązek o średnicy większej niż D=0,2 mm. Z tego względu stwierdzono, że przy zastosowaniu odpowiednio wąskiej wiązki wejściowej dobór punktu odniesienia można pominąć. 3. Podsumowanie Komercyjne aberrometry wykorzystują różne techniki pomiaru aberracji falowych. W zależności od techniki pomiaru oraz różnych innych czynników opisanych w tej pracy otrzymywane są odmienne wyniki. Przedstawione badania wskazują dwa możliwe czynniki wprowadzające nieprawidłowości oraz niezgodności w stosowanych technikach pomiarowych. Przeprowadzono analizę wpływu szerokości wiązki na otrzymywane wyniki pomiarów aberracji. Sprawdzono także, jakie znaczenie ma wybór konkretnego punktu odgrywającego rolę środka plamki (punktu przecięcia abstrakcyjnego promienia z płaszczyzną detekcji). 209

211 Literatura [1] A.G. Bennett., R.B. Rabbetts., Clinical Visual Optics, Second Edition, Butterworth Heinemann, Oxford 1996 [2] G.Colicchia, H. Wiesner, Measuring aberration of the eye with wavefront technology, Physics Education, 2006 [3] M. Born, E. Wolf, Principles of Optics, 6th Edition, Cambridge University Press, Cambridge 1997 [4] X. Hong, L. Thibos, A. Bradley, Comparison of Monochromatic Ocular Aberrations Measured with an Objective Cross-Cylinder Aberroscope and a Shack-Hartmann Aberrometer, Optometry and Vision Science, January 2003 [5] S. Marcos, L. Diaz-Santana, L. Llorente, Ocular aberrations with ray tracing and Shack Hartmann wave-front sensors, Journal of the Optical Society of America, June 2002 FACTORS INFLUENCING THE MEASUREMENT UNCERTAINTY ABERRATIONS Spherical aberration is one of the basic measures of imaging quality in optical system. As a consequence of this aberration the light rays falling onto the optical system in different heights intersect the optical axis in different points. Basing on this fact and using simple calculations it is easy to numerically evaluate the spherical aberration for arbitrary optical system. In experimental measurements, however, the abstract light ray has to be replaced with narrow light bundle. This idea has been proposed already by Scheiner in XVI century and then developed into the Hartman- Shack wavefront sensor. The light beam striking the optical system under test is formed by a small aperture. The aberration is evaluated from the ray deviation, which, in turn, is calculated from the location of the light spot observed on a screen perpendicular to the optical axis. The basic difficulty of such approach is to determine the correct radius of this aperture. If the width of the beam is too small, the diffraction effect has predominant influence in the image. If the width is too large, the unwanted averaging of aberrations occurs. The influence of the testing beam diameter on the accuracy of spherochromatic aberration evaluation is analysed using numerical simulation of the experimental procedure. Several examples are analysed including simple plano-convex lens as well as achromatic dublet. 210

212 Eksperymentalne badanie statystycznej zgodności selektora cech opartego o LARS/LASSO Urszula Libal 1 Streszczenie: Celem artykułu jest prezentacja wyników eksperymentów sprawdzajacych zgodność selektora cech opartego o algorytm LARS/LASSO (Least Absolute Shrinkage and Selection Operator). W badaniach wykorzystano zbiór danych diabetes zawierajacy cechy 442 pacjentów chorych na cukrzycę oraz odpowiedź mierzona postępem choroby. Wyzerowano niektóre cechy i zaszumiono je, a następnie tak spreparowane dane poddano selektorowi LASSO, który wybierał cechy istotne. Sprawdzono, czy cechy uprzednio wyzerowane sa cechami uznanymi przez selektor za najmniej istotne. Zwiększanie liczności próby pozwoliło określić zależność między zgodnościa selektora LASSO a zakładanym rozmiarem modelu df. Na zgodność selektora nie wpływa natomiast poziom szumu σ. Słowa kluczowe: LASSO, selekcja cech, selekcja modelu, statystyczna zgodność 1. Wprowadzenie Selekcja modelu jest kluczowym problemem, decydującym o jakości rozwiązań innych zadań opartych o wyselekcjonowany model. Selekcję cech często stosuje się w zadaniach rozpoznawania i identyfikacji, jako wstępną procedurę, która odsiewa nieistotne cechy, tzn. niezwiązane z badanym obiektem, stanowiące szum lub związane z nim w słabym stopniu. Po pierwsze, zmniejszenie rozmiaru df modelu jest ważne ze względu na złożoność obliczeniową algorytmu, który będzie wykorzystywał skurczony model do rozwiązania innego zadania. Po drugie, w niektórych problemach przy dużej liczbie cech p konieczne jest posiadanie także licznego zbioru obserwacji n, aby zapewnić odpowiednio gęstą estymację w p-wymiarowej przestrzeni. Dlatego zastosowanie selektora jest w wielu przypadkach koniecznością. Selektor oparty o algorytm LASSO oraz sposób działania samego algorytmu zostaną omówione w punkcie Selektor LASSO ( Least Absolute Shrinkage and Selection Operator) Dla danej macierzy obserwacji X nxp (n-liczba próbek, p-liczba cech) oraz odpowiedzi y, selektor LASSO ˆβ = ( ˆβ 1, ˆβ 2,..., ˆβ p ) estymuje nieznany model β: ( ) 2 n p ˆβ = argmin y Xβ 2 = argmin y i β j x ij, (1) i=1 j=1 1 Instytut Informatyki, Automatyki i Robotyki, Politechnika Wrocławska, ul. Janiszewskiego 11/17, Wrocław, urszula.libal@pwr.wroc.pl 211

213 p przy β 1 = β j λ, (2) gdzie λ > 0 jest ograniczającym parametrem, który reguluje zmniejszenie modelu. Tibshirani [3] zauważył, że regularyzacja w normie l1 prowadzi do wyzerowania niektórych współrzędnych wektora ˆβ i tym samym do zmniejszenia rozmiaru modelu. Hastie, Efron, Johnstone i Tibshirani [2] zaproponowali algorytm LASSO, jako modyfikację prostego w komputerowej implementacji algorytmu LARS. Szczegółowy opis obu algorytmów można zaleźć w [2]. Algorytm LARS przebiega w p krokach, natomiast LASSO może mieć ich więcej. W każdym kroku jest wybierana składowa ˆβ i najmocniej skorelowanna z odpowiedzią y, tzn. gdy i-ta składowa c i = max (ĉ) wektora korelacji ĉ = X T (y ŷ) jest największa, indeks i wędruje do zbioru aktywnego. Następnie uaktualniamy predyktor ŷ o odpowiedni krok w wyliczonym kierunku i przechodzimy do następnego kroku. W modyfikacji LASSO algorytmu LARS pozwolono także na usunięcie indeksu i ze zbioru aktywnego, jeżeli w danym kroku składowa ˆβ i zmieni znak na przeciwny. Zatrzymując algorytm LASSO, gdy zbiór aktywny liczy df indeksów, otrzymujemy selektor modelu ˆβ = ( ˆβ 1, ˆβ 2,..., ˆβ p ) o df niezerowych składowych i mówimy, że model ma rozmiar df. Na rys. 1 przedstawiono przebiegi wartości składowych ˆβ j, j = 1, 2,..., p. Przyjęcie modelu o rozmiarze df oznacza, że rozwiązanie LASSO ˆβ przyjmie aktualne wartości df niezerowych składowych ˆβ j, a pozostałe p df współrzędnych pozostanie na poziomie zero ˆβ k = 0. j=1 500 LASSO β 3 β β β j 100 β β 8 6 β 10 0 β 1 df = df = 3 β Σ β j β 5 β 2 Rys. 1. Oszacowane przez selektor LASSO składowe ˆβ j modelu ˆβ vs. j ˆβ j. Obserwacje odpowiadające cesze k = 6 zastąpiono szumem Gaussowskim o σ = 0.1. Pionowymi liniami zaznaczono zmiany rozmiaru df modelu ˆβ, tzn. wzrost lub spadek liczby df niezerowych składowych wektora ˆβ. W punkcie 3 zdefiniowano statystyczną zgodność selektora ˆβ z prawdziwym modelem β. 212

214 3. Statystyczna zgodność selektora LASSO Statystyczną zgodność algorytmu LASSO, jako selektora cech, badali m.in. Zhao i Yu [4]. Nie udało im się jednak udowodnić zgodności lub jej braku dla selektora LASSO. Natomiast Zhao i Yu [4] podali warunki niereprezentowalności (Irrepresentable Conditions) zmiennych, których niespełnienie oznacza skorelowanie istotnych cech modelu z tymi nieistotnymi, co prowadzi w większości przypadków do niezgodności selektora. W przeprowadzonych eksperymentach obserwacje zmiennej X k, aktualnie wybranej do skasowania, zostały zastąpione białym szumem Gaussowskim o wariancji σ 2 i nie są skorelowane z pozostałymi zmiennymi (tj. cechami X i, gdzie i {1, 2,..., p} oraz i k), ani z odpowiedzią y. Wprowadźmy ogólną definicję zgodności estymatora: Definicja 1 Estymator ˆβ jest zgodny, jeżeli dla każdego ɛ > 0 ( lim P ˆβ ) β < ɛ = 1. (3) n Ze względu na fakt, że prawdziwy model β pozostaje nieznany, a jedynie wiadomo, że model ˆβ nie powinien zawierać cech, które nie wnoszą istotnej informacji o odpowiedzi y, potrzebny będzie inny sposób na określenie zgodności selektora. W przeprowadzonym eksperymencie zerowaliśmy obserwacje zawierające informacje o k-tej cesze, a następnie zastępowaliśmy je niezależnymi losowymi danymi o jednakowym rozkładzie normalnym N (0, σ 2 ). W prawdziwym modelu składowa β k, nieskorelowana z odpowiedzią, musi równać się zero (β k = 0), dlatego na potrzeby eksperymentu wprowadzamy alternatywną definicję statystycznej zgodności selektora o następującej treści: Definicja 2 Selektor ˆβ jest zgodny z rzeczywistym modelem β = β (df, σ, k), jeżeli ( ) lim P ˆβk = 0 = 1. (4) n Jeżeli wraz ze zwiększaniem liczby obserwacji n, prawdopodobieństwo zajścia zdarzenia loso-wego, że k-ta składowa ˆβ k zostanie odrzucona z modelu ˆβ (tzn. wyzerowana), będzie zbiegać do jedynki, to selektor nazwiemy zgodnym z prawdziwym modelem β, dla którego β k = 0. Opis przeprowadzonych eksperymentów znajduje się w punkcie 4, natomiast analiza otrzymanych wyników i sformułowanie wniosków umieszczono w ostatnim, 5 punkcie. 4. Eksperymentalne badanie zgodności W badaniu zgodności selektora LASSO użyto zbioru danych diabetes [1], wykorzystanego także do zilustrowania działania algorytmów LAR, LASSO oraz Forward Stagewise w [2]. Zbiór ten zawiera n = 442 obserwacje p = 10 cech. U 442 pacjentów chorujących na cukrzycę zmierzono następujące cechy: X 1 - wiek, X 2 - płeć, X 3 - BMI, X 4 - ciśnienie krwi oraz wyniki badań osocza: X 5 - TC, X 6 - LDL, X 7 - HDL, X 8 - TCH, X 9 - LTG, X 10 - glukoza. Jako odpowiedź y przyjęto współczynnik postępu choroby w ciągu roku. Dla ustalonego poziomu szumu σ = 0.1, 0.01, 0.001, rozmiaru modelu df = 1, 2,..., p 1 oraz liczby obserwacji n = 20, 40,..., 420, 440 przeprowadzono p N = 100 eksperymentów (po N = 10 dla każdej cechy X k ) polegających na poddaniu 213

215 selekcji za pomocą LASSO odpowiednio spreparowanych danych. W każdym zbiorze danych zastąpiono wygenerowanym szumem( jedynie ) jedną zmienną X k. Prawdopodobieństwo P ˆβk = 0, dla ustalonego modelu β = β (df, σ, k) oraz liczby obserwacji (zbadanych pacjentów) n, estymowano za pomocą częstości odrzucenia przez selektor k-tej cechy, uśrednionej dla wszystkich cech k = 1, 2,..., p: ˆP df,σ n = p k=1 #{ ˆβ k = 0}. (5) p N Uwzględniając (5) przy rosnącej liczbie eksperymentów N dostajemy uśrednione po wszystkich cechach prawdopodobieństwo ich odrzucenia lim N ˆP df,σ n = 1 p p k=1 ( ) P ˆβk = 0. (6) Wyniki eksperymentów dla różnych zakładanych wielkości modelu df umieszczono na rys. 2 w postaci wykresów częstości ˆP df,σ n odrzucenia nieistotnej cechy z modelu. 100 df = df = df = P n [%] 50 P n [%] 50 P n [%] n df = 4 σ=0.1 σ=0.01 σ= n df = 5 σ=0.1 σ=0.01 σ= n df = 6 σ=0.1 σ=0.01 σ= P n [%] 50 P n [%] 50 P n [%] σ=0.1 σ=0.01 σ=0.001 n df = 7 σ=0.1 σ=0.01 σ= σ=0.1 σ=0.01 σ=0.001 n df = 8 σ=0.1 σ=0.01 σ= σ=0.1 σ=0.01 σ=0.001 n df = 9 σ=0.1 σ=0.01 σ= P n [%] 50 P n [%] 50 P n [%] ˆP df,σ n n n Rys. 2. Częstość odrzucenia przez selektor LASSO zastąpionych szumem danych odpowiadających k-tej cesze, k {1, 2,..., p}, dla rosnącej liczby obserwacji n = 20, 40,..., 420, 440. Każdy wykres odpowiada innemu rozmiarowi df modelu ˆβ (df = 1, 2,..., 9), tzn. innej liczbie df niezerowych współrzędnych ˆβ = ( ˆβ 1, ˆβ 2,..., ˆβ p ). n 214

216 5. Wnioski Na podstawie przeprowadzonych eksperymentów zaobserwowano następujące zjawiska: a) Zgodność selektora LASSO zależy od ustalonego rozmiaru modelu df. Gdy rozmiar modelu jest mały df = 1, 2, 3, częstość odrzucenia nieistotnych cech jest bardzo wysoka i dąży do jedynki lim n czyli selektor można wtedy uznać za zgodny. ˆP df,σ n = 1, Natomiast dla modelu o dużym rozmiarze df = 7, 8, 9, dla dużych n częstość ˆP df,σ n oscyluje odpowiednio na niskim poziomie 45%, 15%, czy nawet 7%, co oznacza, że selektor nie jest zgodny. Dla df = 9 zmienna zaszumiona znalazła się w modelu dla około 93% eksperymentów, lim n ˆP 9,σ n 0.07, co może świadczyć o tym, że inne cechy też są bardzo słabo skorelowane z odpowiedzią y lub są silnie skorelowane z pozostałymi cechami włączonymi wcześniej przez selektor do modelu. b) Poziom szumu σ nie wpływa na zgodność selektora. Wykresy częstości dla trzech wartości σ = 0.1, 0.01, czy przeplatają się i na ich podstawie nie zauważono żadnej zależności df,σ z wartością częstości ˆP n. c) Analizując wyniki eksperymentu można zauważyć, że najczęściej występujac a trójka cech X j, dla których selektor jest zgodny, sa cechy X 3 - BMI (body mass index), X 9 - LTG (lamotrygina) oraz X 4 - ciśnienie krwi. Te trzy cechy są najmocniej skorelowane z wyjściem y. Porównaj przebiegi wartości składowych ˆβ 3, ˆβ 9 i ˆβ 4 przedstawione na rys. 1. Gdy przyjmowano model o rozmiarze df = 3 lub mniejszym, składowe ˆβ 3, ˆβ 9 oraz ˆβ 4 pozostawały najczęściej niezerowe. Składowa ˆβ 3 była kwalifikowana najczęściej do szukanych w eksperymencie modeli o zmniejszonym rozmiarze. We wszystkich przypadkach oprócz sytuacji, gdy cechę X 3 zastąpiono szumem, cecha X 3 była wybierana jako najmocniej skorelowana z odpowiedzią y, a składowa ˆβ 3 otrzymywała jako pierwsza wartość niezerową. Odrzucenie cechy przez selektor nie zawsze oznacza brak jej skorelowania z odpowiedzią. Sytuacja taka może zajść, gdy odrzucona cecha jest skorelowana z innymi cechami, które już zostały wybrane przez selektor. Przy rosnącej liczbie obserwacji n zgodny selektor zbiega według prawdopodobieństwa do prawdziwego modelu. Rośnie wtedy prawdopodobieństwo, że błąd estymacji modelu ˆβ β jest dowolnie mały, co jest pożądaną właściwością. Aby uchronić się przed brakiem zgodności należy sprawdzić, czy wszystkie cechy są skorelowane z odpowiedzią, a następnie przeprowadzić analizę ich korelacji, aby wyeliminować z modelu cechy mocno skorelowane ze sobą. Algorytm LASSO w każdym kroku włącza do zbioru aktywnego cechę ˆβ i o największej, aktualnej korelacji c i, która jest składową wektora ĉ = X T (y ŷ). Aby zapewnić zgodność selektora można zakończyć działanie algorytmu i przyjąć aktualny model ˆβ, gdy żadna z korelacji c i nie osiągnie odpowiednio dużej wartości. 215

217 Literatura [1] B. Efron, T. Hastie, I. Johnstone, R. Tibshirani, The diabetes data, [ hastie/papers/lars/diabetes.data], [2] B. Efron, T. Hastie, I. Johnstone, R. Tibshirani, Least Angle Regression, Annals of Statistics, 32(2), , [3] R. Tibshirani, Regression Shrinkage and Selection via the Lasso, Journal of the Royal Statistical Society, 58(1), , [4] P. Zhao, B. Yu, On Model Selection Consistency of Lasso, Journal of Machine Learning Research, 7, , EXPERIMENTAL STUDY ON STATISTICAL CONSISTENCY OF FEATURE SELECTOR BASED ON LARS/LASSO The aim of this article is to present the results of experiments verifying consistency of a feature selector algorithm based on LARS / LASSO (Least Absolute Shrinkage and Selection Operator). The study used data set diabetes [1] with p = 10 features of 442 patients with diabetes diagnosed and a measured response y to disease progression. In every experiment we replace one of the covariates with white Gaussian noise from N ( 0, σ 2) distribution, and then the LASSO selector ˆβ chooses the relevant features. We repeat the experiments N = 10 times for all p = 10 covariates to average results. The simulations were done for tree noise levels σ = 0.1, 0.01, and 0.001, model size df = 1, 2,..., p 1 and number of observations n = 20, 40,..., 420, 440. We analyze if those previously reset features X k are recognized by the selector as the least important, i.e. ˆβk = 0. We say that the LASSO selector ˆβ is consistent with the true model β = β (df, σ, k) (for fixed df, σ and index of noisy covariate k), if ( ) lim P ˆβk = 0 = 1. n The probability of reduction of replaced with noise covariate X k was estimated by frequency of setting ˆβ k to zero: p ˆP n df,σ k=1 = #{ ˆβ k = 0}. p N Increasing the number of samples, we could observe the consistency or inconsistency of LASSO selector depending on the model size df. The LASSO is consistent for small model size, like df = 1, 2 and 3, and it is not consistent for large model size df = 7, 8 and 9. For the model of size df = 3 the most frequently chosen features were: X 3 - BMI (body mass index), X 9 - LTG (lamotrigine) and X 4 - blood pressure. We noticed also that the level of noise σ has no influence on the selector consistency. 216

218 Układy jazdy maszyn podstawowych górnictwa odkrywkowego Paweł Maślak1 Streszczenie: W artykule przedstawiono rodzaje maszyn podstawowych górnictwa odkrywkowego stosowane w największych kopalniach węgla brunatnego w Polsce. Ukazane zostały również rodzaje stosowanych układów podwozi gąsienicowych oraz przykładowe obliczenia numeryczne wybranych elementów podwozi. Słowa kluczowe: układy gąsienicowe, maszyny podstawowe górnictwa odkrywkowego 1. Wprowadzenie Maszyny podstawowe górnictwa odkrywkowego są największymi na świecie samojezdnymi maszynami stosowanymi w przemyśle. Zdecydowaną większość stanowią koparki oraz zwałowarki. Największe ze zwałowarek są wysokie na 70 metrów, a ich długość jest dwukrotnością boiska piłkarskiego. Koparki natomiast w jednym czerpaku koła potrafią pomieścić samochód osobowy. Zwałowarkę i koparkę przedstawiono na rysunku numer 1 i 2. W Polsce w kopalniach węgla brunatnego blisko 100 % maszyn podstawowych ma gąsienicowy mechanizm jazdy, który to w znacznym stopniu ułatwia poruszanie się w trudnych warunkach kopalnianych oraz zapewnia stabilność samej maszynie [2]. Rys. 1. Zwałowarka w Kopalni Węgla Brunatnego "Bełchatów" 1 Politechnika Wrocławska, Instytut Konstrukcji i Eksploatacji Maszyn, Zakład Komputerowego Wspomagania Projektowania, ul. Łukasiewicza 7/9, Wrocław, pawel.maslak@pwr.wroc.pl 217

219 Rys. 2. Koparka wielonaczyniowa pracująca w pokładzie węgla brunatnego 2. Gąsienicowe układy jazdy Układy gąsienicowe, w zależności od typu maszyny, składają się z pojedynczych dźwigarów gąsienicowych połączonych w zestawy po 2 lub nawet 4 gąsienice pod jedną podporę [1]. W zależności od typu maszyny: koparka czy zwałowarka układy te przyjmują różne rozmieszczenie zestawów. Typowe układy gąsienicowych mechanizmów jazdy przedstawiono na rysunku 2. Rys. 3. Typowe układy gąsienicowych mechanizmów jazdy [3] Typowe układy stosowane w zwałowarkach przedstawione są na rysunku 3 w podpunktach d, f oraz h, dla koparek są to układy e, g oraz i. Związane jest to ze spoistością gruntu po jakim poruszają się poszczególne maszyny; zwałowarki poruszają się po gruncie nie zagęszczonym. Przedstawione układy nie wyczerpują zbioru wszystkich możliwych rozwiązań, są najczęściej stosowanymi układami. 3. Dźwigary gąsienicowe Elementami narażonymi na uszkodzenia są dźwigary gąsienicowe. Duży odsetek gąsienicowych układów jazdy był projektowany i wytwarzany jeszcze w ubiegłym wieku. 218

220 Zapewnienie niezawodnej pracy maszyn jest niezbędne do prawidłowego funkcjonowania kopalni oraz elektrowni, która to jest odbiorcą złóż węgla z kopalni [1,2]. W celu zapobieżenia ewentualnym wypadkom wynikającym z eksploatacji samych maszyn prowadzi się badania mające na celu sprawdzenie stanu technicznego maszyny. Zadanie to jest realizowane na wiele sposobów. Jednym z nich jest wykonanie analizy wytrzymałościowej wybranych elementów gąsienicowego mechanizmu jazdy Obliczenia normowe elementów gąsienicowego mechanizmu jazdy Obecnie stosowane normy uwzględniają przypadki obciążeń elementów podwozia podczas pracy normalnej, jak i podczas przeciążeń, nadzwyczajnych warunków pogodowych czy nawet podczas trzęsienia ziemi [4]. Różnorodność schematów obciążeń powoduje, że po przeanalizowaniu wszystkich przypadków normowych można ocenić czy dany element spełnia wymagania pozwalające sprawnie działać w czasie eksploatacji. Wykorzystanie jak największej ilości układów podparć i obciążeń pozwala określić miejsca najbardziej narażone na uszkodzenia Obliczenia numeryczne elementów gąsienicowego mechanizmu jazdy Wykonane analizy metodą elementów skończonych z uwzględnieniem warunków obciążeń normowych pozwalają na określenie wartości naprężeń w poszczególnych elementach gąsienicowego mechanizmu jazdy. Na rysunku 4 pokazano przykładowe wyniki obliczeń numerycznych dla dźwigara gąsienicowego maszyny SchRs 1200 eksploatowanej w Kopalni Węgla Brunatnego Turów SA.. Rys. 4. Obliczenia wytrzymałościowe dźwigara gąsienicowego Obliczona wartość naprężeń w dźwigarze gąsienicowym, dla wielu przypadków obciążeń, pozwala określić miejsca najbardziej narażone na uszkodzenia. Punkty takie wymagają wykonywania okresowych oględzin. Dokonywanie obserwacji tych miejsc powinno być nie inwazyjne dla samego elementu i powinno pozwalać na określenie stanu maszyny. Metody wykorzystywane do inspekcji to najczęściej metody badań nieniszczących takich jak: badania 219

221 wizualne, stosowanie metody magnetyczno-proszkowej czy defektoskopii ultradźwiękowej. Wskazane miejsca do kontroli okresowych pokazano na rysunku Podsumowanie Rys. 5. Miejsca najbardziej narażone na uszkodzenie Maszyny podstawowe górnictwa odkrywkowego, ze względu na swoje gabaryty i warunki pracy, wymagają ciągłej profesjonalnej kontroli i systematycznych przeglądów. Prowadzenie badań eksperymentalnych i nieniszczących pozwala w znacznym stopniu zapobiegać wypadkom powodowanymi uszkodzeniami mechanicznymi. Badania sprawdzające stan maszyny są dobrym narzędziem do zwiększenia niezawodności eksploatacyjnej. Literatura [1] P. Maślak, E. Rusiński, T. Smolnicki, Obliczenia wytrzymałościowe elementów podwozi maszyn podstawowych górnictwa odkrywkowego, Transport Przemysłowy, 1/2011 [2] N. Wocka, A. Warcholak, J. Andrzejewski, Gąsienicowe mechanizmy jazdy maszyn podstawowych górnictwa odkrywkowego - działania innowacyjne zwiększające trwałość i niezawodność eksploatacyjną, Węgiel brunatny 4/73/2010. [3] K. Pieczonka, Inżynieria maszyn roboczych, Część I Podstawy urabiania, jazdy, podnoszenia i obrotu, Oficyna Wydawnicza Politechniki Wrocławskiej, Wrocław, 2007 [4] Norma PN-G : 2005 Górnictwo odkrywkowe - Koparki wielonaczyniowe i zwałowarki - Część 2: Podstawy obliczeniowe CHASSIS OF OPEN CAST MINING MACHINES Open cast mine machines is one of the biggest machines in the World. Most of them is with the multicaterpillar track chassis. It is common solution for dry and powdery ground. Multicaterpillar track chassis are used in the biggest machines. This kind of chassis is commonly used in open cast mines for mobile transfer conveyor or for bucket wheel excavators. In each machine the chassis consist of 6 to 12 caterpillar tracks, which some are steered. IT is necessary to prevent any damage of elements of chassis. To avoid crash of machines the study need to be done. The most popular is nondestructive testing and finite element method calculations. For very complicated elements only way to verify the exploitation state of the machine is FEM testing and nondestructive testing in places most endangered. 220

222 Natura w technice Emilia Mazgajczyk 1 Streszczenie: Celem pracy jest przedstawienie przykładów rozwiązań zaczerpniętych z natury a zastosowanych w technice. Przedstawiono systemy funkcjonujące w środowisku od tysięcy lat, a które są wykorzystywane w przemyśle tekstylnym oraz architekturze. Pokazano również, jak można przyglądając się naturze ulepszyć technologie stworzone przez człowieka. Słowa kluczowe: biomimetyka, efekt lotosu, skóra rekina, baterie słoneczne 1. Wprowadzenie Biomimetyka, zwana również bioniką, to dziedzina nauki, której celem jest przyglądanie się naturze i odtwarzanie pewnych rozwiązań z niej zaczerpniętych w technice [1]. Nazwa pochodzi od słów bios życie oraz mimesis naśladować. Życie na ziemi przez wiele tysięcy lat przystosowywało się do warunków panujących dookoła. Przyroda dąży do tego by osiągnąć jak najwyższą wydajność kosztem zużycia najmniejszej ilości energii oraz materiału. Natura może stać się inspiracją zarówno dla chemików, inżynierów czy architektów w różnych gałęziach przemysłu. Nauka ta znalazła zastosowanie między innymi w przemyśle tekstylnym, nanotechnologiach, robotyce, czy nawet w naukach społecznych oraz polityce. Celem niniejszej pracy jest pokazanie czytelnikowi, jak łatwo można znaleźć odpowiedź na nurtujące nas problemy. Czasem wystarczy spojrzeć za okno, uważniej przyjrzeć się otaczającej nas przyrodzie. Przedstawionych zostanie kilka zastosowań zaczerpniętych z natury w przemyśle tekstylnym, architekturze oraz w technologiach pozyskiwania energii ze źródeł naturalnych. Będzie można znaleźć odpowiedź na pytanie dlaczego wieża Eiffla ma taki a nie inny kształt, czy można wyprodukować materiał, który nigdy nie wyblaknie, oraz co zrobić by wygrać olimpiadę pływacką? 2. Przemysł tekstylny Motyle nie tylko pięknie wyglądają zachwycając wszystkich, ale jak się okazało również mogą zaskoczyć swoimi właściwościami. Skrzydła motyla z rodziny Morphidae cieszą piękną barwą i jak się okazuje nie jest to spowodowane zawartym w nich barwnikiem. Badania skrzydeł motyla pod mikroskopem skaningowym pozwoliły zauważyć ich szczególną mikrobudowę. Skrzydełka pokryte są drobniutkimi łuskami, każda łuska jest pokryta komórkami nabłonka, a każda z komórek tworzy równoległe pionowe ścianki (rys. 1). Widoczny kolor niebieski jest efektem interferencji światła białego pomiędzy ściankami, których odległość między sobą jest równa długości światła niebieskiego, pozostałe barwy zostają wygaszone [5]. 1 Instytut Technologii Maszyn i Automatyzacji, Politechnika Wrocławska, ul. Łukasiewicza 5, Wrocław, Polska, Tel (048) , emilia.mazgajczyk@pwr.wroc.pl 221

223 Rys. 1. Motyl z rodziny Morphidae oraz mikrostrukturalna budowa jego skrzydeł [5] Japońscy przemysłowcy wyprodukowali tkaninę o nazwie Morfotex, w której włókna ułożone są analogicznie do komórek w skrzydełkach Morfeusza. Jest wiele innych gatunków motyli, których budowa skrzydeł znalazła zastosowanie w technice. Charakterystyczne ułożenie komórek pozwoliło na zaprojektowanie kryształów fotonicznych, których różnorodna budowa pozwala uzyskać materiał o specjalnych właściwościach. Efektem dalszych prac nad nimi mogą być komputery o niewielkich rozmiarach, ale ogromnych mocach obliczeniowych [6]. Zadziwiające są również pewne właściwości niektórych roślin. Powszechnie znany kwiat lotosu, żyjący na terenach mokrych i bagnistych ma specyficzne liście. Są one zawsze suche, a do tego idealnie czyste. Naukowcy postanowili zbadać, co się kryje za tą cechą. Zespoły badaczy w Stanach Zjednoczonych oraz Chinach przeprowadziły szeroką analizę struktury powierzchni liścia, głównie z wykorzystaniem mikroskopu skaningowego. Zauważono, że zbudowana jest ona z grudek, które mają silnie hydrofobowe właściwości, dlatego też krople wody w kształcie idealnych kul spływają po niej (rys. 2) [2, 3, 4]. Właściwość tą zastosowano w przemyśle do produkcji farb, których producenci dają wieloletnią gwarancję, że powierzchnia nią pomalowana pozostanie czysta bez konieczności używania specjalistycznych środków czyszczących. Jednak nie tylko w farbie wykorzystano efekt lotosu. Zaprojektowano również nieprzemakalny materiał, który stosuje się do produkcji namiotów [7]. Powierzchnia po której bez przeszkód spływają poranne krople rosy pozwala na zbieranie cennej wody, na terenach, na których jest jej niedostatek. Rys. 2. Struktura powierzchni liścia lotosu oraz kropla wody na nim [2] 222

224 Hydrofobowe właściwości powierzchni zauważono także u zwierząt. Badacze zainteresowali się bowiem skórą rekina. Chcieli zdobyć odpowiedź na pytanie: dlaczego tak ogromna masa, wydawałoby się z niewielkim nakładem energii, potrafi rozpędzić się do kilkudziesięciu kilometrów na godzinę. Sekret tkwił w strukturze skóry rekina (rys. 3) [8]. Badania z wykorzystaniem mikroskopu skaningowego wykazały, że jest ona pokryta ostro zakończonymi łuskami o wypukłych równoległych grzbietach biegnących przez ich środek. Grzbiety te ukierunkowują przepływ wody zmniejszając jej opór. Zaprojektowano materiał dla pływaków o nazwie Fastskin imitujący skórę rekina. W takich kostiumach wystartowała na Olimpiadzie w 2004 roku reprezentacja Australii zdobywając 8 złotych medali. 3. Architektura Rys. 3. Struktura skóry rekina oraz kostium Fastskin [13] Już w XIX wieku Hermann von Meyer interesował się budową kości udowej. To właśnie on zauważył, że beleczki kostne w głowie kości udowej układają się w pewien charakterystyczny sposób. Ułożenie ich jest zgodne z kierunkiem działania największych obciążeń (rys. 4). Rozwiązanie to wykorzystał Gustave Eiffel projektując 324 metrową wieżę [1]. Wziął pod uwagę również hierarchiczną budowę kości, oraz jej przestrzenną budowę (rys. 4) [9]. Potężne stalowe łuki wsparte na 4 podporach przenoszą ciężar ażurowej konstrukcji najpierw w bok a następnie w dół, podobnie jak wewnętrzny szkielet kości udowej. Opisaną cechę budowy kości udowej architekci wykorzystują także przy projektowaniu mostów [9]. Rys. 4. Budowa wewnętrzna głowy kości udowej oraz budowa wieży Eiffla W architekturze zastosowanie znalazła również pewna roślina. Była to Wiktoria Królewska. W XIX wieku Joseph Paxton zauważył, że liście tej rośliny osiągają ogromne rozmiary, a ich wyporność jest tak duża, że mogą unieść na wodzie dorosłego człowieka. Szkielet liści Wiktorii Królewskiej składa się z siatki zgrubiałych nerwów odchodzących promieniście od łodygi, 223

225 połączonych poprzecznymi belkami (rys. 5). Zainspirowany budową liścia zaprojektował największy w historii kryształowy pałac. Niestety to unikatowe dzieło sztuki nie przetrwało do naszych czasów, ponieważ spłonęło w 1936 roku. Rys. 5. Crystal Palace oraz spodnia strona liścia Wiktorii Królewskiej [14, 15] XXI wiek to czasy, kiedy prężnie rozwija się przemysł ciepłowniczy. Wszystkie kraje dążą do tego by w dużym stopniu pozyskiwać energię ze źródeł naturalnych, na przykład z promieniowania słonecznego. Dzisiejsze baterie słoneczne mają niską wydajność, by uzyskały one maksymalna sprawność musiałyby pochłaniać jak najwięcej światła. Naukowcy postanowili przyjrzeć się dokładnie owadom, które prowadzą aktywny tryb życia w nocy, ściślej mówiąc ich oczom. Oczy ćmy pochłaniają prawie całe promieniowanie jakie do nich dociera. Analiza ich struktury pod mikroskopem skaningowym pozwoliła stwierdzić, że oko owada jest zbudowane z wielu mikrooczu upakowanych bardzo blisko siebie (rys. 6). Mają one tą specjalną cechę, że tworzą warstwę antyrefleksyjną oraz pochłaniają światło z szerokiego spektrum (od ultrafioletowego do światła o częstotliwości teraherców) [10, 11]. Na podstawie takich badań stworzono specjalne powłoki o właściwościach antyrefleksyjnych, pochłaniające światło z zakresu światła ultrafioletowego do podczerwonego oraz charakteryzujące się wodoodpornością [12]. 4. Podsumowanie Rys. 6. Oko muchy i jego struktura [12] Często nie zdajemy sobie nawet sprawy z tego, że dane urządzenie, jego budowa czy zasada działania jest zaczerpnięta z przyrody. Między innymi kształt łodzi podwodnych, budowa skrzydeł samolotów, rzepy, oddychające materiały, konstrukcje budynków oraz wiele innych. Podglądanie przyrody daje ogrom możliwości do zastosowania w wielu działach techniki, a także socjologii, biznesie czy nawet polityce. 224

226 Literatura [1] H. Yahya, Biomimetics: Technology Imitates Nature, Okmeydani-Istanbul, marzec 2006 [2] I. Luzinov, P. Brown, G. Chumanov, M. Drews, S. Minko, Ultrahydrophobic Fibers: Lotus Approach, National Textile Center Research Briefs Chemistry Competency, czerwiec 2006 [3] B. Bhushan, Biomimetics inspired surfaces for drag reduction and oleophobicity/philicity, Beilstein Journal Nanotechnology, (2) 2011, [4] Z. Guo, W. Liu, B.-L. Su, Superhydrophobic surfaces: From natural to biomimetic to functional, Journal of Colloid and Interface Science, (353) 2011, [5] A. L. Ingram, A. R. Parker, A review of the diversity and evolution of photonic structures in butterflies, incorporating the work of John Huxley (The Natural History Museum, London from 1961 to 1990), Philosophical Transactions of the Royal Society B, (363) 2008, [6] L.P. Biró1, J.P. Vigneron, Photonic nanoarchitectures in butterflies and beetles: valuable sources for bioinspiration, Laser & Photonics Reviews vol. 5, No. 1, 2011, [7] K. Ramaratnam, S. K. Iyer, M. K. Kinnan, G. Chumanov, P. J. Brown, I. Luzinov, Ultrahydrophobic Textiles Using Nanoparticles: Lotus Approach, Journal of Engineered Fibers and Fabrics, vol. 3, Issue 4, 2008 [8] H. Xin, Z. DeYuan, Study on the micro-replication of shark skin, Science in China Series E: Technological Sciences, vol. 51, no. 7, lipiec 2008, [9] M. M. Sundaram, G. K. Ananthasuresh, Gustave Eiffel and his Optimal Structures, Resonance, wrzesień 2009, [10] T. Lohmüller, M. Helgert, M. Sundermann, R. Brunner, J.P. Spatz, Biomimetic Interfaces for High-Performance Optics in the Deep-UV Light, Nano Letters, vol. 8, no. 5, 2008, [11] C. H. Sun, A. Gonzalez, N. C. Linn, P. Jiang, B. Jiang, Templated biomimetic multifunctional coatings, Applied Physics Letters 92, , 2008 [12] K. Liua, L. Jiang, Bio-inspired design of multiscale structures for function integration, Nano Today 6, 2011, [13] [14] [15] NATURE IN TECHNOLOGY Biomimetics, also known as bionics is a science whose objective is to contemplate the nature and playback of certain technological solutions. Presented systems functioning in the environment for thousands of years, and which are used in textiles and architecture. It was also demonstrated by looking at how to improve the nature of developed by man technologies. Nature can be an inspiration to chemists, engineers and architects in various industries. Often we do not 225

227 even realize that the device, its construction and principle of operation is taken from nature. For example the shape of a submarine, the construction of aircraft wings, velcro, "breathable" materials, construction of buildings and many others. Previewing and emulating of nature gives many possibilities to be used in many branches of art, as well as sociology, business and even politics. Nature should become an inspiration to everyone. 226

228 Energochłonność obrabiarki skrawającej na przykładzie tokarki Janusz Mączka 1, Andrzej Roszkowski 1, Paweł Preś 1 Streszczenie: W artykule przedstawione są zagadnienia poboru mocy i zużycia energii podczas eksploatacji różnych tokarek, na podstawie przebiegu próby skrawania. Określone i poddane analizie są czynniki wpływające na zużycie energii i różnicujące obrabiarki pod względem zużytej energii podczas realizacji procesu obróbki. Słowa kluczowe: energochłonność, skrawanie, tokarki CNC 1. Wprowadzenie Do funkcjonowania złożonych systemów produkcyjnych niezbędna jest energia. Nie może być ona w całości zamieniona na pracę ze względu na nieuchronne rozpraszanie energii. Jak dowodzi Baumgärtner [1] również odpady w systemie produkcyjnym są nie do uniknięcia. Zarówno straty energii jak i powstawanie odpadów można i należy minimalizować, bowiem przekładają się one bezpośrednio na straty finansowe przedsiębiorstwa produkcyjnego. Zauważalna ostatnimi laty tendencja przemysłu do wykazywania troski o środowisko wynika z dwóch głównych przyczyn: z marketingowej potrzeby ukazania, że dba się o środowisko co najmniej tak jak uświadomiony ekologicznie klient-nabywca, a także z regulacji prawnych wynikających z ustaleń międzynarodowych dotyczących zmniejszenia emisji dwutlenku węgla, które poprzez system kar wymuszają na producentach zmniejszenie zużycia energii. Sterowana numerycznie obrabiarka skrawająca do metali jest jednym z podstawowych składników systemów produkcyjnych w przemyśle elektromaszynowym. Chociaż koszt zużycia energii podczas eksploatacji obrabiarki jest niewielki wobec całości kosztów eksploatacji systemu produkcyjnego (robocizna, narzędzia, ciecze chłodząco-smarujące, części zamienne). Jednak nawet drobne lokalnie usprawnienia dotyczące zmniejszenia energochłonności obrabiarki mogą przynieść globalnie znaczące korzyści. 2. Sposoby definiowania zużycia energii Minimalne zużycie energii podczas eksploatacji obrabiarki skrawającej jest trudne do określenia wobec niepełności modelu sił skrawania. Istniejące modele można zastosować w wąskim przedziale parametrów, gdyż nie biorą pod uwagę występujących interakcji pomiędzy przedmiotem obrabianym, obrabiarką i narzędziem [2]. Podstawową wielkością fizyczną charakteryzującą aspekt energetyczny pracy obrabiarki jest moc skrawania. P c =F c v c [W ], (1) gdzie: P c moc skrawania, v c prędkość skrawania, F c siła skrawania. Wzór na energię skrawania: t max E= P c dt [J ], t min (2) 1 Instytut Technologii Maszyn i Automatyzacji, Wrocław, ul. I. Łukasiewicza 5, janusz.maczka@pwr.wroc.pl 227

229 określa zależność pomiędzy mocą skrawania a energią skrawania. Należy zaznaczyć, że jest to moc jaką należy dostarczyć w miejsce styku przedmiotu obrabianego z jedną lub więcej krawędzią skrawającą, a nie wartość mocy elektrycznej obrabiarki. Efektywność procesu pod względem energetycznym określa pojęcie sprawności η. Jest to bezwymiarowa wielkość fizyczna: η= E wyj E wej, (3) gdzie E wej to energia dostarczona do układu, a E wyj to energia przetworzona (np. na pracę). Taki sposób opisywania procesu, szczególnie tak złożonego jakim jest skrawanie, nie jest jednak praktyczny ze względu na brak możliwości precyzyjnego określenia rzeczywistej wartości E wej., co wymaga dokładnego wyznaczenia siły skrawania. Jednakże istniejące modele nie są zbyt dokładne (modele empiryczne), albo są zbyt skomplikowane i czasochłonne (np. modele symulacyjne metodą elementów skończonych), co w praktyce uniemożliwia ich zastosowanie w w warunkach przemysłowych. W praktyce inżynierskiej stosuje się współczynniki korekcyjne, których wartości wyznaczone eksperymentalnie można określić na podstawie tabel w wydawnictwach poradnikowych dotyczących obróbki skrawaniem, na przykład w [3]. Oszacowanie siły skrawania oprócz określenia zapotrzebowania na moc może też być wykorzystane przy obliczaniu obciążenia łożysk lub uchwytów obróbkowych [4]. Powszechną metodą przy określeniu wydatku energetycznego potrzebnego na obróbkę skrawaniem jest wyznaczenie energii właściwej skrawania, czyli ilości energii potrzebnej do usunięcia pewnej objętości materiału. Wzór na energię właściwą skrawania E V : E V = E V [ J mm3], (4) gdzie E to ilość energii potrzebnej na zdjęcie naddatku o objętości V. Wartości energii właściwej skrawania dla różnych materiałów znaleźć można w literaturze, m. in. w [3]. Wartości podane są niestety dla pewnych tylko grup materiałów, stąd dokładność tej metody do szczegółowych analiz energochłonności nie jest wystarczająca. Co najwyżej nadaje się ona do wstępnego doboru mocy znamionowej obrabiarki. Oprócz strat w procesie, których nie można uniknąć (straty w łańcuchu kinematycznym, straty magnetyczne w silnikach) część energii jest zużywana na podtrzymywanie funkcjonowania samej obrabiarki, a nie na realizację procesu skrawania podsystemy układu sterowania, układu chłodzenia, zmieniacza narzędzi czy odbioru wiórów. 3. Sposób przeprowadzenia badań zużycia energii Celem badań była analiza energochłonności obrabiarki skrawającej (tokarki). Akwizycja danych pomiarowych miała zostać przeprowadzona za pomocą prostych środków technicznych dostępnych nawet w małych firmach z obszaru produkcji. W tym celu przystosowano rejestrator parametrów sieci Lumel N14 mający możliwość pomiaru mocy do obsługi za pomocą komputera PC. Rejestrowano czasowe przebiegi mocy czynnej dla różnych tokarek podczas obróbki przedmiotu testowego, a następnie wyznaczono odpowiednie wartości zużycia energii podczas poszczególnych zabiegów skrawania. Przedmiotem testowym był krótki wałek z wybraniami wykonany z miękkiej stali 45, ze wstępnie obrobionymi powierzchniami walcową i czołową, zamocowany w uchwycie trójszczękowym. Długość wałka nie przekraczała trzech wymiarów średnicy, więc nie było potrzeby podpierać go kłem. Kształt przedmiotu umożliwiał zeskrawanie warstwy o sumarycznej grubości 2,8 mm przy zmniejszeniu średnicy o 1,4 mm na serię pomiarową. Przedmiot testowy przedstawiony jest na rys. 1. W tabeli 1. przedstawiono zestawienie obrabiarek użytych w badaniu. 228

230 Tab. 1. Obrabiarki wykorzystane w badaniach Oznaczenie Producent Typ 1 TUR FAT Haco TUR MN HAAS HAAS 2008 TL-1 Rys. 1. Przedmiot testowy Obróbka zrealizowana została przy użyciu typowych narzędzi skrawających, ale takich samych dla obu obrabiarek, celem wyeliminowania czynników różnicujących wartości rejestrowanego chwilowego poboru mocy. Parametry obróbki zostały dobrane w taki sposób, aby uwzględnić całe przedziały wartości głębokości skrawania, posuwów i prędkości skrawania możliwe dla przyjętego materiału przedmiotu obrabianego i zastosowanego narzędzia. Przykładowe przebiegi czasowe mocy czynnej przedstawiają rysunki 2 i 3. Na rysunku 2 przedstawione są zarejestrowane czasowe przebiegi mocy czynnej pobieranej przez badane tokarki podczas realizacji zabiegów toczenia wzdłużnego. Przy takim rodzaju toczenia prędkość skrawania i siła skrawania teoretycznie powinny być stałe. Jednak wobec niejednorodności materiału siła skrawania może się zmieniać, ponadto mogą wystąpić niekorzystne zjawiska w rodzaju owinięcia wiórem wstęgowym przedmiotu obrabianego, które powodują zwiększenie obciążenia silnika napędu głównego obrabiarki i wzrost poboru mocy. Rys. 2. Przykładowe przebiegi mocy czynnej obrabiarek TUR i HAAS dla toczenia wzdłużnego z prędkością skrawania v c =270m/min, posuwem f=0,1mm/obr, dla różnych głębokości skrawania a p równych 0, 0,4, 1,0 i 1,4 mm. Na rysunku 3 jest przedstawiony przebieg czasowy mocy czynnej określony podczas zabiegu toczenia poprzecznego. W takim przypadku wobec zmieniającej się średnicy przedmiotu obrabianego prędkość obrotowa wrzeciona nie jest stała. Skutkiem tego jest też zmienna w czasie 229

231 wartość mocy czynnej. Ponadto układ sterowania obrabiarki może ograniczyć prędkość obrotową wrzeciona do maksymalnej wartości dopuszczalnej, co będzie skutkować zmianą warunków obróbki. Wartości mocy czynnej wykazują wzrost wraz ze wzrostem głębokości skrawania, posuwu i prędkości skrawania dla danej obrabiarki. Różnice pomiędzy obrabiarkami są znaczne i uzasadniają potrzebę oceny obrabiarki pod kątem energochłonności procesów w niej zachodzących. Rys. 3. Przykładowe przebiegi mocy czynnej obrabiarek TUR i HAAS dla toczenia poprzecznego ze stałą prędkością skrawania v c =270m/min, posuwem f=0,1mm/obr, dla różnych głębokości skrawania a p równych 0, 0,4, 1,0 i 1,4 mm. Rys. 4. Zestawienie wyników wyznaczenia zużycia energii dla zabiegu toczenia wzdłużnego dla obu obrabiarek dla wartości prędkości skrawania v c =180m/min (po lewej) i v c =270m/min. Rys. 5. Zestawienie wyników zużycia energii dla samej obróbki toczenia poprzecznego dla obu obrabiarek dla wartości prędkości skrawania v c =180m/min (po lewej) i v c =220m/min. 230

232 Rys. 6. Zestawienie wyników zużycia energii dla zabiegu toczenia poprzecznego dla obu obrabiarek dla wartości prędkości skrawania v c =270m/min. Rys. 7. Zestawienie wyników wyznaczenia zużycia energii dla zabiegu toczenia poprzecznego przy stałej prędkości obrotowej (tak jak dla obrabiarki konwencjonalnej), dla obu obrabiarek przy prędkości obrotowej wrzeciona n=800obr/min. Wartości zużycia energii dla toczenia przedstawione są na rysunkach 4-7. Na obrabiarce HAAS nie została przeprowadzona seria toczenia z posuwem 0,4 mm, ze względu na przekroczenie dopuszczalnej mocy tymczasowej. Tab. 2 Zestawienie wyników zużycia energii dla procesu toczenia wzdłużnego dla różnych obrabiarek HAAS TUR v c [m/min] a p [mm] f [ mm/obr] P sr [W] ΔE/ΔV [J/mm 3 ] P sr [W] ΔE/ΔV [J/mm 3 ] ,4 1 1,4 0,4 1 1,4 0,4 1 1,4 0,1 0,1 0,1 0,22 0,22 0,22 0,4 0,4 0, ,2 5,1 4,5 4,5 3,6 3,3 2,8 3,3 2, ,7 7,9 6,3 7,8 4,7 3,9 5,2 3,4 2,9 231

233 Tab. 2 c.d. Zestawienie wyników zużycia energii dla procesu toczenia wzdłużnego dla różnych obrabiarek HAAS TUR v c [m/min] a p [mm] f [ mm/obr] P sr [W] ΔE/ΔV [J/mm 3 ] P sr [W] ΔE/ΔV [J/mm 3 ] ,4 1 1,4 0,4 1 1,4 0,4 1 1,4 0,1 0,1 0,1 0,22 0,22 0,22 0,4 0,4 0, ,2 4,6 4,1 4,0 3,4 3,2 3,2 2,9 2, ,5 5,7 4,7 5,4 3,7 3,2 3,8 2,9 2,6 Podsumowanie Branie pod uwagę tylko mocy skrawania jako odzwierciedlenie energochłonności procesu może prowadzić do wyciągnięcia mylnych wniosków, gdyż to właśnie przy wysokiej mocy pobieranej wartość energochłonności jest najmniejsza. Przyczyną jest tu krótszy czas operacji. Ograniczeniem zaś są możliwości techniczne obrabiarki. Zużycie energii przez tokarkę zależy w istotny sposób od cech samej obrabiarki. Ponadto duży udział w całkowitej wartości zużycia energii mają instalacje pomocnicze, bez których jednak sama obróbka byłaby niemożliwa. Duży rozrzut wartości dla wartości energii pomiędzy obrabiarkami realizującymi ten sam proces obróbki wskazuje na potrzebę uważniejszego doboru obrabiarki do procesu. Powyższe wskazuje również na potrzebę oceny danej obrabiarki pod kątem energochłonności procesów obróbczych na niej realizowanych. Literatura [1] S. Baumgärtner, J. de Swaan Arons, Necessity and Inefficiency in the Generation of Waste, Journal of Industrial Ecology, 7, , 2003 [2] C. Brecher (2), M. Esser, S. Witt, Interaction of manufacturing process and machine tool, CIRP Annals Manufacturing Technology, 58, , 2009, [3] Ulrich Fischer i in.; red.j.potrykus, Poradnik mechanika, Wydawnictwo REA, Warszawa, [4] D. A. Stephenson, J. S. Agapiou, Metal Cutting Theory and Practice, CRC Press, 2006 ENERGY CONSUMPTION OF METAL-CUTTING MACHINE TOOL ON THE EXAMPLE OF LATHE Energy consumption and energy losses during production processes are inevitable, one can and should attempt to minimise them, because it is economically sound, eases marketing as being nature-friendly and enables carbon dioxide emission mitigation. Cutting machine-tools have much improvement potential for energy efficiency. However, due to complex interactions among the machine-tool, the cutting tool and the object being processed, it's hardly possible to evaluate efficiency of cutting operation right on the factory floor. Some measurements are needed. In this paper some results are given from easy cutting power measurements, possible to obtain almost in any metal-working factory. Also energy consumption calculations are presented and conclusions about relations between power and energy concerning the process of turning are drawn. 232

234 Technologie i systemy konwersji promieniowania słonecznego na energię elektryczną Magdalena Nemś 1 Streszczenie: W artykule przedstawiono trzy wybrane systemy produkujące energię elektryczną wykorzystując promieniowanie słoneczne, tj. ogniwo fotowoltaiczne, moduł Peltiera oraz generator ORC (Organic Rankine Cycle). Wybrano spośród nich także układ, który najłatwiej byłoby dostosować do współpracy z wielkogabarytowym kolektorem skupiającym i granitowym złożem akumulacyjnym w koncepcyjnym słonecznym domu. Słowa kluczowe: energetyka słoneczna, energia elektryczna ze Słońca 1. Wprowadzenie Istnieje wiele systemów wytwarzania energii elektrycznej opartych na odnawialnych źródłach energii. Wśród nich znaczącą rolę odgrywają systemy napędzane energią promieniowania słonecznego. Szacuje się, że gdyby wykorzystać tylko 2% [1] z promieniowania słonecznego docierającego do wszystkich pustyni, to pokryłoby to potrzeby energetyczne mieszkańców całej Ziemi. Dlatego też ważnym jest, aby prowadzić badania zmierzające do maksymalnego wykorzystania energii słonecznej, również w warunkach klimatycznych Polski. 2. Przegląd technologii słonecznej produkcji energii elektrycznej Wykorzystanie Słońca jako podstawowego źródła energii może odbywać się w układach, które wykorzystują m.in.: ogniwa fotowoltaiczne, wieże i kominy słoneczne, lub kolektory słoneczne połączone z modułem Peltiera, generatorem ORC lub silnikiem Stirlinga. W poniższej części rozdziału zostały opisane trzy z wymienionych wyżej układów, jako te, w których upatruje się największy potencjał, a także możliwość zastosowania ich w budownictwie komunalnym Ogniwa fotowoltaiczne Ogniwa fotowoltaiczne należą do najpopularniejszych systemów bezpośredniego wytwarzania energii elektrycznej. Swoje zastosowanie znajdują najczęściej w budownictwie, gdzie wytwarzają prąd na potrzeby mieszkańców domów jednorodzinnych [2] oraz większych obiektów jak szkoły lub obiekty przemysłowe. Istnieją również elektrownie słoneczne oparte na ogniwach PV, nie są one jednak zbyt powszechne ze względu na ciągle wysoką cenę ogniw oraz niską sprawność, która sięga do 17% [3], a zaczyna spadać już po 5 latach czynnego użytkowania [4]. Zasada działania fotoogniw jest dość prosta, każde z nich składa się z warstw widocznych na rys.1. Pod wpływem promieniowania słonecznego wybijane są ze swoich miejsc w strukturze półprzewodnika elektrony, tworząc pary nośników o przeciwnych ładunkach. Ładunki te zostają następnie rozdzielone przez istniejące na złączu p-n pole elektryczne, co sprawia, że w ogniwie pojawia się napięcie. Wtedy wystarczy podłączyć do ogniwa urządzenie pobierające energię i następuje przepływ prądu elektrycznego [5]. 1 Wydział Mechaniczno-Energetyczny, Politechnika Wrocławska, Wybrzeże Wyspiańskiego 27, Wrocław, kontakt: magdalena.nems@pwr.wroc.pl 233

235 Rys. 1. Schemat przekroju przez fotoogniwo W celu zwiększenia efektywności działania fotoogniw przytwierdza się do nich lustra skupiające bezpośrednie promieniowanie słoneczne. Używa się do tego przeważnie soczewek Fresnela, które pozwalają zapewnić 500 krotną koncentrację. Z zastosowaniem układu skupiającego wiąże się potrzeba ograniczenia powierzchni fotoogniw, dlatego ważnym jest, aby były one zbudowane z jak najwyższej jakości materiałów jak np. arsenek galu [1]. Popularne jest także użycie zamiast soczewek luster, które zwiększają koncentrację promieniowania słonecznego dwu lub czterokrotnie. W tych rozwiązaniach używa się przeważnie tradycyjnych ogniw krzemowych. Największa elektrownia słoneczna zbudowana na zasadach niskiej koncentracji, Sevilla PV Plant, znajduje się w Hiszpanii, a jej moc wynosi 1 MW [1]. Tak jak w przypadku kolektorów słonecznych, tak i przy stosowaniu ogniw PV korzystnym jest zastosowanie układu nadążnego naprowadzającego na Słońce [6]. Jego zastosowanie dla dwóch osi obrotu może zwiększyć ilość uzyskiwanej energii nawet o 50% w stosunku do nieruchomych paneli o tej samej mocy [7]. Oprócz klasycznych ogniw fotowoltaicznych spotykane są także układy hybrydowe, składające się z kolektora słonecznego, na powierzchni którego w odpowiedni sposób naniesiona jest warstwa PV [8]. Układy te pozwalają, zależnie od potrzeb np. domowników, na ogrzewanie pomieszczeń, wody użytkowej lub produkcję energii elektrycznej Moduł Peltiera Półprzewodnikowy moduł termoelektryczny, zwany modułem Peltiera, jest często kojarzony z chłodzeniem np. komputerów. Spotyka się jednak coraz częstsze zastosowanie go jako generatora energii elektrycznej. Moduł jest złożony z dwóch równolegle osadzonych płytek ceramicznych (rys.2), pomiędzy płaszczyznami których znajdują się naprzemiennie ułożone półprzewodniki typu n oraz p (wykonane z domieszkowanego tellurku bizmutu) [9]. Blaszki miedziane łączą półprzewodniki szeregowo. Aby wywołać bezpośrednią zamianę energii cieplnej na elektryczną należy przyłożyć różne temperatury do dwóch stron ogniwa Peltiera. Prąd i moc uzyskiwane w ten sposób są bardzo małe, dlatego ogniwa łączy się w układy tworzące baterię. Dostępny na stronie branży elektronicznej [10] przykład podaje, że aby uzyskać moc elektryczną równą 10W, przy różnicy temperatur między stroną zimną i gorącą wynoszącą 100 C należałoby użyć około 400 ogniw (powierzchnia całego modułu ok. 15x15cm). Natomiast sprawność przetwarzania energii cieplnej na elektryczną wyniosłaby 2 do 3% [10]. Dlatego bardzo ważna jest rola izolacji cieplnej oraz skuteczność układu chłodzenia modułu. 234

236 Rys. 2. Schemat działania modułu Peltiera Według prowadzonych badań [11] zbyt niskie, ujemne temperatury dolnego źródła nie wpływają korzystnie na ilość wytworzonej mocy elektrycznej. Do zalet ogniw Peltiera można zaliczyć niewątpliwie prostą konstrukcję oraz brak elementów ruchomych, niestety nie rekompensuje to ich wysokiej ceny oraz niskiej sprawności Generator ORC Układy opierające się na wykorzystaniu kolektorów słonecznych jak parowaczy w klasycznym układzie parowym Clausiusa Rankine a są spotykane głównie w elektrowniach słonecznych. Wykorzystuje się w nich układy kolektorów skupiających liniowo, które podgrzewają np. olej do temperatury prawie 400 C [12]. Gorący czynnik roboczy kierowany jest do wymiennika ciepła, w którym następuje parowanie wody (rys.3). Powstały gaz trafia do turbiny gdzie ekspandując wykonuje pracę, która za pomocą wału jest przenoszona do generatora energii elektrycznej. W skraplaczu dochodzi do skroplenia pary za pomocą medium chłodzącego. Ostatnim elementem jest pompa obiegowa, która spręża skropliny i tłoczy je do koła. Rys. 3. Układ parowy stosowany w elektrowniach słonecznych Do wytworzenia energii elektrycznej, ze źródeł o niższych temperaturach, najczęściej odpadowych [13], stosuje się układy ORC, które różnią się od schematu widocznego na rys.3 jedynie użyciem odpowiedniego czynnika niskowrzącego. Obecnie na świecie obserwuje się trend poświęcony badaniom nad małogabarytowymi układami ORC, które połączone z kolektorami 235

237 słonecznymi [14, 15] służyłyby np. do uzupełnienia lub sezonowego zaspokojenia potrzeb energetycznych w budynkach komunalnych. Sprawność wytworzenia energii elektrycznej w takich układach wynosi od kilku do kilkunastu procent. 3. Wybór systemu do słonecznego domu Koncepcyjny dom samowystarczalny energetycznie, którego schemat ideowy widoczny jest na rys.4. stanowi przedmiot pracy doktorskiej autorki artykułu. Składa się on ze słonecznego kolektora skupiającego liniowo (20m 2 ) podgrzewającego powietrze, które następnie kierowane jest do zaizolowanego granitowego złoża akumulacyjnego (ok. 64m 3 ). Przewidywana temperatura czynnika po wyjściu z kolektora o odpowiedniej geometrii wynosi ok. 400 C. Rys. 4. Koncepcyjny dom samowystarczalny energetycznie Zastosowany materiał i gabaryty złoża według obliczeń modelowych [16, 17], przeprowadzonych dla warunków klimatycznych Wrocławia, pozwolą na całoroczną akumulację ciepła, i tym samym zaspokojenie potrzeb grzewczych mieszkańców domu. Z racji parametrów instalacji, możliwym jest również dodatkowy odbiór ciepła ze złoża, w celu np. wytworzenia energii elektrycznej na potrzeby gospodarstwa. Jako najlepiej pasujący do założeń koncepcyjnych domu został wybrany generator ORC. Wymagałby on jednak dopływu ciepła o stałej temperaturze, co wymaga zastosowania dość precyzyjnej aparatury kontrolnej wraz z systemem umożliwiającym ochładzanie doprowadzanego powietrza ze złoża przez np. mieszanie ze świeżym powietrzem zaczerpniętym z instalacji wentylacji nawiewnej. Obecnie prowadzone są prace nad doborem odpowiedniego czynnika roboczego do generatora ORC, tak aby energia elektryczna w koncepcyjnym domu mogła być produkowana w sposób ciągły przez cały rok. 4. Podsumowanie W artykule przedstawiono obecne trendy rozwoju układów pozwalających na produkcję energii elektrycznej dzięki wykorzystaniu promieniowania słonecznego. Omówiono zasadę działania ogniw fotowoltaicznych, modułu Peltiera oraz generatora ORC. 236

238 Najczęściej spotykanymi urządzeniami z przedstawionych są ogniwa fotowoltaiczne, jednak nie byłyby one w stanie zaspokoić potrzeb energetycznych gospodarstwa domowego przy panującym w Polsce nasłonecznieniu. Ciekawą alternatywą wydaje się być system Organic Rankine Cycle, który wytwarza energię elektryczną już przy niewielkich różnicach temperatur. Instalacja ta wydaje się być najlepszym rozwiązaniem problemu samowystarczalności pod kątem mediów w koncepcyjnym słonecznym domu. Literatura Projekt współfinansowany ze środków Unii Europejskiej w ramach Europejskiego Funduszu Społecznego. [1] stan na r. [2] N.Wang, T. Esramb, L. A. Martinez, M. T. McCulley, A marketable all-electric solar house: A report of a Solar Decathlon project Renewable Energy 34 (2009) [3] stan na r. [4] stan na r. [5] stan na r. [6] I. Sefa, M. Demirtas, I. Çolak, Application of one-axis sun tracking system, Energy Conversion and Management 50 (2009) [7] stan na r. [8] S.A. Kalogirou, Y. Tripanagnostopoulos, Hybrid PV/T solar systems for domestic hot water and electricity production, Energy Conversion and Management 47 (2006) [9] stan na r. [10] stan na r. [11] A. Rodríguez, J.G. Vián, D. Astrain, A. Martínez, Study of thermoelectric systems applied to electric power generation, Energy Conversion and Management 50 (2009) [12] stan na r. [13] P. Kolasiński, A. Nemś, M. Pomorski, Modulowanie niestabilnych charakterystyk źródeł ciepła odpadowego, Interdyscyplinarność badań naukowych 2010 pod red. J. Szreka, Oficyna Wydawnicza Politechniki Wrocławskiej, Wrocław 2010 [14] J. Facăo, A. Palmero-Marrero, A. C. Oliveira, Analysis of a solar assisted micro cogeneration ORC system, International Journal of Low Carbon Technologies 3/4 (2008) [15] Ch. Cong, S. Velautham, A. Darus, Solar thermal Organic Rankine Cycle as a renewable energy option, Jurnal Mekanikal December 2005, No. 20, [16] J. Kasperski, M. Nemś, Sezonowa praca systemów klimatyzacji i ogrzewania zasilanych energią słoneczną akumulowaną w złożu ceramicznym, Chłodnictwo i Klimatyzacja nr4,2008 r. [17] J. Kasperski, M. Nemś, Wybrane parametry pracy suchego złoża akumulacyjnego w systemie grzewczym budynku na obszarze Dolnego Śląska., Termodynamika w nauce i gospodarce / [red. Z. Gnutek i W. Gajewski]. T. 1. Wrocław: Oficyna Wydawnicza Politechniki Wrocławskiej, s TECHNOLOGIES AND SYSTEMS OF CONVERSION FROM SOLAR ENERGY INTO ELECTRICITY There are many ways of producing electricity from solar energy e.g.: photovoltaic cell, Peltier module, Organic Rankine Cycle generator, the solar tower and chimney, Stirling engine, etc. The article describes the first three of these. 237

239 Photovoltaics cells are common. They are changing solar radiation energy directly into electricity. However, they are expensive and have low efficiency. Peltier module is not yet popular in this kind of application. It has a low efficiency, but allows the production of electricity thanks to the difference of temperature between the cold and warm side. It is possible to connect module with point-concentrating solar collector. The final system is shown Organic Rankine Cycle (ORC) generator. It works on the same principle as the Clausiusa Rankine a cycle. However, it requires less heat to works, which is its great advantage. This system was chosen as the best to the concept of solar home. Heating and air conditioning system of the house based on a combination of a large concentrating collector (20m 2 ) with a stone accumulation storage (64m 2 ). Electricity generation could be done by transferring heated air from the storage to the ORC generator. 238

240 Eksperymentalne wyważanie zwałowarki taśmowej w kopalni węgla brunatnego Jakub Nowak 1 Streszczenie: W artykule przedstawiono metodę wyważania podstawowych maszyn roboczych górnictwa odkrywkowego na przykładzie zwałowarki taśmowej ZGOT-6300 pracującej w PGE Kopalni Węgla Brunatnego Turów S. A..Podczas obliczeń wyznaczono masę maszyny, a także określono położenie jej środka ciężkości. Opisano także trudności jakie występują przy tego typu pomiarach. Słowa kluczowe: zwałowarka, wyważanie, środek ciężkości 1. Wprowadzenie Szybki rozwój górnictwa odkrywkowego w Polsce miał miejsce w okresie powojennym. Istotą eksploatacji odkrywkowej jest wydobywanie występujących w ziemi złóż użytecznych po uprzednim usunięciu przykrywających je skał płonnych. Podstawowy proces technologiczny eksploatacji odkrywkowej obejmuje następujące czynności: a) w zakresie usuwania skał płonnych: urabianie, transport i zwałowanie; b) w zakresie wydobywania kopaliny użytecznej: urabianie i transport. Urabianie jest to czynność polegająca na oddzielaniu od skały jej mniejszych fragmentów przy pomocy narzędzi, maszyn lub innymi środkami. Fragmenty tych skał nazywane są urobkiem. Zadaniem transportu jest przemieszczanie urabianych mas z miejsca urabiania do miejsca przeznaczenia, tj. do miejsca odbioru kopaliny użytecznej lub do miejsca zwałowania nakładu. Zwałowaniem nazywamy czynności związane z odbiorem i rozmieszczeniem kopaliny nieużytecznej (skał płonnych) na wyznaczonym miejscu. W górnictwie odkrywkowym kopaliny nieużyteczne są skałami nakładowymi [4]. W niniejszej pracy opisano metodę wyważanie zwałowarki taśmowej ZGOT Następnie obliczono masę tejże maszyny oraz przeprowadzono analizę stateczności zwałowarki. 2. Metoda pomiaru Stateczność maszyn jest bardzo ważna, gdyż wpływa na bezpieczeństwo osób pracujących w ich otoczeniu. W wyniku dobrego wyważenia maszyny, obniża się również koszty eksploatacji oraz częstotliwość przeprowadzanych remontów. Maszynę uważa się za stateczną, gdy 1 Instytut Konstrukcji i Eksploatacji Maszyn, Politechnika Wrocławska; Wrocław, ul. I. Łukasiewicza 7/9; jakub.nowak@pwr.wroc.pl 239

241 w najniekorzystniejszych warunkach pracy wszystkie reakcje normalne podłoża działające na wszystkie elementy nośne podwozia są większe od zera. Określenie masy maszyn roboczych ciężkich i położenie ich środka ciężkości można dokonać za pomocą metody bezpośredniej lub za pomocą metody pośredniej. Użycie metody bezpośredniej jest bardzo uciążliwe, ponieważ maszyny stosowane w górnictwie odkrywkowym są bardzo ciężkie. Ponadto warunki pracy maszyn podstawowych górnictwa odkrywkowego są tak różnorodne, że ich stateczność nie może być rozpatrywana w oderwaniu od ich miejsca pracy. Z tych względów do określenia stateczności stosuje się metody pośrednie, poprzez wyznaczanie wartości reakcji podporowych maszyn. W rozważaniach teoretycznych przyjmuje się założenie o sztywności podwozia oraz nadwozia, jak i stałości sumy ugięć poszczególnych podpór. Najdokładniejszą z metod pośrednich jest wyważanie za pomocą tensometrycznego przetwornika siły. W metodzie tej używa się dynamometrów tensometrycznych przetworników siły. Tensometry nakleja się w układzie pełnego mostka z kompensacja zginania. Podczas pomiaru nadwozie lub całą maszynę unosi się na podnośnikach poprzez dynamometry. Pomiaru dokonuje się poprzez cyfrowy miernik odkształceń, notując wskazania przed i po obciążeniu dynamometrów. Suma sił odczytana z dynamometrów stanowi całkowity ciężar nadwozia. 3. Analiza stateczności Przed przystąpieniem do analizy stateczności maszyny bardzo ważne jest określenie obciążeń na nią działających, a następnie dokonanie ich prawidłowego kojarzenia. Zgodnie z normą PN-ISO :1999 obciążenia w zależności od częstotliwości występowania dzieli się na trzy grupy: a) obciążenia główne (są to wszelkie obciążenia działające stale w warunkach normalnej eksploatacji urządzenia), np.: obciążenie wynikające z masy własnej urządzenia, obciążenie wynikające z masy nosiwa, opory kopania i opór boczny, stale działające obciążenia dynamiczne, obciążenia wynikające z pochylenia urządzenia i inne; b) obciążenia dodatkowe (są to obciążenia występujące sporadycznie w czasie pracy lub postoju urządzenia. Obciążenia te działają zamiast niektórych obciążeń głównych lub występują jako dodatkowe do obciążeń głównych), np.: obciążenia wiatrem pracującej maszyny, sporadyczne obciążenia dynamiczne, opory tarcia i jazdy i inne; c) obciążenia wyjątkowe (są to obciążenia, które nie powinny wystąpić w czasie pracy lub postoju urządzenia, lecz nie można całkowicie wykluczyć możliwości ich wystąpienia), np.: obciążenie spowodowane zatkaniem przesypów, uderzenie o odbój, oparcie koła naczyniowego lub łańcucha naczyniowego o skarpę i inne [5]. Analiza stateczności została przeprowadzona na podstawie wyników wyważania zwałowarki ZGOT-6300, która jest widoczna na rys. 1. Rys. 2. ukazuje siłowniki hydrauliczne wraz z umieszczonymi na nich tensometrycznymi czujnikami siły a także widok wózka po podniesieniu zwałowarki. Schemat trójpodporowego podparcia zwałowarki potrzebny do wyznaczenia jej środka ciężkości został przedstawiony na rys. 3. Punkty 1-6 na rysunku przedstawiają położenie siłowników hydraulicznych, na których zostały umieszczone dynamometry. Ze względu na ciężar maszyny w każdej podporze zwałowarki zostały umieszczone po dwa tensometryczne przetworniki 240

242 sił. Współrzędne środka ciężkości nadwozia równoważonego wartościami reakcji podporowych można określić z zależności: F F F F F F x F x F x F x F x F F x x G = F F F F F F y F y F y F y F y F y F y G = = G G x y arctg α 2 2 G G G y x r + = Rys. 1. Zwałowarka ZGOT-6300 Rys. 2. Siłowniki hydrauliczne wraz z umieszczonymi na nich tensometrycznymi czujnikami sił oraz widok wózka po podniesieniu zwałowarki (1) (2) (4) (3) 241

243 Rys. 3. Schemat trójpodporowego podparcia zwałowarki do wyznaczenia jego środka ciężkości [1] Na rys. 4. przedstawiono przykładowo wykresy sumarycznych obciążeń siłowników F 1 + F 2, F 3 + F 4, F 5 + F 6 w trzech punktach podporowych. Rys. 4. Wykres obciążeń podpór ciężarem zwałowarki [1] 242

244 Przy poszczególnych przypadkach położenia wysięgnika zwałującego przeprowadzono analizę stateczności dla odpowiedniego kojarzenia obciążeń głównych + dodatkowych + specjalnych. Z uzyskanych podczas pomiarów wyników wyciągnięto następujące wnioski: a) całkowity ciężar (bez mechanizmu jazdy i dolnych łańcuchów gąsienic) zwałowarki ZGOT-6300 nr 46 wynosi 728 Mg; b) oszacowany środek ciężkości zwałowarki znajduje się w pobliżu geometrycznego środka (początku układu współrzędnych X i Y na rys. 5.) zwałowarki i jest daleko od krawędzi wywrotu zwałowarki, co pokazano na rys. 5.; c) oszacowane współczynniki bezpieczeństwa dla obciążeń nosiw nominalnych oraz maksymalnych są powyżej dopuszczalnych [1]. 4. Wnioski Rys. 5. Położenie środka ciężkości zwałowarki względem krawędzi wywrotu [1] Maszyny podstawowe górnictwa odkrywkowego należą do największych i najcięższych wykorzystywanych na świecie. Z racji swoich gabarytów są one również bardzo drogie. Z tego też powodu, aby maksymalnie przedłużyć żywotność tych maszyn, bardzo ważna jest ich prawidłowa eksploatacja. Jednym z najważniejszych wskaźników eksploatacyjnych jest stateczność maszyny. Przy nieprawidłowym wyważeniu maszyny jej środek ciężkości nie leży w pobliżu geometrycznego środka maszyny. Powoduje to wzrost kosztów eksploatacji, przez chociażby szybsze zużywanie się elementów mechanizmu obrotu, ale ma to przede wszystkim wpływ na bezpieczeństwo pracy. W skrajnie niekorzystnych przypadkach może dojść do przewrócenia się pracującej maszyny. Aby tego uniknąć należy przeprowadzić analizę stateczności danej maszyny. Aby móc stwierdzić, czy maszyna jest dostatecznie zabezpieczona przed wywróceniem, wyznacza się współczynnik stateczności (bezpieczeństwa). Wyraża się on stosunkiem momentu ustalającego M S do momentu wywracającego M K. Maszynę uważa się za stateczną, jeżeli 243

245 wyznaczony współczynnik stateczności jest większy od współczynnika podanego w normie. W przypadku zwałowarki ZGOT-6300 warunek ten jest spełniony. Literatura [1] J. Augustynowicz, D. Dudek i inni: Wyważanie zwałowarki ZGOT-6300 nr 46. Raport nr 14/10. Instytut Konstrukcji i Eksploatacji Maszyn. Politechnika Wrocławska, Wrocław [2] W. Flisek: Schemat stateczności ZGOT Zgorzelec [3] H. Hawrylak, R. Sobolski: Maszyny podstawowe górnictwa odkrywkowego. Wydawnictwo Śląsk, Katowice [4] W. Kołkiewicz: Zastosowanie maszyn podstawowych w górnictwie odkrywkowym. Wydawnictwo Śląsk, Bytom [5] Norma PN-ISO :1999: Urządzenia przejezdne do transportu ciągłego materiałów masowych luzem zasady projektowania konstrukcji stalowych. Experimental balancing belt dumping conveyor in a brown coal mine In the article were presented a method of balancing the basic surface mining machines on the example of the belt dumping conveyor ZGOT-6300 working in the Brown Coal Mine PGE Turów S.A.. Were described the steps which have to be carried out to the measurements were correct. In the following section were presented patterns which were used during the calculations. Next were determined the mass of the machine and were defined the location of its center of gravity. Moreover, in accordance with the standard were estimated factors of safety for the nominal and maximal materials handled. Were described also the difficulties which occur during this type of measurements, and at the very end were shown the effects of the incorrect balancing the basic surface mining machines. 244

246 Badania nad biodegradacją związków heterocyklicznych Grzegorz Pasternak 1 Streszczenie: Związki heterocykliczne są związkami, w których pierścieniu atom węgla podstawiony jest atomem azotu tlenu lub siarki. Charakteryzują się wysoką toksycznością i wykazują karcynogenny potencjał. Ich biodegradacja jest ważnym, z punktu widzenia środowiskowego zagadnieniem. W pracy przedstawiono koncepcję dotyczącą pracy nad biodegradacją związków heterocyklicznych. Na przykładzie biodegradacji karbazolu wyjaśniono w jaki sposób mikroorganizmy wyizolowane ze środowiska mogą zostać wykorzystane do jego ochrony. Poddane badaniom w warunkach laboratoryjnych mogą być doskonałym narzędziem w walce z zanieczyszczeniami. Słowa kluczowe: heterocykle, biodegradacja, mineralizacja, koks, karbazol 1. Wprowadzenie W pierścieniu związków NSO-heterocyklicznych atom węgla podstawiony jest atomem azoty siarki lub tlenu. Studia literaturowe w zakresie ich toksykologii dowiodły wysokiej toksyczności związków heterocyklicznych. Przykładem może być: chinolina inicjująca rozwój nowotworu wątroby u szczurów [8]; benzotiofen, dla którego wyznaczono wartości LC50 na poziomie 0,47 mg/l; tiofen, który hamuje aktywność mikrobiologiczną przy wartościach już poniżej 1,5 µg [3], czy też dibenzotiofen, którego wartości EC 50 wyznaczone z wykorzystaniem Vibrio fisheri jako organizmu testowego kształtowały się na poziomie 0,02 mg/l [7] Toksyczny, mutagenny i rakotwórczy charakter związków heterocyklicznych sprawia, że stają się one poważnym zagrożeniem dla zdrowia i życia ludzi oraz funkcjonowania ekosystemów. Uboczne produkty koksowania, takie jak smoła i oleje smołowe zawierają do 15 % związków heterocyklicznych w różnych konfiguracjach [4]. Procesy otrzymywania tych produktów oraz dalszej obróbki stanowią zagrożenie z punktu widzenia środowiskowego. Nie jest to jednak jedyne źródło narażenia szerokie zastosowanie znajdują związki heterocykliczne w produkcji oleju łupkowego, farmaceutyków, pestycydów, barwników, detergentów, inhibitorów korozji i wielu innych produktów [1, 6]. Polarny charakter oraz oporność na biodegradację związków heterocyklicznych sprawia, że migrować mogą w środowisku wodno-glebowym na znaczne odległości [2]. Celem badań była selekcja, izolacja oraz namnożenie mikroorganizmów pochodzących z terenów zanieczyszczonych związkami pochodzenia koksowniczego oraz poddanie ich testom biodegradacji na przykładzie karbazolu. 2. Materiały i metody Mikroorganizmy zdolne do biodegradacji zanieczyszczeń poddane zostały selekcji oraz izolacji. Materiał, z którego pochodziły mikroorganizmy pochodził z komory osadu czynnego oraz filtru biologicznego w układzie, w którym oczyszczane są ścieki pochodzenia koksowniczego metodami biologicznymi Próby te posłużyły jako inokulum hodowli, które zawierały związki heterocykliczne jako jedyne źródło węgla. W celu przygotowania podłoża do wzrostu bakterii przygotowano roztwory 1 Politechnika Wrocławska, Instytut Inżynierii Ochrony Środowiska, Wyb. Wyspiańskiego 27, Wrocław, grzegorz.pasternak@pwr.wroc.pl 245

247 karbazolu w acetonie i dodawano do kolb tak, aby uzyskać wyjściowe stężenie równe 10 mg/dm 3. Stężenie to uzyskiwane było poprzez odparowanie rozpuszczalnika i dodanie 100 ml podłoża mineralnego. Podłoże to sporządzone było w 2 wariantach: zawierało wszystkie mikro i makroelementy oraz wszystkie poza związkami azotu (dla związków N-heterocyklicznych). Tak przygotowane próby inkubowano w 20 C do momentu pierwszego wzrostu mikroorganizmów ocenianego na podstawie gęstości optycznej. Następnie każda hodowla była wielokrotnie pasażowana poprzez zaszczepianie nowej hodowli materiałem z poprzedniej. Mikroorganizmy były poddawane szeregowi zabiegów hodowlanych aby ich zdolności do biodegradacji utrzymywane w hodowlach płynnych były utrwalone. Wykorzystano 12 kombinacji podłóż mikrobiologicznych wbogacanych związkami heterocyklicznymi. Izolację przeprowadzano z wykorzystaniem posiewów redukcyjnych. Czyste szczepy oraz ich mieszaniny poddawano testom biodegradacji z wykorzystaniem systemu OxiTop. Podczas okresu testowego metodą ciśnieniową mierzono zapotrzebowanie na tlen. Wyznaczono optymalną temperaturę biodegradacji. Uzyskane wyniki przeliczono do postaci szybkości reakcji. Po okresie testowym próby ekstrahowano z wykorzystaniem dichlorometanu, odparowano i rozpuszono w metanolu. Zawartość karbazolu mierzono z wykorzystaniem spektrofotometrii UV przy długości fali 236 nm. 3. Wyniki i dyskusja W wyniku przeprowadzonych eksperymentów udało się pozyskać materiał zawierający mikroorganizmy zdolne do biodegradacji związków heterocyklicznych. Wszystkie ze związków będących składnikami podłóż użytych do hodowli mikroorganizmów wykorzystywane były przez mikroorganizmy jako źródło węgla. Efektem tego wzrostu był wzrost gęstości optycznej w hodowlach poddanych testom. Na rysunku 1 przedstawiono wyniki pomiarów gęstości optycznej dla karbazolu trzypierścieniowego, symetrycznego związku podstawionego atomem azotu. 1,2 1 OD, McFarland 0,8 0,6 0,4 0, Czas, d Rys. 1. Wzrost mikroorganizmów degradujących karbazol mierzony gęstością optyczną. Hodowle mikroorganizmów posłużyły jako źródło materiału do izolacji czystych szczepów bakteryjnych (kolonie grzybów obserwowane były sporadycznie). W wyniku izolacji wyselekcjonowanych szczepów udało się uzyskać 43 różniące się morfologicznie szczepy. Każdy z nich użyty został do zaszczepienia czystej hodowli. We wszystkich przypadkach, w których używano bogatych podłóż mikrobiologicznych zaobserwowano utratę zdolności biodegradacyjnych. Spośród badanych szczepów tylko jeden, określony symbolem E1 charakteryzował się trwałą zdolnością do metabolizmu związków heterocyklicznych. Szereg testów wykonanych na zróżnicowanych podłożach potwierdził te zdolności. Podobne wyniki uzyskali inni 246

248 autorzy [9]. Wśród wyizolowanych przez nich 25 szczepów tylko w kilku przypadkach zanotowano trwałą zdolność do biodegradacji związków N-heterocyklicznych. Podczas 25 dniowego okresu testu biodegradacji krabazolu mierzono zużycie tlenu w różnych temperaturach z wykorzystaniem mieszanych kultur bakteryjnych jako zaszczepu. Kultury uzyskane przez pasażowanie i rozcieńczanie charakteryzowała zdolność do rozkładu karbazolu w całym badanym zakresie (rysunek 2). Na załączonym wykresie zaobserwować można, że temperaturą, w której zaobserwowano najbardziej dynamiczny przebieg procesu była temperatura 30ºC. Szybkość reakcji kształtowała się na poziomie 360 mgo 2 /l,d. Znaczną szybkość reakcji zaobserwowano również dla temperatur 15 i 30ºC. W temperaturach 35 ºC oraz 45ºC mikroorganizmy charakteryzowała ograniczona zdolność do metabolizmu co wynika z faktu pochodzenia środowiskowego. Próby inkubowane w 15ºC (doświadczenie wykonane było w dwóch powtórzeniach) osiągały swoje maksimum dopiero w 5 dniu inkubacji, najszybciej maksimum zostało osiągnięte w 20ºC. Długość fazy adaptacji zależy od wielu czynników i charakteryzuje się dużą zmiennością [10]. Wykorzystując mikroorganizmy w technikach bioremediacji czy oczyszczania wód oraz ścieków długość tej fazy minimalizuje się poprzez użycie odpowiednio dużego zaszczepu. 400,00 BZT, mgo 2 /l,d 350,00 300,00 250,00 200,00 150,00 100,00 50,00 T15 T20 T30 T35 T45 0,00 0,00 2,00 4,00 6,00 8,00 10,00 12,00 14,00 czas, d Rys. 2. Szybkość zużycia tlenu przez mieszane kultury bakteryjne degradujące karbazol. Skuteczność biodegradacji zmierzona dla próbek inkubowanych w temperaturze 30ºC wyniosła 92% po 15 dniach eksperymentu. Pozostała po biodegradacji ilość substratu może być zbyt niska aby indukować powstawanie enzymów biorących udział w biodegradacji. Uzyskane w wyniku badań kultury bakteryjne zostały poddane szczegółowym badaniom, m.in. proteinogramy, zdolność do utrzymywania się szczepów w zanieczyszczonym środowisku, szczegółowa charakterystyka, identyfikacja, powstające metabolity, toksyczność produktów biodegradacji, wpływ kometabolitów, produkcja związków obniżających napięcie powierzchniowe. Uzyskane wyniki oraz wyniki przedstawione w niniejszej pracy wskazują olbrzymi potencjał otrzymanych mieszanin oraz czystych kultur bakteryjnych w biodegradacji związków heterocyklicznych. Kultury takie mogą zostać wykorzystane do opracowania nowoczesnych technik utylizacji związków stanowiących problem z punktu widzenia toksykologii środowiska. Podziękowania Projekt współfinansowany przez Unię Europejską, Europejski Fundusz Społeczny w ramach projektu Przedsiębiorczy doktorant Urzędu Marszałkowskiego Województwa Dolnośląskiego. 247

249 Literatura [1] Karabon, B. Smoła węglowa i benzol koksowniczy jako surowce przeymysłu chemicznego. Oficyna Wydawnicza Politechniki Wrocławskiej, Wrocław, 2002, [2] King M.W.G., Barker J.F., Devlin, J.F., Butler, B.J. Migration and natural fate of coal tar creosote plume 2. Mass balance and biodegradation indicators. Journal of contaminant hydrology, 1999, vol. 39, [3] Londry, K.L., Sulflita, J.M. Toxicity effects of organosulfur compounds on anaerobic microbial metabolism. Environmental Toxicology and Chemistry, 1998, 17, [4] Meyer, S., Steinhart H., Effects of heterocyclic PAHs (N, S, O) on the biodegradation of typical tar oil PAHs in a soil / compost mixture. Chemosphere, 2000, 40, [5] Ohhata N., Yoshida N., Ehami H., Katsuragi T., Tani Y., Takagi H. An extremely oligotrophic bacterium, Rhodococcus erythropolis N9T-4, isolated from crude oil. Journal of bacteriology. 2007, vol. 189, [6] Padoley K.V., Mudiliar S.N., Pandey, R.A. Heterocyclic nitrogenous pollutants in the environment and their treatment options an overview. Bioresource Technology, 1999, vol. 99, [7] Sagner A., Tiehm A., Ecotoxicity assessment and biodegradation of heterocyclic aromatic hydrocarbons (NSO-HET). Gasworks Europe, 2008, Dresden, [8] Tada, M., Takahashi, K., Kawazoe, Y., Ito, N. Binding of quinoline to nucleic acid in a submcellular microsomal system. Chemico-Biological Interactions, 1980, 29, [9] Willmusen PA, Johansen JE, Karlson U, Hansen BM (2005) Isolation and taxonomic affiliation of N-heterocyclic aromatic hydrocarbon-transofming bacteria. Appl Microbiol Biot 67: [10] Maruyama Y. The Influence of growth phase on enzymatic adaptation of bacteria. Journal of Biochemistry, 1958, 45, BIODEGRADATION STUDIES OF HETEROCYCLIC COMPOUNDS Heterocyclic compounds are compounds in chich the karbon atom is substituted by nitrogen oxyxen or sulfur atom. They are well known to be toxic and have carcinogenic potential. Their biodegradation remains as important task in environmental science. In this study we present the concept of biodegradation studies of heterocyclic compounds. As an example the carbazole biodegradation is shown. This example indicate the way, how isolation and characterization of microorganisms may lead to their application in bioderemediation technologies. 248

250 Pupilometria oczami lekarza Martyna Pieniążek 1 Streszczenie: Rejestracja reaktywności źrenic prowadzona jest już od ponad wieku. Obecnie dominującą metodą jest użycie pupilometru dynamicznego rejestrującego w podczerwieni ruch i rozmiar źrenicy. Współpraca inżynierów i lekarzy w dziedzinie badań źrenicy oprócz licznych zastosowań w neurookulistyce i chirurgii refrakcyjnej nieoceniona jest także w analizie autonomicznego układu nerwowego, metabolizmu leków, odpowiedzi bólowej, zaburzeń snu oraz w psychologii. Słowa kluczowe: pupilometria, źrenica, reaktywność źrenicy, diagnostyka 1. Wprowadzenie Staropolskie powiedzenie, jakoby oczy były zwierciadłem duszy, w okulistyce miewa jakościowe i ilościowe znaczenie. Źrenica, zajmująca centralne miejsce w przednim odcinku oka, to przestrzeń ograniczana tęczówką, która działając jak przesłona w aparacie fotograficznym, decyduje o ilości światła padającego na dno oka. Szerokość źrenicy regulowana jest przez autonomiczny układ nerwowy, działający na poziomie mięśni zwieracza i rozwieracza źrenicy. Impuls do skurczu źrenicy generowany jest w odruchu źrenicznym na światło. Powstaje on w siatkówce, dzięki reakcjom chemicznym zachodzącym w światłoczułych komórkach siatkówki, pręcikach i czopkach. W części dośrodkowej (aferentnej) odruchu źrenicznego na światło impuls przewodzony jest przez nerw wzrokowy, następnie przez drogę wzrokową w mózgowiu aż do kory wzrokowej. W części odśrodkowej (eferentnej) uczestniczą włókna układu przywspółczulnego. Biegną one z jądra Westphala-Edingera w śródmózgowiu (jądra dodatkowego nerwu III). Rozszerzaniem źrenicy zawiaduje szlak układu współczulnego. Bierze on początek w tylnej części podwzgórza [1,2]. Rys. 1. Źrenica ludzka 1 Katedra i Klinika Okulistyki Akademii Medycznej we Wrocławiu, Wrocław, ul. Chałubińskiego 2a, martyna.pieniazek@gmail.com 249

251 Pupil diameter [mm] 2. Pupilometria Rejestracja reaktywności źrenic prowadzona jest już od ponad wieku. Obenie dominującą metodą jest użycie pupilometru nagrywającego w podczerwieni przy pomocy kamery ruch i rozmiar źrenicy oraz jej centrację. Najnowocześniejszy aparat tego typu, będący przedmiotem zgłoszenia patentowego Instytutu Inżynierii Biomedycznej i Pomiarowej Politechniki Wrocławskiej, cechuje się wysoką rozdzielczością czasową (90 Hz) oraz liniową (0.008 mm) [3]. Pupilometr składa się z komputera PC oraz części mierniczej: moduł stymulujący, moduł podświetlający w podczerwieni, moduł nagrywający oraz analizujący. Ruchomość źrenicy mierzy się w dwóch zasadniczych rodzajach ruchów. Pierwszy z nich to odruch źreniczny na światło (PLR pupillary light reflex). Po wstępnym okresie latencji (czas między zadziałaniem bodźca świetlnego a wystąpieniem reakcji źrenicy) źrenica kurczy się ze zmienną szybkością, osiągając minimalną średnicę, po czym następuje rozszerzenie źrenicy. Do mierzonych parametrów zalicza się wyjściową i minimalną średnicę źrenicy, maksymalną prędkość skurczu, czas maksymalnego skurczu oraz czas latencji. Parametry te mierzone są dla pojedynczego i mnogich odruchów źrenicznych na światło. Pomiarów dokonuje się dla określonej intensywności światła (10cd/m2 i 100cd/m2), długości fali ( białego, czerwonego światła o długości fail 635nm i niebieskiego światła o długości fali 470nm)oraz długości trwania impulsu świetlnego i jego częstotliwości. 5,4 5,2 5,0 4,8 4,6 4,4 4,2 RL RH BL BH 4,0 3,8 3, Time [s] Rys. 2. Przykładowy zapis reakcji źrenicznej na światło (badania własne) Możliwa jest rejestracja jedno- lub obuoczna, pozwalająca monitorować pośredni i bezpośredni odruch źreniczny na światło (bezpośredni PLR występuje w oświetlanym oku, a pośredni w oku towarzyszącym ). Drugim rodzajem rejestrowanej mobilności źrenicy jest spontaniczna aktywność źreniczna (hippus). Składają się na nią rytmiczne oscylacje średnicy źrenicy, na których częstotliwość mają wpływ między innymi rytm tętna oraz rytm oddechowy. W tym typie aktywności opisujemy amplitudę zmian średnicy źrenicy, ich częstotliwość oraz prędkość maksymalną. Ze względu na zaangażowanie nie tylko gałki ocznej, lecz także rozległego obszaru mózgowia w odruchu źrenicznym pupilometria znajduje szerokie zastosowanie w neurologii i neurochirurgii.w neuropsychologii, psychologii i psychofizjologii prowadzone są badania dotyczące czuwania, uwagi, koncentracji, zaburzeń snu i zmęczenia, zaangażowania zdolności poznawczych (cognitive effort), kontroli rytmu dobowego (snu i czuwania), poznania procesu starzenia, pociągu seksualnego i atrakcyjności seksualnej oraz odpowiedzi bólowej [4]. W psychiatrii dodatkowym atutem jest obiektywność badania. Pupilometria stosowana jest tu jako wczesna diagnostyka w neurodegeneracyjnych zespołach otępiennych (choroba Parkinsona, choroba Alzheimera), w diagnostyce i monitorowaniu schizofrenii i depresjii [5]. We wczesnej fazie choroby Alzheimera występuje zaburzenie przewodnictwa w przywspółczulnym układzie 250

252 nerwowym (deficyt cholinergiczny), co objawia się zaburzeniem ruchomości źrenicy. W tej gupie chorych prowadzone są aktualnie przez zespół badania własne nad pupilometryczną oceną reakcji źrenicznej na światło. W okulistyce technika ta jest od dawna używana w badaniach dotyczących chirurgii refrakcyjnej służąc do weryfikacji ryzyka zaburzeń widzenia w warunkach skotopowych po zabiegach chirurgii refrakcyjnej, a także w przeszczepach rogówki oraz zaawansowanych metodach dobierania soczewek kontaktowych. W neurookulistyce pupilometria używana jest do pomiaru rozmiaru źrenicy, badania ilościowego względnego dośrodkowego defektu źrenicznego (RAPD, relative afferent pupillary defect), szacowania rozpiętości pola widzenia, oceny funkcji nerwu wzrokowego w neuropatii jaskrowej, w zapaleniu nerwu wzrokowego (między innymi w stwardnieniem rozsianym, miastenii), a także oceny funkcji siatkówki w zwyrodnieniu barwnikowym (retinitis pigmentosa), zakrzepie żyły centralnej siatkówki (CRVO), zwyrodnieniu plamki związanym z wiekiem [1, 6]. Pupilometria jest bardzo przydatna w badaniu funkcji autonomicznego układu nerwowego, co ma znaczenie w medycynie sportowej w ocenie wydoloności organizmu jako funkcji autonomicznej inerwacji mięśnia sercowego, w diagnostyce i monitorowaniu cukrzycy i jej powikłań (autonomiczna neuropatia) [7]. W farmakologii pupilometria dostarcza informacji na temat metabolizmu i działania leków, intoksykacji i detoksykacji, uzależnienia od leków. Prowadzimy aktualnie badnia, które mają na celu określenie zmian w odruchu źrenicznym na światło w zapisie pupilometrycznym u pacjentów z AMD oraz odpowiedź na pytanie czy badanie pupilometryczne może być wskaźnikiem lokalizacji uszkodzenia fotoreceptorów? W kręgu naszych zainteresowań są również zmiany reaktywności źrenicy w retinopatii cukrzycowej, a także korelacja wahań ciśnienia wewnątrzgałkowego i spontanicznej aktywności źrenicy. 3. Podsumowanie Jako nieinwazyjna, łatwa i zabierająca niewiele czasu, a także powtarzalna metoda pupilometria jest użytecznym narzędziem w okulistyce klinicznej, a także innych gałęziach medycyny. Współpraca lekarzy okulistów oraz inżynierów biomedycznych rozszerza możliwości zrozumienia procesów składających się na funkcję widzenia, a także daje lekarzom różnych specjalności narzędzia do precyzyjnej oceny funkcji badanych układów. Sądzę, iż zacieśnienie współpracy naukowej między lekarzami i inżynierami jest przyszłością rozwoju medycyny. Literatura [1] Pane A, Burdon M, Miller NR: Neurookulistyka, Elsevier Urban&Partner Wrocław, 2009, wydanie I [2] Wilhelm H: Neuro-ophthalmology of pupillary function--practical guidelines. J Neurol Sep, 245(9), [3] Hachol A, Szczepanowska-Nowak W, Kasprzak H, Zawojska I, Dudzinski A, Kinasz R and Wygledowska-Promienska D: Measurement of pupil reactivity using fast pupillometry, Physiol. Meas. 2007, 28, [4] Wilhelm H, Wilhelm B. Clinical applications of pupillography. J Neuroophthalmol Mar; 23(1):42-9 [5] Fotiou DF, Stergiou V, Tsiptsios D, Lithari C, Nakou M, Karlovasitou A. Cholinergic deficiency in Alzheimer's and Parkinson's disease: evaluation with pupillometry. Int J Psychophysiol Aug;73(2): Epub 2009 May

253 [6] Hodge C, Friedrich J: Pupil disorder. Eye series--19. Aust Fam Physician Sep, 33(9), [7] Bremner F Pupil evaluation as a test for autonomic disorders. Clin Auton Res Apr;19(2): PUPILLOMETRY SEEN BY A DOCTOR Pupil size and reactivity evaluation is an essencial element of a neuroophthalmological examination. Infrared dynamic pupillometry is proved to be a useful tool to assess autonomic pupillary dysfunction. As non invasive, easy and fast to perform as well as reproducible imaging technique pupillometry is helpful in clinical practice. Few of multiple applications of pupillometry are retinal examination, testing of optic and autonomic nerve transmission, as well as central nervous system function, diagnostics of neurodegenerative disorders, drug metabolism, sleepiness and fatigue evaluation, pain response and psychology research. Pupillometry, as a useful medical and ophthalmological evaluation method has been known for more than a century. Nowadays, the most accurate measurements are provided by dynamic pupillometers, which record in a dark environment the size and geometrical centre of the pupil. The system of the pupillometer we are working on, a PolWRO dynamic pupillometer, is composed of a PC computer and pupillometer measurement head including a stimuli module, infrared illumination module, recording module and analysis module. Two basic modes of pupillary movement are used in research. Pupillary light reflex (PLR) is a pupillary reaction to light stimuli. It consists of initial phase of pupil constriction, followed by its dilation. Pupillary movement characteristics being analysed are reflex amplitude (in relation to diameter), maximum constriction velocity, initial pupil size (diameter) and latency time. Pupillary hippus is a spontaneous pupillary activity, described by rhythmical oscillations of pupil diameter. 252

254 Eksperymentalna identyfikacja modeli modalnych ustrojów nośnych maszyn podstawowych górnictwa odkrywkowego Damian Pietrusiak 1 Streszczenie: W artykule przedstawiono procedurę badawczą identyfikacji modeli modalnych konstrukcji stalowych dużych rozmiarów. Przedstawiono problemy planowania eksperymentu, metod pomiarowych, analizy sygnału oraz interpretacji zarejestrowanych danych. Słowa kluczowe: analiza modalna, konstrukcje stalowe 1. Wprowadzenie Szeroko pojęta wibroakustyka oraz wibrodiagnostyka jest jedną z najintensywniej rozwijających się dziedzin inżynierii. Badanie charakterystyk dynamicznych jest dziś nieodzownym etapem w procesie rozwoju i wytwarzania nowego produktu. Techniki te mają swoje codzienne zastosowanie w przemyśle lotniczym i motoryzacyjnym. W przypadku stalowych ustrojów nośnych, metody te bardzo często wykorzystywane są do badania stanu technicznego. Jeżeli chodzi o maszyny podstawowe górnictwa odkrywkowego, najistotniejsze informacje płyną z samego modelu modalnego. Określenie postaci i częstotliwości drgań własnych, daje informacje o występowaniu ewentualnego rezonansu i możliwości jego uniknięcia. Maszyny z tej grupy, ze względu na warunki pracy, są bardzo narażone na silne obciążenia o zmiennym charakterze. Dokładne określenie charakterystyk dynamicznych może mieć istotny wpływ na zredukowanie poziomu drgań, a tym samym na wydłużenie wytrzymałości zmęczeniowej i czasu eksploatacji obiektu. 2. Przeprowadzenie eksperymentu Prawidłowe i efektywne przeprowadzenie badań obiektu, wymaga dokładnego zaznajomienia się z nim. Najistotniejszym aspektem, jest umiejętność oszacowania, na podstawie struktury obiektu, w jakim zakresie częstotliwości pojawią się szukane postacie i jak one wyglądają. O ile dla struktur o średniej złożoności, możliwe jest to na podstawie doświadczenia w pracy z podobnymi obiektami, w przypadku konstrukcji bardziej skomplikowanych, konieczne może się okazać wykonanie modelu wirtualnego. Poprawnie wykonane obliczenia numeryczne, wskażą z wystarczającą dokładnością przedział w jakim należy szukać częstotliwości drgań własnych, a co najważniejsze postacie tych drgań. Umożliwi to rozplanowanie położenia czujników pomiarowych, tak aby umożliwić rejestrację maksymalnej liczby danych. Nieumiejętny dobór położenia czujników pomiarowych, może skutkować aliasingiem przestrzennym. Nieadekwatna do szukanych częstotliwości częstotliwość próbkowania, niższa od dwukrotnej częstotliwości Nyquista, skutkuje zniekształceniem lub utratą części zarejestrowanych informacji [4]. Kolejnym istotnym aspektem jest wybór techniki pomiarowej. Dotychczas, najczęściej spotykaną metodą identyfikacji modeli modalnych była eksperymentalna analiza modalna. Aktualnie coraz powszechniejsze zastosowanie znajduje eksploatacyjna modalna. W pierwszej z 1 Instytut Konstrukcji i Eksploatacji Maszyn, Politechnika Wrocławska, ul. Łukasiewicza 7/9, Wrocław, damian.pietrusiak@pwr.wroc.pl 253

255 nich, do określenia funkcji przejścia, niezbędna była znajomość wymuszenia oraz odpowiedzi układu. W drugiej metodzie sygnał wymuszenia zastępowany jest funkcją korelacji między sygnałami odpowiedzi w punktach referencyjnych [4][5]. Umożliwia to, tym samym, przeprowadzenie identyfikacji na obiektach, których wymuszenie eksploatacyjne jest trudne do odwzorowania bądź na obiektach, które bardzo trudno jest wychylić ze stanu równowagi (np. stalowe mosty). Metoda ta umożliwia również określenie rzeczywistych postaci drgań własnych. Z takim zjawiskiem mamy do czynienia jeżeli obciążenie eksploatacyjne może mieć wpływ na charakterystykę dynamiczną obiektu. Zjawiska takie mogą występować np. w samolotach lub maszynach podstawowych górnictwa odkrywkowego. Przykładowe rozmieszczenie czujników pomiarowych, wraz z kierunkami pomiaru, przedstawiono na rysunku 1. Rys. 1. Rozmieszczenie punktów pomiarowych 3. Analiza sygnału i interpretacja wyników Poprawna analiza sygnału i interpretacja otrzymanych wyników może okazać się kluczowym etapem w identyfikacji modeli modalnych maszyn podstawowych górnictwa odkrywkowego. W zależności od stosowanej metody pomiarowej (eksperymentalna czy eksploatacyjna analiza modalna), a co za tym idzie sposobu wymuszenia (impulsowy, harmoniczny, losowy), należy stosować odpowiednie okna czasowe. Ich użycie zminimalizuje przecieki widma występujące, gdy próbka sygnału, zastosowanego w analizie Fourier'a, nie jest okresowa. Pomocne, przed przystąpieniem do analizy sygnału, może się okazać użycie filtrów. Pozwoli to na wyeliminowanie zakłóceń oraz wyeksponowanie szukanych informacji. Konieczność stosowania filtrów może być również podyktowana użytymi czujnikami. Jeżeli użyto czujników mierzących również składową stałą przyspieszenia, konieczne jest jej odfiltrowanie. Kolejny wybór przed jakim stajemy, to wybór metody estymacji parametrów modalnych. W niektórych przypadkach różnią się one jedynie zapisem matematycznym i nie odgrywa on większej roli przy samej interpretacji danych. Szczegółowe omówienie różnic i zastosowań można znaleźć w [4][5]. Gdy już otrzymano model modalny, niezbędna jest weryfikacja jego poprawności. Kryterium MPC (Mode Phase Colinearity) przedstawia zależność miedzy rzeczywistą i urojoną częścią wyznaczonych wektorów własnych. Im wartość bliższa 100%, tym większa pewność, że zidentyfikowana postać powinna być zaklasyfikowana jako własna. W praktyce przyjmuje się kryterium, że jeśli współczynnik osiągnął minimum wartość 90% to mamy do czynienia z wektorem własnym. Współczynnik MPD (Mode Phase Deviation) jest odchyleniem standardowym fazy we wszystkich kierunkach pomiarowych. Im wartość bliższa 0 tym większa 254

256 pewność zidentyfikowania postaci własnej. W praktyce przyjmuje się, że MPD powinno być mniejsze od 15. Na podstawie tych dwóch kryteriów określa się poziom rozproszenia fazy. Jej wysoki poziom poddaje w wątpliwość poprawność przeprowadzonej analizy. Kryterium najczęściej stosowanym, a dodatkowo bardzo prostym, jest analiza współczynnika MAC (Modal Assuracne Cryterion). Dzięki niemu możliwe jest porównanie ze sobą wektorów modalnych kolejno zidentyfikowanych postaci. Im większa różnica między nimi, tym większa pewność, że eksperyment przeprowadzony został poprawnie. Wysoka korelacja wektorów poszczególnych postaci, sugeruje, że w rzeczywistości opisują one jeden i ten sam biegun. Przykładowe zestawienie wskaźników MAC, w formie macierzy, przedstawia rysunek 2 [4][5]. Rys. 2. Macierz MAC 4. Podsumowanie Panujący powszechnie trend do uzyskiwania produktu możliwie najtańszego przy zachowaniu parametrów oraz zasad bezpieczeństwa obejmuje również konstrukcje stalowe. W konsekwencji prowadzi to do powstawania ustrojów coraz lżejszych i niejednokrotnie bardziej podatnych. Zmiany te nie zostają bez znaczenia dla dynamiki konstrukcji. Wzrost podatności może prowadzić do zwiększenia amplitud drgań a nawet do utraty stateczności [1]. Aby dążenie do uzyskania coraz to wyższych wymagań stawianych konstrukcji odbywało się w sposób świadomy i bezpieczny, konieczna jest znajomość charakterystyk dynamicznych. Badanie przy pomocy modeli wirtualnych powinno mieć miejsce już na etapie projektu. Charakterystyki tego rodzaju nie są jednak w pełni zgodne z rzeczywistością. Uproszczenia stosowane w modelach mogą wpływać na uzyskane wyniki. Stosowane warunki brzegowe nie odzwierciedlają w pełni oddziaływań zewnętrznych na konstrukcję co również nie pozostaje bez znaczenia. Ostatecznie, modele wirtualne nie zawierają błędów montażowych, sztywności połączeń oraz imperfekcji. Do pełnej weryfikacji konieczne jest przeprowadzenie identyfikacji modelu modalnego za pomocą eksperymentu na obiekcie rzeczywistym. Informacje uzyskane w ten sposób mogą okazać się istotne w procesie eksploatacji [2], [3], [6]. 255

257 Literatura [1] Czmochowski J.: Identyfikacja modeli modalnych maszyn urabiających w górnictwie węgla brunatnego. Oficyna Wydawnicza Politechniki Wrocławskiej, Wrocław [2] Czmochowski J., Moczko P.: Numerical-Experimental Analysis of Bucket Wheel Excavator Body Vibrations. W. 22nd Danubia-Adria Symposium of Experimental Methods in Solid Mechanics. Extended Abstracts. Italian Association for Stress Analysis Monticelli Terme- Parma, Italy, September 28-October 1, 2005, [3] Smolnicki T., Rusiński E., Przybyłek G.: Wybrane Aspekty Dostrajania Modeli Dyskretnych Koparki Wielonaczyniowej Kołowej. Górnictwo Odkrywkowe [4] Uhl T.: Komputerowo wspomagana identyfikacja modeli konstrukcji mechanicznych. WNT, Warszawa 1997 [5] Uhl T., Lisowski W., Kurowski P.: In-operational Modal Analysis and Its Applications. Wydawnictwo Katedry Dynamiki Maszyn i Robotyki, AGH Kraków 2001 [6] Rusiński E., Czmochowski J.: Die Modalanalyse des Oberbaus lines Baggers vom Typ SchRs-800. Surface Mining, 2001, vol. 53 SURFACE MINING MACHINERY MODAL MODELS IDENTIFICATION WITH USE OF EXPERIMENTAL METHODS The paper shows the procedure of modal models identification of large steel constructions. The application of the experimental methods for the modal parameters estimation was presented. The experiment planning, measuring methods, signal processing and results interpretation were underlined as a main aspects of identification process. 256

258 Wpływ zmiany temperatury na własności warstwy wierzchniej wybranych materiałów polimerowych Anita Ptak 1 Streszczenie: W artykule została przedstawiona analiza wyników badań mikrotwardości warstwy wierzchniej wybranych materiałów polimerowych poddanych wcześniej cyklicznym zmianom temperatury. Próbki poddane zostały zmianom temperatury w komorze klimatycznej w zakresie temperatur -50 C +80 C. Badania mikrotwardości zostały przeprowadzone za pomocą mikrotwarościomierza. 1. Wprowadzenie Słowa kluczowe: polimery, zmiana temperatury, mikrotwardość, warstwa wierzchnia. Materiały polimerowe są coraz częściej stosowanymi materiałami na elementy maszyn i urządzeń. Szczególnie niebezpieczne dla nich są cyklicznie powtarzające się zmiany temperatur wywołujące przede wszystkim zmęczenie cieplne. Już temperatura pokojowa widocznie wpływa na własności mechaniczne materiałów polimerowych, w przeciwieństwie do metali, gdzie własności te praktycznie nie ulegają zmianie aż do rozpoczęcia procesu rekrystalizacji. Zmiana temperatury może również prowadzić do zmiany gęstości polimerów i innych własności z nią związanych, w stosunkowo niskich następują także przemiany fazowe, w podwyższonych natomiast może zaistnieć agresywne działanie wielu cieczy (utlenianie, hydroliza) [2]. Zmiana własności mechanicznych materiałów polimerowych wykorzystywanych w budowie maszyn i urządzeń nie pozostaje bez znaczenia dla jakości ich pracy: zwiększenie oporów ruchu, pogorszenie sprawności, wzrost zużywania się elementów polimerowych itd. [3]. Jednym z najbardziej precyzyjnych sposobów badania własności mechanicznych materiałów są pomiary mikrotwardości. Pomiary te polegają na wciskaniu wgłębnika w powierzchnię badanego metalu, a następnie pomiarze wykonanego odcisku. Do przeprowadzenia badań wykorzystano cztery materiały polimerowe: - politetrafluoroetylen PTFE - poli(etero eteroketon) PEEK - poliacetal POM - polietylen o ultra wysokim ciężarze cząsteczkowym PE-UHMW 2. Program badań Do badań zostały wykorzystane próbki polimerowe o kształcie sworznia średnicy ϕ = 8 mm. Próbki te zostały poddane cyklicznym powtarzającym się zmianom temperatur w komorze klimatycznej. Zakres temperatur, w jakich został przeprowadzony eksperyment zawierał się w granicach -50 C +80 C. 1 Wydział Mechaniczny Politechniki Wrocławskiej, Instytut Konstrukcji i Eksploatacji Maszyn. ul. Łukasiewicza 7/9, Wrocław , anita.ptak@pwr.wroc.pl 257

259 Wykonano trzy serie cyklicznych zmian temperatur. Każda z nich składała się z siedmiu etapów - etapy te zobrazowane są na rysunku 1. Za temperaturę początkową przyjęto temperaturę pokojową równą +25 C. Po każdym osiągnięciu temperatury docelowej próbka została utrzymywana w danej temperaturze przez 5 minut. Etapem końcowym było doprowadzenie stanu próbki do temperatury pokojowej +25 C. ETAP 1 ETAP 2 ETAP 3 ETAP 4 chłodzenie grzanie chłodzenie grzanie +25 C do -50 C -50 C do +80 C +80 C do -50 C -50 C do +80 C utrzymywanie temperatury przez 5 min utrzymywanie temperatury przez 5 min utrzymywanie temperatury przez 5 min utrzymywanie temperatury przez 5 min ETAP 7 ETAP 6 ETAP 5 chłodzenie grzanie chłodzenie +80 C do +25 C -50 C do +80 C +80 C do -50 C wykonanie pomiarów utrzymywanie temperatury przez 5 min utrzymywanie temperatury przez 5 min Rys. 1. Schemat etapów jednej serii eksperymentu. Przed rozpoczęciem badań oraz po każdej przeprowadzonej serii zmian temperatur zostały przeprowadzone pomiary mikrotwardości. Pomiary te zostały wykonane za pomocą mikrotwardosciomierza micro hardness tester SHIMADZU HMV-2T. Użyto do ich przeprowadzenia metody Vickersa przy obciążeniu równym mn (HV0.1) oraz czasie utrzymania obciążenia równym t = 5 s (rys. 2). Rys. 2. Zdjęcie topografii powierzchni próbki PEEK widoczny ślad odcisku wgłębnika mikrotwardościomierza oraz widoczne ślady obróbki mechanicznej. 258

260 3. Wyniki pomiarów W celu określenia zmiany mikrotwardości warstwy wierzchniej materiałów polimerowych zostały przeprowadzone 3 serie pomiarów zgodnie z wcześniej opisanym planem eksperymentu. Pomiary mikrotwardości zostały wykonane trzykrotnie, wartości średnie mikrotwardości materiałów wyjściowych oraz po każdej serii cyklicznych zmian temperatury przedstawione zostały w tabeli 1. Tab. 1. Tabela wyników mikrotwardości materiałów polimerowych przed i po seriach cyklicznych zmian temperatury Materiał Mikrotwardość [HV] przed 1 seria 2 seria 3 seria średnia σ średnia σ średnia σ średnia σ PTFE 3,14 0,27 3,36 0,35 3,67 0,09 3,67 0,18 PEEK 15,33 0,49 16,65 0,96 18,00 0,27 18,01 0,48 POM 14,23 0,24 14,26 0,38 16,04 0,19 17,31 0,30 PE-UHMW 3,87 0,63 4,00 0,19 4,51 0,14 4,56 0,48 Na podstawie uzyskanych wyników wykonano wykres obrazujący różnicę mikrotwardości w kolejnych przeprowadzonych seriach zmian temperatury w porównaniu z mikrotwardością materiału wyjściowego. Wykres ten przedstawiono na rysunku 3. Zmiana mikrotwardości materiałów polimerowych po kolejnych seriach cyklicznych zmian temperatury Różnica mikrotwardości [HV] 3,00 2,50 2,00 1,50 1,00 0,50 0, Seria PTFE PEEK PE-UHMW POM Rys. 3. Wykres różnicy mikrotwardości po kolejnych seriach cyklicznych zmian temperatury w porównaniu z mikrotwardością materiału wyjściowego. 259

261 4. Wnioski Na podstawie uzyskanych wyników eksperymentu można zaobserwować zmianę mikrotwardości warstwy wierzchniej dla wszystkich badanych materiałów polimerowych. Dla każdego materiału różnice mikrotwardości były zauważalne już po pierwszej serii cyklicznych zmian temperatury. Znaczącą zmianę mikrotwardości można zaobserwować w przypadku materiału PEEK po pierwszej, a następnie po drugiej serii. Najmniejszy wpływ zmian temperatury zaobserwowano dla materiału PTFE oraz PE-UHMW. Należy jednak zauważyć, że różnica mikrotwardości nie jest powtarzalna, dlatego na podstawie analizy przeprowadzonych pomiarów nie można jednoznacznie stwierdzić, iż mikrotwardość materiałów polimerowych zależy od cyklicznych zmian temperatury. Należy również pamiętać, że pomiary mikrotwardości zostały przeprowadzane metodą Vickersa, bardzo wrażliwą na zwiększoną chropowatość powierzchni. W artykule zostało przedstawione zdjęcie powierzchni materiału polimerowego, gdzie zauważyć można ślady obróbki wstępnej. Powierzchnie próbek nie zostały docierane ani polerowane w celu zmniejszenia chropowatości powierzchni, by nie zmienić struktury ich warstwy wierzchniej, co może być przyczyną zaburzenia wyników badań. W dalszych badaniach należałoby przeprowadzić pomiary określające wpływ chropowatości powierzchni na pomiary mikrotwardości materiałów polimerowych oraz zmianę mikrotwardości dla długotrwałych cyklicznych zmian temperatury. Literatura [1] F.J. Baltả-Calleja, S. Fakirov. Microhardness of polymers. Cambridge University Press, [2] J. Hasenauer, D. Küper, J. E. Laumeyer, I. Welsh. 10 Głównych Zasad Stosowanych w Konstrukcji Detali z Tworzyw Sztucznych - Seria 10 Artykułów. [3] Z. Lawrowski. Tribologia. Wydawnictwo Politechniki Wrocławskiej. Wrocław [4] W. Wieleba. Analiza procesów tribologicznych zachodzących w kompozytach PTFE podczas współpracy ze stalą. Oficyna Wydawnicza Politechniki Wrocławskiej. Wrocław INFLUENCE OF TEMPERATURE CHANGE ON THE SURFACE LAYER PROPERTIES OF SELECTED POLYMERIC MATERIALS In the paper has been described investigation of influence temperature on surface layer microhardness. In experiment have been used four polymeric materials: (1) polytetrafluoroethylene - PTFE (2) poly (ether ether ketone) - PEEK (3) Polyacetal - POM and (4) polyethylene of ultra high molecular weight - PE-UHMW. The experiment was carried out in climatic chamber in temperature range -50 C +80 C. Samples were subjected to three series of cyclic changes in temperature. After each of them was conducted microhardess measurements. Results of investigation shows changes of microhardness value for every sample after the first series of cyclic changes in temperature. It should be noted that these changes are not stable, therefore can not define answer how cyclic changes in temperature influence on microhardness polymeric materials. The measurement method can also affect the results. Vickers method is very sensitive on surface roughness. The image of surface topography shows traces of the pretreatment. There is need to do more experiments in this area of science. 260

262 Bezpieczeństwo pieszego: normy a rzeczywistość Mariusz Ptak 1, Sebastian Koziołek 1 Streszczenie: W artykule przedstawione zostały zagadnienia związane z bezpieczeństwem biernym pieszego podczas wypadku z pojazdem silnikowym. Uwaga skupiona została na pojazdach o wysokiej linii natarcia maski pojazdach typu SUV. Obecnie obowiązujące normy, w zakresie bezpieczeństwa pieszego, skontrastowano z przeprowadzonymi badaniami numerycznymi na manekinie pieszego. Słowa kluczowe: bezpieczeństwo pieszego, bezpieczeństwo bierne, homologacja pojazdów 1. Wprowadzenie W dzisiejszych czasach normy i regulacje obejmują już niemal każdą dziedzinę życia. Począwszy od produktów żywnościowych, poprzez emitowane przez samochody spaliny, skończywszy na gaszonej żarówce w lampce nocnej. Wprowadzane przez organizacje i związki normy mają z założenia na celu ustandaryzowane pewnej grupy produktów i usług tak, aby były one zdrowsze, dostępniejsze i poprawiały jakość życia. Regulacje nie ominęły również wspomnianego przemysłu motoryzacyjnego, głównie w aspekcie zapewnienia bezpieczeństwa użytkownikom pojazdów. Proces homologacji samochodów sprawdza, czy badany pojazd spełnia założenia określone przez regulaminy Europejskiej Komisji Gospodarczej (EKG ONZ) lub dyrektywy Unii Europejskiej. Od lat 60. zeszłego wieku zwiększanie bezpieczeństwa pojazdów samochodowych było nie tylko zabiegiem marketingowym, ale, co ważne, wymuszone zostało odpowiednim normami homologacyjnymi. Dwadzieścia lat później podjęto pierwsze działania mające na celu powstrzymanie wzrostu liczby śmiertelnych wypadków na drogach z udziałem pieszych. Natomiast w roku 2009 Parlament Unii Europejskiej, bazując na doświadczeniu European Experimental Vehicle-Safety Committee (EEVC), wydał Rozporządzenie (WE) 78/2009 [1] w sprawie homologacji pojazdów silnikowych w odniesieniu do ochrony pieszych. W dalszej części spróbujemy odpowiedź na pytanie, czy obecnie obowiązujące normy homologacyjne wpływają na poprawę bezpieczeństwa pieszych w przypadku potrącenia przez pojazd typu SUV (ang. Sport Utility Vehicle). 2. Samochody terenowe wjeżdżają do miast Rynek pojazdów samochodowych dynamicznie się zmienia moda na auta, szczególnie widoczna w dużych miastach, kieruje się swoimi, często sprzecznymi z logiką mechanizmami. Może dlatego w na wąskich i zakorkowanych drogach wielkich aglomeracji pomiędzy małym, przystosowanymi do ruchu miejskiego autami, coraz więcej pojazdów stanowią SUVy. Samochody, których wysoka krawędź zderzaka oraz maski umożliwia pokonywanie nierówności, wjechały do miast. Niestety to właśnie w miastach dochodzi do największej ilości śmiertelnych potrąceń pieszego [2]. Wzrost popularności pojazdów o wysoko położnej linii zderzaka (wysokość powyżej 500 mm od drogi) tych statystyk na pewno nie poprawi. Warto wspomnieć, że prawdopodobieństwo wystąpienia zgonu pieszego podczas zderzenia 1 Instytut Konstrukcji i Eksploatacji Maszyn, Politechnika Wrocławska; Wrocław, ul. I. Łukasiewicza 7/9; mariusz.ptak@pwr.wroc.pl 261

263 z SUVem jest dwukrotnie większe w porównaniu z samochodami osobowymi [3]. Do takiego stanu rzeczy w znacznym stopniu przyczynia się nie masa, ale geometria przedniej części pojazdu. 3. Normy a rzeczywistość Na wstępie wspomniano, że normy homologacyjne dotyczące bezpiecznych przodów pojazdów na wypadek uderzenia w pieszego powstawały w latach 80 XX wieku. Wówczas, ze względów ekonomicznych i normalizacyjnych, podczas badania przedniej części pojazdu, zdecydowano się na zastąpienie manekina seriami testów z użyciem impaktorów [4,5]. Impaktory reprezentują części ciała ludzkiego tj.: nogę, górną część nogi oraz głowę. Są one tańszą alternatywą dla pełnowymiarowych manekinów. Regulacje dotyczące przodu pojazdu osobowego w aspekcie bezpieczeństwa pieszego wymusiły na producentach stosowanie odpowiednich materiałów i elementów konstrukcyjnych. Od 2005 każdy pojazd osobowy o masie do 3,5 tony musi przejść odpowiednie badania homologacyjne [1]. Jeden z etapów homologacji dotyczący uderzenia dolnej części nogi w zderzak przedstawiono na rysunku 1. Impaktor w ruchu swobodnym 40 km/h 25 mm w momencie uderzenia POZIOM ODNIESIENIA PODŁOŻA Rys. 1. Wizualizacja badań homologacyjnych uderzenia impaktorem dolnej części nogi: w pojazd osobowy i pojazd typu SUV Problem pojawił się, gdy liczba pojazdów na drogach o wysokiej linii zderzaka zaczęła gwałtownie rosnąć. Norma homologacyjna, mimo jej ostatniej aktualizacji w 2009 roku, niewiele różni się od wersji z lat 90, kiedy w europejskich miastach widok pojazdu typu SUV wzbudzał duże zainteresowanie. O ile testy z użyciem impaktorów mogą z dużą wiarygodnością ocenić bezpieczeństwo pojazdów osobowych, to ich zastosowanie dla pojazdów typu SUV jest przez autora artykułu kwestionowane. Co więcej, wyniki standardowych testów homologacyjnych mogą prowadzić do mylnych wniosków. Na rysunku 2a) przedstawiono kąt ugięcia impaktora (odpowiadający bocznemu ugięciu stawu kolanowego) dolnej część nogi w czasie podczas uderzeniu w pojazd typu SUV. Limit dopuszczalnego kąta ugięcia równy jest 21º. Z wykresu widać, że dla testu impaktorem nogi wartość ta nie została przekroczona. W związku z tym poddawany próbie pojazd, po przejściu dalszego badania z użyciem impaktora głowy, mógłby dostać homologację dopuszczającą go do ruchu na terenie Unii Europejskiej. Natomiast przy ekspertyzie z użyciem manekina pieszego, ugięcie kolana jest ponad 2,5. krotnie większe. Różnice w bezwzględnym kącie ugięcia pomiędzy manekinem a impaktorem nogi zestawiono na rysunku 2b). Wynikają one bezpośrednio z położenia środka masy impaktora (na wysokości stawu kolanowego), jego fizycznego ukształtowania (jeden 262

264 przegub w stawie kolanowym) oraz brakiem siły tarcia na styku impaktora z podłożem (impaktor w ruchu swobodnym por. rys. 1.). Wartość dopuszczalna 21º Rys. 2. Porównanie kąta ugięcia kolana przy uderzeniu w pojazd SUV impaktorem oraz uderzenia w manekin pieszego: a) przebieg ugięcia w czasie [6] b) bezwzględne ugięcie kolana W celu potwierdzenia braku zgodności kąta ugięcia impaktora z zachowaniem kinematycznym nogi manekina przeprowadzono badania porównawcze. Wykorzystano dwa systemy numeryczne. W systemie MADYMO zamodelowano uderzenie SUVa w pełnowymiarowy manekin pieszego, natomiast przy pomocy programy LS-DYNA przeprowadzono analizę zgodną z wymaganiami homologacyjnymi opartą na uderzeniu impaktora w pojazd. Wyniki badań przedstawione zostały na rysunku 3. a) b) Rys. 3. Test porównawczy: uderzenie manekina pieszego oraz test homologacyjny przy użyciu impaktora dolnej części nogi a) widok ogólny b) widok z boku Test porównawczy obrazuje różne zachowanie się nogi manekina pieszego i impaktora dolnej części nogi. Ponadto użycie impaktora używanego w homologacji pojazdów nie reprezentuje faktycznej kinematyki pieszego po uderzeniu. W związku z tym, podczas rzeczywistego potrącenia pieszego przez pojazd SUV może dojść do najgroźniejszego w skutkach typu wypadku wciągnięcia pieszego pod pojazd. Nawet w przypadku, gdy elementy konstrukcyjne użyte na przedzie pojazdu zapewniają odpowiednią podatność i pochłaniają cześć energii zderzenia. Reasumując, test impaktorem numerycznym dolnej części nogi powinien być stosowany dla pojazdów o wysokiej linii zderzaka, tylko wówczas, gdy pojazd zapewni pieszemu odpowiednią kinematykę po uderzeniu. W innym przypadku konsekwencje dopuszczenia pojazdu do ruchu, poprzez jego homologację, mogą być w przyszłości dla pieszego tragiczne. 263

265 3. Wnioski Opracowane w latach 80. przez organizację EEVC regulacje dotyczące bezpiecznych dla pieszego przodów pojazdów ocalił życie i zdrowie wielu ludziom. Jednakże wzrost popularności pojazdów o wysokiej linii odniesienia zderzaka (powyżej 500 mm od gruntu), takich jak samochody SUV, spowodował, że coraz częściej uczestniczą one w wypadkach z udziałem pieszych. Innymi słowy normy, mimo ich aktualizacji, nie zostały skrojone dla pojazdów SUV. Co więcej, testy homologacyjne przy użyciu impaktorów nie prezentują bardzo istotnej ze względów obrażeń pieszego pełnej kinematyki zderzenia. Na postawie przedstawionych powyżej wyników badaniach przy użyciu metod numerycznych, można zauważyć znaczące różnice w ugięciu stawu kolanowego dla manekina i impaktora. Rozbieżności mają swoje źródło w trzech głównych parametrach różniących manekin od impaktora mianowicie: środka masy, cech (bio)mechanicznych i konstrukcyjnych oraz sił tarcia, które w manekinie występują między stopą a drogą. W impaktorze uderzającym w zderzak pojazdu, ze względu na lot swobodny, oddziaływanie między drogą a podstawą impaktora nie występuje. Reasumując, potrzebna jest weryfikacja i modyfikacja testów homologacyjnych dla pojazdów o wysokiej linii odniesienia zderzaka, w celu zwiększenia bezpieczeństwa pieszych na drogach. Modele numeryczne wydają się być jednym z bardziej obiecujących sposobów na redukcję zagrożenia ze strony pojazdów typu SUV, ponieważ umożliwiają one weryfikację zarówno obrażeń jak i kinematyki pieszego po zderzeniu. Literatura [1] European Parliament and Council. Regulation (EC) No 78/2009 of the European Parliament and of the Council. Official Journal of the European Union, Brussel [2] J. Wicher. Bezpieczeństwo samochodów i ruchu drogowego. Wydawnictwo Komunikacji i Łączności, Warszawa [3] E. Lefler, C. Gabler. The fatality and injury risk of light truck impacts with pedestrians in the United States, Accident Analysis and Prevention 36, 2004, s [4] M. Ptak, J. Karliński, A. Kopczyński. Analysis of pedestrian passive safety with the use of numerical simulation. Journal of KONES 2010, vol. 17, nr 1, s [5] M. Ptak. Zastosowanie symulacji numerycznych w analizie bezpieczeństwa biernego pieszego. Interdyscyplinarność badań naukowych. Oficyna Wydawnicza Politechniki Wrocławskiej, 2009, s [6] Y. Matsui, A. Wittek, A. Konosu. Comparison of pedestrian subsystem safety tests using impactors and full-scale dummy tests; 2002 PEDESTRIAN PASSIVE SAFETY: NORMS VS REALITY The paper presents the evaluation of the pedestrian safety, during a collision with a road vehicle with the high bonnet leading edge. A Sport Utility Vehicle (SUV) was chosen to investigate the influence of vehicle front design on the pedestrian lower extremity injuries. The Finite Element Method (FEM) was utilized in order to reduce the costs and time needed to carry out a pedestrianto-car front aggressiveness test. The virtual tests carried out by means of the numerical, certified Finite Element (FE) lower leg impactor were further contrasted with the results of the multibody (MB) simulation. While the FE impactor gives in-depth data about leg fractures and knee joint injuries, further MB simulations present the complete, post-impact pedestrian kinematics. Finally, some drawbacks of current norms and homologation process were put forward. 264

266 Planowanie badań doświadczalnych konstrukcji zespolonych z ciągłymi łącznikami otwartymi Sławomir Rowiński 1, Maciej Kożuch 2 Streszczenie: w artykule przedstawiono tok projektowania statycznych oraz cyklicznych badań doświadczalnych mających na celu potwierdzenie równolegle wypracowywanych oraz już istniejących algorytmów projektowania konstrukcji zespolonych z ciągłymi łącznikami otwartymi. Zwrócono uwagę na złożoność problemu oraz konieczność zwiększania zakresu prowadzonych badań w stosunku do tradycyjnie prowadzonych badań dotyczących konstrukcji zespolonych. Słowa kluczowe: badania doświadczalne, konstrukcje zespolone, ciągłe łączniki otwarte 1. Wprowadzenie W ostatnim czasie na coraz większą skalę stosuje się, przede wszystkim w mostownictwie, konstrukcje zespolone nowego typu. Zespolenie ukształtowane jest w nich poprzez specyficzne przecięcie środnika belki dwuteowej, a następne jego zabetonowanie [1, 2]. Dzięki złożonej linii cięcia środnika belki stalowej, beton wypełniający przestrzenie pomiędzy ukształtowanymi dowelami stalowymi (z ang. dowels), stanowi po stwardnieniu połączenie mechaniczne belki stalowej i płyty betonowej (rys. 1). Rys. 1. Schemat belki z rozważanym zespoleniem za pomocą ciągłych łączników otwartych [2] Łączniki stalowe pracują w rozważanych elementach, jako ich integralne fragmenty, stąd inaczej niż to miało miejsce do tej pory (np. przy zastosowaniu klasycznych sworzni z główką), układ naprężeń od globalnych sił wewnętrznych (moment zginający i siła osiowa) będzie miał również wpływ na same łączniki. Zatem, sam łącznik będzie projektowany na interakcję dwóch wpływów: globalnego (jak powyżej) oraz lokalnego, czyli na przeniesienie sił rozwarstwiających pomiędzy stalą i betonem. Ma to konsekwencje nie tylko w teoretycznym podejściu do wymiarowania, które ze względu na złożoność problematyki (nieliniowe analizy wynikające chociażby z zagadnień kontaktowych stal beton na powierzchniach zakrzywionych łączników) wymagać będą rozbudowanych analiz MES. Również planowanie badań tym razem nie będzie mogło ograniczyć się do klasycznych prób POST (Push Out Standard Test), na podstawie których wyznaczyć można wyłącznie nośność graniczną łącznika. 1 Politechnika Wrocławska, Wybrzeże Wyspiańskiego 27, Wrocław, slawomir.rowinski@pwr.wroc.pl 2 Politechnika Wrocławska, Wybrzeże Wyspiańskiego 27, Wrocław, maciej.kozuch@pwr.wroc.pl 265

267 Poniżej opisano problematykę projektowania badań doświadczalnych [6], w których autorzy referatu biorą udział w ramach prac na Politechnice Wrocławskiej. Pominięto kwestię wymiarowania łączników, która została przedstawiona np. w pracy [3], jeśli chodzi o część stalową zespolenia, oraz w pracy [4], gdzie Seidl przedstawia teoretyczne podejście do wymiarowania części betonowej. Nie odnoszono się również do technologicznych aspektów produkcji belek, które to przedstawiono m.in. w pracy [5]. 2. Badania doświadczalne 2.1. Próby POST i belki obciążane statycznie Podstawowym badaniem niszczącym, które zgodnie z wytycznymi Eurokodu 4 należy wykonać dla każdego typu łączników zespalających, są próby typu POST. Również w przypadku ciągłych otwartych łączników stalowych są one podstawowym badaniem, na podstawie których określa się nośność graniczną oraz charakterystyczny poślizg. Można dzięki temu zakwalifikować łączniki do grupy łączników podatnych. W ramach projektowanych badań przewiduje się również zastosowanie czujników tensometrycznych. Dzięki temu przy realizacji jednej próbki można określić rozkład naprężeń w łączniku oraz porównać pracę łączników na tym samym poziomie, ale w dwóch różnych blokach betonowych lub w tym samym bloku betonowym, ale na różnych poziomach. Badania tensometryczne rozważanych elementów wykraczają poza zakres wymogów stawianych przez EC4, ale wiedza o pracy łączników może pozwolić w przyszłości na projektowanie analogicznych prób z dwoma, zamiast trzech, rzędami łączników, co pozwoliłoby zredukować koszt badania. Rysunek przedstawiający schemat próby typu POST przedstawiony jest poniżej. Rys. 2. Projektowany rozkład tensometrów oraz tensometry po przyklejeniu do stalowej doweli W celu określenia nośności sprężystej elementów zespolonych z rozważanym zespoleniem ciągłym należy projektować pełnowymiarowe belki. Oprócz poślizgów, upliftów oraz ugięć mierzonych czujnikami indukcyjnymi, zastosowano na Politechnice Wrocławskiej na bardzo dużą skalę metodę tensometrii elektrooporowej (około 100 tensometrów do pomiarów odkształceń jednej belki, większość z nich umieszczona na łącznikach stalowych). Poniżej przedstawiono przykładowy rozkład łączników na pojedynczym zębie oraz na całej belce. 266

268 Rys. 3. Projektowany rozkład tensometrów oraz tensometry po przyklejeniu do stalowej doweli Otrzymane odkształcenia w dyskretnych punktach łączników stanowią podstawę do kalibracji modeli numerycznych. Następnie, na ich podstawie wyznaczone zostaną współczynniki karbów dla efektów lokalnych i globalnych oraz sposoby sumowania powyższych efektów (ekstrema naprężeń od lokalnego ścinania i działania naprężeń globalnych nie występują w tym samym punkcie łącznika) Belki obciążane cyklicznie Dla elementów zespolonych obciążanych cyklicznie bardzo ważna jest wytrzymałość zmęczeniowa. Badania prowadzone na Politechnice Wrocławskiej miały na celu określenie wytrzymałości zmęczeniowej belek zespolonych z ciągłymi łącznikami otwartymi (zarówno w odniesieniu do kategorii zmęczeniowej jak i szybkości propagacji rysy). Obecnie projektuje się elementy wykorzystując zalecenia zawarte w PN-EN , przyjmując kategorię zmęczeniową σ c =125 MPa, jak dla blach ciętych mechanicznie lub gazowo i na ogół metodę bezwarunkowej żywotności. Badania prowadzone w ramach projektu Preco-Beam [2] potwierdzają, iż nośność zmęczeniowa elementów zespolonych z łącznikami otwartymi jest większa, niż ta wyliczona przy założeniu naprężeń geometrycznych i porównanych do kategorii 125. Aby zoptymalizować metody projektowe, ważne jest dokładne określenie naprężeń geometrycznych w karbie, jaki powstaje u podstawy łącznika w kształcie MCL (obecnie stosowanym, zbliżonym w formie do klotoidy) oraz określenie prędkości propagacji rysy. Ta wiedza w powiązaniu z umiejętnym kształtowaniem przekroju poprzecznego belki może pozwolić na implementację do projektowania metody tolerowanych uszkodzeń. W badaniach zmęczeniowych wykorzystano czujniki elektrooporowe firmy HOTTINGER typu LY11-3/120 oraz RY11-3/120. Proponuje się rozwiązania z wykorzystaniem czujników spawanych oraz wielopunktowego przygrzania, jednak m.in. ze względów technicznych, 267

269 skomplikowana technika mocowania wymagająca specjalistycznego sprzętu, do badań wybrano tensometry klejone. Ta technologia pozwala nie wprowadzać do układu ciepła, które może mieć wpływ strukturę stali. Czujniki elektrooporowe naklejono w miejscach spodziewanych największych odkształceń (odsuwano się jednak od krawędzi o 5 mm, aby nie wpływać na pracę samego łącznika). Zastosowano także u podstawy łączników rury osłonowe, tworzące kanały obserwacyjne. Przez te kanały, w czasie trwania badań cyklicznych, prowadzony był ciągły pomiar kamerą termowizyjną dużej czułości i częstotliwości odczytów. Dzięki temu możliwe było zaobserwowanie czasu inicjacji oraz szybkości propagacji pęknięcia zmęczeniowego poprzez obserwację nagłego wyzwolenia dużej ilości ciepła poprzedzającego takie pęknięcie. Kanały obserwacyjne są wbudowane w betonowy środnik belek i wykonane są z odcinków stalowych rur o średnicy ø 60mm. Rury umieszczono w miejscach spodziewanych największych odkształceń w miejscach karbów geometrycznych. Sposób rozmieszczenia rur oraz miejsca wbudowania zostały przedstawione na rys. 3. Kanały obserwacyjne są wbudowane po jednej stronie stalowego łącznika, po drugiej stronie są naklejane tensometry. Przy wykonywaniu badań, możliwy jest zarówno pomiar wartości odkształceń, jak i możliwa jest obserwacja powstających rys. Rys. 4. Rozmieszczenie kanałów obserwacyjnych w badanych belkach 2.3. Wpływ technologii cięcia na wytrzymałość zmęczeniową stalowego łącznika Wytrzymałość zmęczeniowa stalowych łączników zależy zarówno od kształtu wycięcia jak i od technologii cięcia, co zostało potwierdzone poprzez badania metalograficzne wykonane w ramach projektu Preco-Beam [2]. Obecnie i powszechnie wykorzystywaną metodą wytwarzania jest metoda termiczna [5] (cięcia gazowego), głównie ze względu na jej koszt. Jednak ta metoda, a dokładniej jej skutki mogą niekorzystnie wpływać na wytrzymałość zmęczeniową stalowego łącznika. W wyniku spalania tlenu i acetylenu podczas cięcia, do elementu dostarczana jest duża ilość energii cieplnej, która zaburza strukturę krystalograficzną materiału w obszarze cięcia. Dodatkowo powierzchnia cięcia posiada wiele bruzd, które są miejscami koncentracji naprężeń i ułatwiają powstanie oraz rozwój przełomu zmęczeniowego. Powiększony fragment powierzchni cięcia przedstawiono na rys

270 Rys. 5. Liczne, głębokie rysy na powierzchni cięcia tlenowego Obecnie poszukiwane są inne metody wycinania stalowych łączników, które mniej ingerowałyby w strukturę stali i wytworzyłyby równiejszą powierzchnię cięcia. Proponuje się wycinanie przy wykorzystaniu technologii cięcia plazmą oraz wodą. Jednak przy wyborze metody, należy uwzględnić zarówno aspekty wytrzymałościowe jak i finansowe. Aby być w stanie świadomie wybierać metodę cięcia, zaplanowano wykonanie badań porównawczych trzech wyżej wymienionych technologii cięcia: tlen acetylen, plazma oraz woda. Badania wykonywane są obecnie w cyklicznej próbie rozciągania na prasie wytrzymałościowej. W pierwszym etapie próbki są badane w próbach narastających ( σ-n), by określić zakres zmienności naprężeń odpowiedni dla każdej technologii. Następnie zostaną poddane badaniu serie próbek dla każdej technologii cięcia, na czterech poziomach zakresu zmienności naprężeń (rys. 6): σ 1, σ 2, σ 3, σ 4 dla liczby cykli N>10 4 (jak dla badań wysokocyklowych). Częstotliwość badań w zakresie od 2 do 15 Hz dobrano tak, aby temperatura próbki w czasie badania nie przekraczała 70 o C. Obecnie prowadzone badania pozwolą stwierdzić, czy zmiany powierzchniowe struktury stali przy cięciu metodą gazową (tlen acetylen) niekorzystnie wpływają na wytrzymałość zmęczeniową stali. Dodatkowo nadmienić tu należy, że pozornie idealnie gładka powierzchnia cięcia otrzymana podczas stosowania cięcia wodą, wykazuje w badaniach mikroskopowych liczne defekty. Woda jest jedynie medium niosącym drobinki tnące, które uderzając pod dużym ciśnieniem tną materiał. Z tego powodu rodzi się pytanie, który rodzaj niedoskonałości powierzchni jest bardziej niekorzystny. Czy ten widoczny gołym okiem w połączeniu ze zmianami strukturalnymi stali powstałymi przy cięciu gazowym, czy może ostre mikrodefekty spowodowane cięciem wodą? Rys. 6. Krzywa wytrzymałości dla badanych próbek na poziomach σ 1, σ 2, σ 3, σ 4 269

271 3. Podsumowanie W artykule przedstawiono tok projektowania badań doświadczalnych mających na celu potwierdzenie wypracowywanych równolegle oraz już istniejących algorytmów projektowania konstrukcji zespolonych z ciągłymi łącznikami otwartymi. Zwrócono uwagę na złożoność problematyki oraz konieczność zwiększenia zakresu prowadzonych badań, w stosunku do badań standardowo używanych łączników zespalających. Przedstawiono możliwości wykorzystania ogólnie dostępnych czujników elektrooporowych nawet w przypadku badań zmęczeniowych. Cykliczne badania elementów o znacznych wymiarach (w tym przypadku długość belki wynosi L=4,25m) można doskonalić. W tym przypadku zastosowano kanały obserwacyjne, które umożliwiły obserwację propagującej rysy. Problem wpływu technologii cięcia na wytrzymałość zespolenia pozostaje otwarty do momentu uzyskania pełnych wyników z badań próbek porównawczych wykonanych różnymi technologiami cięcia. Literatura [1] Lorenc W., Kołakowski T., Kosecki W., Seidl G., VFT-WIB - prefabrykowane dźwigary zespolone z innowacyjnym połączeniem stali i betonu. Nowocz. Bud. Inż. 2008, nr 6, s [2] PreCo-Beam: Prefabricated enduring composite beams based on innovative shear transmission. Technical Reports. Research Fund for Coal and Steel, Contract N RFSR-CT /07/ /06/2009. [3] Lorenc W., Steel design concept for composite dowel shear connection, SEI 2009 Structures Congress Texas, 2009, Draft. [4] Seidl G., Load bearing behaviour of composite dowels in steel-concrete composite girders, raport serii PRE nr 4/2009, Politechnika Wrocławska. [5] Kubica E., Rykaluk K., Lorenc W., Kożuch M., Kształtowanie rozciętych dwuteowników walcowanych pod kątem stosowania w belkach zespolonych, Zespolone konstrukcje mostowe. Teoria, badania, projektowanie, realizacja, utrzymanie, wzmacnianie, str , Wydział Inżynierii Lądowej Politechniki Krakowskiej, Kraków [6] Kubica E., Lorenc W., Kożuch M., Testing procedures in evaluation of resistance of innovative shear connection with composite dowels, Archives of Civil and Mechanical Engineering, Vol. X, No. 3, str , ISSN , Wrocław Opracowanie oraz interpretacja wyników badań oraz wstępna budowa MES jest obecnie realizowana przy wsparciu S. Rowińskiego i M. Kożucha współfinansowanego przez Unię Europejską w ramach Europejskiego Funduszu Społecznego. RESISTANCE OF CONTINUOUS OPEN SHEAR CONNECTORS IN COMPOSITE STRUCTURES IN ASPECT OF DESIGN THE TESTING PROCEDURES In the paper authors presented process of preparation cyclic tests of composite structures, taking into account possibility of test improvement in order to enable determination not only stress state in steel dowel, but also process of initiation and propagation of crack obtained. Results of observations will allow to confirm the correctness of FE as well as analytical approaches to dimensioning issues. Attention was paid to the complexity of considered problems and influence of various factors on fatigue resistance. Additional tests were proposed, which will make the choice easier, which technology should be used to cut along the steel beams, to fulfill both strength and economical aspects. 270

272 Techniki CAx jako wsparcie zastosowania technologii wytwarzania przyrostowego w kryminalistyce Małgorzata Rusińska 1, Edward Chlebus 1, Katarzyna Gonera 1,Jarosław Kurzac, 1 Krzysztof Woźniak 2 Streszczenie: Na podstawie danych pochodzących z tomografii komputerowej uzyskano obraz uszkodzonych struktur kości czaszki denata. Obróbka danych narzędziami z grupy CAx, umożliwiła utworzenie modelu przestrzennego, który został wytworzony technologią 3DP. Powstały w wyniku tego model rzeczywisty posłużył do weryfikacji narzędzia jakim zostały dokonane uszkodzenia. Słowa kluczowe: drukowanie przestrzenne, techniki CAx, obrazowanie medyczne 1. Wprowadzenie Technologie przyrostowe znajdują zastosowanie w projektowaniu przemysłowym już od ponad trzech dekad, mimo to dopiero w ciągu ostatniego dziesięciolecia zaczęto rozwijać ich zastosowanie w kierunku nowych dziedzin. Obok prototypowania nowych produktów, wytwarzania modeli koncepcyjnych dla wzornictwa przemysłowego lub architektury ostanie lata przyniosły zintensyfikowane badania prowadzone w kierunku aplikacji medycznych. Zainteresowanie to spowodowane jest nieporównywalnymi, z tradycyjnymi technikami wytwarzania, możliwości uzyskiwania wysoce złożonej geometrii wewnętrznej i zewnętrznej obiektów. Dodatkowo w połączenie możliwości przetwarzania danych z obrazowania medycznego z systemami CAx, zagwarantowano realne odwzorowanie struktur anatomicznych, charakterystycznych dla wybranych przypadków. Stąd zastosowanie technologii szybkiego prototypowania wniosło istotne usprawnienie przy konstruowaniu i wytwarzaniu implantów, a także modeli pokazowych pozwalających na lepsze przygotowanie się lekarzy do zabiegów. Możliwości technologii generatywnych powodują iż znajdują one zastosowanie w coraz to nowych obszarach. Model wykonany na drukarce przestrzennej wykorzystany został w sprawie prowadzonej przez Prokuraturę. W Katedrze Medycyny Sądowej Uniwersytetu Jagiellońskiego Collegium Medicum wykonano sądowo-lekarską sekcję zwłok osoby zmarłej wskutek obrażeń czaszkowo-mózgowych. Do podstawowych pytań, na które odpowiedzieć ma badanie pośmiertne w takich przypadkach, należy wyjaśnienie mechanizmu powstania obrażeń, w tym zebranie danych pozwalających zidentyfikować narzędzie. Z powodu usunięcia odłamów kości czaszki w trakcie ratującego życie zabiegu operacyjnego, podczas badania pośmiertnego nie było możliwości uzyskania materiału do identyfikacji przyczyn urazu. Biegli zwrócili się więc do prowadzącej sprawę Prokuratury o sprawdzenie, czy w trakcie badań klinicznych wykonywano badania TK głowy osoby pokrzywdzonej, a w razie istnienia zapisu takiego badania o przekazanie go do analizy. Na podstawie nadesłanych danych dokonano rekonstrukcji przestrzennej złamanych kości czaszki, ujawniając ich włamania (czyli przemieszczenie odłamów kostnych do wnętrza czaszki) - wskazujące na czynny charakter obrażeń. Wyeksportowany obiekt przestrzenny w postaci fragmentu czaszki z włamaniami posłużył do wykonania modelu rzeczywistego, stanowiącego przedmiot analizy kryminalistycznej, pozwalającej na grupową identyfikację narzędzia. 1 Poltechnika Wrocławska, Instytut Tecnologii Maszyn i Automatyzacji, ul. Łukasiewicza5, Wrocław, malgorzata.rusinska@gmail.com 2 Katedra i Zakład Medycyny Sądowej Collegium Medicum Uniwersytetu Jagiellońskiego,ul. Grzegórzecka 16, Kraków 271

273 2. Metodyka W celu otrzymania fizycznego modelu uszkodzonych fragmentów czaszki wykorzystano technologię drukowania przestrzennego. Cyfrowy model 3D uzyskano na podstawie danych dostarczonych z tomografii komputerowej zmarłego wykonanej przed ingerencją chirurgów. Kolejne etapy procesu obróbki danych w celu przygotowania wirtualnego modelu w formacie STL (Standard Triangulation Language), wykorzystywanym przez drukarkę 3D, przedstawione zostały na rysunku 1. Dane uzyskane z obrazowania medycznego (TK) DICOM Oprogramowanie scalające przekroje w model 3D (Mimics) Model gotowy do produkcji Konstrukcja elementów stabilizujących położenie fragmentów czaszki (Magics) STL Usuwanie artefaktów i błędnych wokseli (Mimics) 3. Technologia Rys. 1. Schemat obróbki danych od przekrojów uzyskanych z Tomografii Komputerowej do gotowego pliku służącego do wydruku obiektu fizycznego Szybkie prototypowanie to skomputeryzowana technologia produkcji, która warstwowo buduje nadzwyczaj złożone trójwymiarowe obiekty fizyczne przy użyciu generowanych komputerowo danych, na przykład modeli CAD lub cyfrowej grafiki. Te innowacyjne technologie wymagają dokładniejszego poznania niesionych możliwości i ograniczeń, a także poszukiwania praktycznych, przyczyniających się do rozwoju tej dziedziny zastosowań [1-3]. Technologie te są bardzo użyteczne w aplikacjach medycznych, przy wytwarzaniu trójwymiarowych obiektów fizycznych, ponieważ bazują na odwzorowaniach indywidualnej anatomii pacjenta pochodzących z np.: tomografii komputerowej, ultrasonografii czy rezonansu magnetycznego. Modele te mogą być wykorzystywane do wizualizacji i kształtowania specjalistycznych narzędzi, planowania i przygotowania procedur chirurgicznych lub też do wytwarzania zindywidualizowanych implantów. Do grupy technologii przyrostowych należy drukowanie trójwymiarowe (Three Dimensional Printing - 3DP), opracowane w Massachusetts Institute of Technology (MIT). Istota technologii opiera się na wykorzystaniu techniki drukowania atramentowego do budowy modeli przestrzennych poprzez łączenie kolejnych warstw sproszkowanego materiału. W trakcie procesu głowica drukująca dozuje płynny materiał lepiszcze, łączące tymczasowo ziarna proszku ułożonego w postaci cienkich warstw. Obiekt powstaje poprzez łączenie kolejnych profili odwzorowujących przekroje modelu wygenerowanego przez system komputerowy. W dalszej kolejności platforma na której budowany jest model jest obniżana, umożliwiając nałożenie kolejnej warstwy proszku pobieranego z równolegle podnoszonej komory zasobnika (rys. 2.). Niezwiązany proszek stanowi tymczasowe wsparcie dla niepołączonych wzajemnie fragmentów obiektu, umożliwiając formowanie nawisów, podcięć oraz wewnętrznych przestrzeni. Po zakończonym procesie niezwiązany proszek jest usuwany przy pomocy sprężonego powietrza, a wytworzony model poddawany jest obróbce wykańczającej w celu utwardzenia. 272

274 (a) (b) Rys. 2. Schemat funkcjonowania drukarki 3D (a); wnętrze drukarki 3D (b) 4. Przypadek W prezentowanym przypadku dane do wytworzenia fizycznego modelu czaszki pochodziły z tomografii komputerowej wykonanej w trakcie leczenia klinicznego. Standardowo dane z TK są zapisywane w formacie DICOM (Digital Imaging and Communications in Medicine) i niosą ze sobą informacje takie jak.: wielkość piksela obrazu tomograficznego, wymiar tablicy pikseli, grubość przekroju objętego pojedynczym obrazem, zastosowany algorytm rekonstrukcji oraz pozycja każdego obrazu w osi badania. Tomografia komputerowa została przeprowadzona na 286 przekrojach, przy następujących parametrach: przyrost -0,699, 120 kv, 206 mas, wielkość piksela 0,391, rozmiar zdjęcia 512x512, Fov 20 cm, algorytm rekonstrukcji H31s. Zdjęcia z TK zostały zaimportowane do programu obliczeniowego, w którym przeprowadzono ich obróbkę aż do uzyskania modelu 3D uszkodzonego fragmentu czaszki. Informacje o parametrach badania umożliwiły automatyczne ułożenie pojedynczych przekrojów we właściwej kolejności oraz odległości, będącej grubością pojedynczego przekroju. Następnie pikselom z każdego obrazu pojedynczego przekroju nadany został trzeci wymiar, tworząc tzw. woksele (voxel volume pixel, element objętości). W celu wyodrębnienia tkanek podlegających rekonstrukcji model poddany został procesowi segmentacji (wyodrębnienia tych wokseli, które należą do pożądanego typu tkanki) na podstawie wartości wokseli w skali Hounsfielda (informującej o wartości osłabienia liniowego współczynnika promieniowania rentgenowskiego, zależnego od rodzaju tkanki) [4]. W celu wygenerowania modelu 3D konieczne jest wyodrębnienie 273

275 wszystkich wokseli o wartościach z zadanego przedziału. Przeprowadzony tzw. thresholding umożliwił wyodrębnienie reprezentacji tkanki kostnej w postaci modelu 3D, zapisanego w formacie STL (rys. 3). Rys. 3. Obraz danych z TK zaimportowanych do programu graficzno-obliczeniowego Tak przygotowany wirtualny model fragmentu czaszki mógł zostać wytworzony na drukarce 3D, jednakże w wyniku poniesionych obrażeń, wiele odłamów kości nie było wzajemnie połączonych i po wydruku znajdowałyby się osobno. W celu przejrzystej prezentacji, w programie Magics zostały zamodelowane wsporniki podtrzymujące luźne fragmenty w sposób odwzorowujący wzajemne ich położenie. Dodane elementy odznaczone zostały kolorami (rys. 4.). Rys. 4.Model uszkodzonego fragmentu czaszki wraz elementami łączącymi Zmodyfikowany model wydrukowano na urządzeniu firmy Z Corporation, model Z510, w procesie wykorzystano standardowe materiały do budowy modeli pokazowych. Finalną postać wytworzonego technologią przyrostową fragmentu czaszki przedstawia rysunek

276 Rys. 5.Fizyczny model wytworzony technologią 3DP 5. Podsumowanie Różnorodne urządzenia z grupy technologii przyrostowych pozwalają na produkcję skomplikowanych geometrycznie kształtów, dodatkowo nowoczesne systemy CAx zapewniają szanse na uzyskiwanie wysokiej dokładności modeli numerycznych. Synergia tych rozwiązań umożliwia rozwiązywanie problemów, które dotychczas stanowiły barierę nie do przejścia zarówno dla konstruktorów jak i technologów. Osiągnięte możliwości mają szczególne znaczenie w kontekście medycyny oraz nauk jej towarzyszących. Przydatność technologii przyrostowych została wykazana w rozmaitych przypadkach zastosowań medycznych, np.: chirurgii okolic twarzoczaszki, chirurgii rekonstrukcyjnej, ortopedii i pediatrycznych operacjach kardiologicznych [5-8]. W oparciu o te technologie implanty lub szablony chirurgiczne mogą być testowane na modelach odwzorowujących anatomię pacjenta, ponadto wytwarzane są modele do planowania operacji, a także implanty indywidualnie dopasowane do konkretnego przypadku klinicznego. Przedstawiony przypadek ukazuje kolejne możliwości wykorzystania nowoczesnych technologii również w rozwoju dziedzin uznawanych dotąd za całkowicie odrębne. Drukarka 3D została zaprezentowana jako użyteczne i szybkie narzędzie do fizycznej prezentacji dowodów. Warto zaznaczy, iż postać danych z tomografii komputerowej czy też wirtualny model 3D na osoby niezwiązane z tymi dziedzinami oddziałują tak znacząco słabiej. Dostarczenie obiektu obrazującego namacalnie ten przypadek wpłynęło pozytywnie na przebieg śledztwa. Model taki umożliwia lepsze zrozumienie i analizę warunków w jakich doszło do uszkodzenia czaszki, co w znaczący sposób ułatwiło identyfikację przyczyny powstania obrażeń. Literatura [1] Chlebus E.: Techniki komputerowe Cax w inżynierii produkcji. WNT, Warszawa [2] Jacobs FP.: Rapid Prototyping & Manufacturing: Fundamentals of Stereolithography. Mcgraw- Hill (Tx), September [3] Pham DT., Dimov SS.: Rapid Manufacturing. Springer Verlag London Limited [4] Van Der Molen A., Schaefer-Prokop C., Galanski M.: Computed tomography of the body. George Thieme Verlag 2001, copyright by MediaPage, Warszawa [5] Wohlers T.: Report 2006 Rapid Prototyping & Manufacturing State of the Industry. Wohlers Associates Inc

277 [6] Winder J, Bibb R.: Medical prototyping technologies: state of the art and current limitations for application in oral and maxillofacial surgery. J Oral Maxillofac Surg 2005;63: [7] Yeong WY., Chua CK., Leong KF., Chandrasekaran M.; Rapid prototyping in tissue engineering: challenges and potential. Trends in Biotechnology; 2004;12; [8] Lipowicz A., Kurzynowski T., Chlebus E.: Rapid Manufacturing in medicine. Anyagvizsgálók Lapja [Dokument elektroniczny]. 2009, nr 1, s , 10 rys., 1 tab., bibliogr. 21 poz., Összefogl. Lokalizacja elektroniczna: CAx TECHNIQUES SUPPORT APPLICATION OF ADDITIVE MANUFACTURING TECHNOLOGIES IN FORENSIC SCIENCE A physical model of the damaged fragments of the skull was manufactured by 3Dimensional Printing Technology (3DP), which helped to explain the mechanism of skull fracture. 3DP is one of a additive technologies that can generate in layer by layer manner arbitrarily complex three dimensional physical objects using computer generated data, such as CAD models and digital graphics. In order to prepare the virtual model in Standard Triangulation Language - STL format, required by 3DP device full process of reconstruction was conducted. First of all data obtained from Computer Tomography CT were imported into a special graphical program, where it was processed and finally transformed into 3D model of broken skull. Information about examination parameters served for automatic alignment of individual sections into correct order, preserving thickness of single cross-section. Subsequently pixels from each image were given the third dimension, that created so called: voxel model (voxel = volume pixel. To isolate tissues for reconstruction, model has been subjected to segmentation process (isolating only voxels which belong to target type of tissue)based on a Hounsfield scale. Only damaged part was to be presented in physical form, so it was extracted from the rest of the cranium bones. Due to fractures and many loose pieces supporting structures has been modeled for better introduction of the relative positions between fractured bones and for visualization of devastation in victims skull. Modified model was fabricated by 3D Printer using standard materials dedicated for presentations. Model described in case-study was used in court trial and allowed for identification of an object that caused skull damages of the deceased. The results of expertise pointed to attack and not, as witnesses recounted, to an accident. 276

278 Projektowanie kompensacji luzu osiowego w pompach zębatych o zazębieniu wewnętrznym ewolwentowym Damian Słodczyk 1 Streszczenie: Luzy osiowe w pompach zębatych stanowią problem ze względu na obniżenie ciśnienia pracy i sprawności objętościowej, jak również w efekcie sprawności całkowitej. W artykule przedstawiono wybrane rozwiązania konstrukcyjne kompensacji luzów osiowych. Omówiono również teorię projektowania kompensacji opierającą się na równowadze sił wynikających z działania ciśnienia roboczego na nieobracające się elementy pompy. Słowa kluczowe: pompa zębata, zespół pompujący, kompensacja luzu osiowego 1. Wprowadzenie Zgodnie z obecnie panującymi tendencjami na rynku światowym hydrauliki, generatorom energii stawiane są następujące wymagania: - zwartość konstrukcji, małe wymiary, duży stosunek wydajności do masy q/m, - wysokie ciśnienia robocze p, wysoka sprawność objętościowa η v i całkowita η c, Wśród najczęściej stosowanych generatorów energii w hydraulicznych układach napędowych stanowią pompy zębate [1, 2]. Najbardziej zaawansowanymi rozwiązaniami konstrukcyjnymi w tej grupie są pompy o zazębieniu wewnętrznym ewolwentowym. Rys. 1. Rysunek schematyczny zespołu pompującego 1, 2 koło zębate, 3 wkładka rozdzielająca, 4, 5 płyty kompensacyjne, 6 korpus pompy, P d - siła dociskająca płyty kompensacyjne, IN strefa wejściowa, OUT strefa wyjściowa Na rysunku 1 przedstawiono schematycznie zespół pompujący stanowiący główny mechanizm pompy. Za przetłaczanie czynnika roboczego odpowiedzialny jest podzespół kół 1 Politechnika Wrocławska, Instytut Konstrukcji i Eksploatacji Maszyn, ul. I. Łukasiewicza 7/ Wrocław, damian.slodczyk@pwr.wroc.pl 277

279 zębatych wraz z wkładką rozdzielającą umieszczoną pomiędzy wierzchołkami wirujących kół zębatych. Z podzespołem kół zębatych współpracuje podzespół płyt kompensacyjnych. Płyty te są dociskane siła P d do powierzchni czołowych kół zębatych i minimalizują szczeliny osiowe, będące głównym źródłem przecieków wewnętrznych. Podzespół płyt kompensacyjnych zapewnia zatem szczelność wewnętrzną pompy i umożliwia uzyskanie wysokich ciśnień roboczych p oraz wysokiej sprawności objętościowej η v. Kompensacja luzów osiowych jest wymagana w celu uzyskania ciśnień roboczych pompy powyżej 100 bar, przy zachowaniu jednocześnie wysokiej sprawności objętościowej η v [3]. Skuteczność kompensacji luzów osiowych wykazano dla przypadku pompy gerotorowej [5], której budowa i zasada działania jest podobna jak pompy z zazębieniem wewnętrznym ewolwentowym. 2. Opracowanie koncepcji podzespołu kompensacyjnego Każde działania konstrukcyjne powinny być poprzedzone przyjęciem ogólnego rozwiązania konstrukcyjnego. Na rysunku 2 przedstawiono schematycznie katalog możliwych rozwiązań podzespołu płyt kompensacyjnych. Płyty te mogą współpracować z czołami kół zębatych przesuwając się w korpusie pod wpływem sił docisku P d (rys. 2 a, b) lub też odkształcając się sprężyście [5] pod wpływem sił P d (rys. 2 c). Ponadto można dokonać kompensacji jedną płytą, czyli kompensacji jednostronnej (rys. 2 a) lub też dwoma płytami, czyli kompensacji dwustronnej (rys. 2 b, c). Z rysunku 2 a, b wynika, że średnica płyt kompensacyjnych jest równa średnicy zewnętrznej D podzespołu kół zębatych. Gdy średnica D jest mała to łatwiej można spasować wzajemnie oba podzespoły. Płyty sztywne (o większej grubości C) można łatwiej i precyzyjniej przesuwać w korpusie pompy pod wpływem sił docisku P d. Nie dochodzi do ukosowania płyt i powstawania niekontrolowanych szczelin. Rys. 2. Rozwiązanie koncepcyjne podzespołu płyt kompensacyjnych 1 podzespół kół zębatych, 2 podzespół płyt kompensacyjnych, 3 - korpus 3. Projektowanie podzespołu płyt kompensacyjnych Rysunek 3 przedstawia zasadę działania hydraulicznej kompensacji luzu osiowego, która polega na utrzymaniu stałej wysokości h szczelin ukształtowanych pomiędzy czołami kół zębatych i czołami płyt kompensacyjnych. Zmieniające się ciśnienie robocze p w pompie wywołuje zmianę siły odpychającej P od, która z kolei powoduje przesunięcie, względnie odkształcenie płyt kompensacyjnych i zmiany wysokości szczelin osiowych h. W celu utrzymania stałej wysokości tych szczelin, należy dociskać płyty kompensacyjne siłami P d, które uzyskuje się oddziaływaniem czynnika roboczego doprowadzonego na zewnętrzną powierzchnię płyt. Warunki równowagi płyt kompensacyjnych są sformułowane w następujący sposób [1, 5]: 278

280 - siła dociskająca P d powinna być równa lub nieznacznie większa od siły odpychającej P od, - współrzędne punktu (x d, y d ) przyłożenia siły dociskającej powinny się pokrywać ze współrzędnymi punktu (x od, y od ) przyłożenia siły odpychającej (rys. 3, przekrój B-B, C-C). Rys. 3. Rysunek schematyczny podzespołu płyt kompensacyjnych 1, 2 koła zębate, 3 wkładka rozdzielająca, 4 płyty kompensacyjne, 5 korpus, h szczelina osiowa, K - powierzchnia kompensacji, P od - wypadkowa siła odpychająca, P d - wypadkowa siła dopychająca, x od, y od - współrzędne siły odpychającej, x d, y d - współrzędne siły dociskającej Uwzględniając podane wyżej warunki w pierwszej kolejności należy przeprowadzić obliczenia wypadkowej siły odpychającej P od oraz punktu jej przyłożenia (x od, y od ). Do tego celu wykorzystuje się przyjęty rozkład ciśnienia (rys. 3, przekrój A-A) wewnątrz pompy, tzn. w strefie wzrostu ciśnienia (IN-OUT), strefie wyjściowej (OUT) oraz w strefie spadku ciśnienia (OUT-IN). Rozkład ciśnienia jest zależny od geometrii podzespołu kół zębatych oraz usytuowania wkładki rozdzielającej. Mnożąc wartość ciśnienia p w danej strefie przez wartość powierzchni na którą oddziaływuje, uzyskuje się cząstkowe siły odpychające P od1, P od2, P od3. Suma sił cząstkowych daje wypadkową siłę odpychającą P od, którą pokazano na rysunku 3, przekrój B-B. Współrzędne punktu (x od, y od ) przyłożenia siły P od wyznacza się stosując ogólne zasady mechaniki technicznej. W kolejnym kroku określa się wartość siły dociskającej (kompensacyjnej) P d (rys. 3, przekrój C-C). Zgodnie z pracą [5], powinna ona wynosić: 279

281 P 1,05 1, 3 (1) d P od Nadwyżka siły dociskającej potrzebna jest do pokonania sił tarcia, pojawiających się w trakcie przesuwania płyt kompensacyjnych w korpusie. Następnie na podstawie przyjętej wartości siły P d wyznacza się wielkość wymaganego pola kompensacji, rysunek 3, przekrój C-C, jako pole K. Przyjmując, że na całe pole oddziałuje ciśnienie tłoczenia pompy p, wartość pola wyznacza się z: K Pd / p (2) Pole kompensacyjne K kształtuje się w taki sposób, aby środek ciężkości (x d, y d ) pola K, w którym przyłożona jest wypadkowa siła dociskająca P d, pokrywał się ze współrzędnymi (x od, y od ). 4. Podsumowanie W pracy zaprezentowano zarys teorii projektowania podzespołu płyt kompensacyjnych. Przedstawiono wybrane rozwiązania konstrukcyjne oraz zarys teorii obliczeń konstrukcyjnych podzespołu. Takie ujęcie jest naświetleniem problemu bez wgłębiania się w szczegółowy opis matematyczny zjawisk fizycznych towarzyszących pracy zespołu pompującego. Niniejsza praca ma być drogowskazem dla konstruktorów podejmujących się tego zagadnienia. Literatura [1] S. Stryczek, Napęd hydrostatyczny, WNT Warszawa, 1995, [2] J. Ivantysyn, M. Ivantysyn, Hydrostatiche Pumpen und Motoren. Konstruktion und Berechnung, Vogel, 1993, [3] R. Pippes, C. Mayer, Gap-compensated high-pressure internal gear pumps, 3rd International Fluid Power Conference, Aachen, 2002, [4] D. Slodczyk, S. Stryczek, Computer program for the design of hydraulic machines' pumping set with internal involute gearing, 6 th International FPNI-PhD Sympsium, Purdue, 2010, [5] S. Bednarczyk, J. Stryczek, Axial clearance compensation inthe gerotor pump, Proceedings of the 20 th International Conference on Hydraulics and Pneumatics, Prague, DESIGNING THE AXIAL CLEARANCE COMPENSATION IN GEAR PUMPS FEATURING THE INVOLUTE INTERNAL GEARING Gear pumps constitue the most widespread energy generators in hydraulic systems. Among them, gear pumps featuring the involute internal gearing are the most advanced design solutions. Currently, in the global hydraulic market, generators should meet the following requirements: - compact design, small dimensions, high delivery to weight ratio, - high working pressure at high delivery, low irregularity of delivery coefficient, high volumetric efficiency and high total efficiency. The axial clearance occurring in the gear pumps is problematic because it reduces working pressure, as well the volumetric and total efficiency. This paper presents selected solutions of the axial gap compensation designs. Suggested ideas use sliding and deformable plates to compensate the axial gap. The theory of compensation design is based on the balance between repulsive and pushing forces which work on the compensation plate. The working conditions of the axial clearance compensation have also been presented. 280

282 Metody badania właściwości wytrzymałościowych gruntu mające zastosowanie w terramechanice Damian Stefanow 1 Streszczenie: W artykule przedstawiono najczęściej spotykane w literaturze metody badania właściwości wytrzymałościowych gruntów, jakie wykorzystuje się do tworzenia modeli mobilności pojazdów terenowych oraz do określania zdolności gruntu do przenoszenia obciążeń od ruchu kołowego i gąsienicowego. Przy każdej z nich podsumowano uwagi występujące w literaturze dotyczące ich zalet i wad. Przedstawiono także jedno z najobszerniejszych w literaturze badań porównujących różne metody pomiarowe. Słowa kluczowe: terramechanika, badania wytrzymałościowe gruntów, mobilność 1. Wprowadzenie Terramechanika jest nauką zajmującą się badaniem interakcji zachodzących między pojazdami, ich podwoziami i narzędziami a gruntem. Dotyczy ona głównie pojazdów terenowych, rolniczych i wojskowych, a także maszyn roboczych. Ze względu na konieczność przewidywania osiągów pojazdów poruszających się po nieutwardzonym podłożu oraz poprawy ich sprawności, terramechanika w ciągu ostatnich kilku dekad bardzo się rozwinęła. Dzięki znajomości właściwości wytrzymałościowych gruntu, takich jak wytrzymałość na ścinanie i penetrację, można określić zdolność terenu do przenoszenia obciążeń od ruchu kołowego i gąsienicowego. W kolejnym rozdziale przedstawiono udokumentowane w literaturze metody badania właściwości wytrzymałościowych gruntu, stosowane w terramechanice. 2. Badanie parametrów wytrzymałościowych gruntu Naprężenia w masie gruntowej, wywoływane przez podwozie pojazdu poruszającego się po niej, można podzielić na dwa typy: pionowe i poziome. Naprężenia pionowe powodują osiadanie pojazdu, a naprężenia poziome ścinanie gruntu. Mobilność pojazdu, czyli zdolność do pokonywania terenu, zależy przede wszystkim od odporności gruntu na powyższe zjawiska. Znajomość właściwości wytrzymałościowych gruntu jest zatem kluczowa dla optymalnego projektowania pojazdów terenowych. W celu określenia właściwości wytrzymałościowych stosuje się badania wytrzymałości na ścinanie oraz badania wytrzymałości na osiadanie Badania wytrzymałości na ścinanie Zgodnie z powszechnie przyjętą hipotezą Coulomba o największych naprężeniach stycznych, maksymalne naprężenie styczne, jakie występuje w płaszczyźnie ścinania ośrodka ziarnistego, zależy od wartości spoistości, kąta tarcia wewnętrznego oraz naprężenia normalnego. Równanie Coulomba ma następującą postać (1): (1) 1 Politechnika Wrocławska, Instytut Konstrukcji i Eksploatacji Maszyn, Zakład Inżynierii Maszyn Roboczych i Pojazdów Przemysłowych, damian.stefanow@pwr.wroc.pl 281

283 gdzie: τ maksymalne naprężenia styczne, c spoistość, σ naprężenia normalne, υ kąt tarcia wewnętrznego. Jak widać z powyższego wzoru, grunt cechuje się dwoma parametrami wytrzymałościowymi kohezją i kątem tarcia wewnętrznego. Jednakże nie wszystkie grunty są cierne. Np. nasycone muły cechować się będą jedyne spoistością. Do badań tego typu gruntów spoistych nadają się proste przyrządy pomiarowe jak aparat łopatkowy, który określa wytrzymałość na ścinanie bez wprowadzenia naprężenia normalnego. W praktyce jednak, pojazdy rzadko poruszają się po gruncie czysto kohezyjnym. Dlatego do badań wytrzymałości gruntu na ścinanie stosowanych w terramechanice, konieczne jest stosowanie metod zapewniających zarówno obciążenie ścinające jak i normalne. Jedną z nich jest metoda bezpośredniego ścinania w aparacie skrzynkowym, znana od lat w budownictwie. Polega na ścinaniu obciążonej siłą normalną próbki gruntu w prostopadłościennej lub cylindrycznej skrzynce. W wyniku przyłożenia siły do dolnej części aparatu, grunt zostaje ścięty wzdłuż płaszczyzny podziału skrzynki. Próbę standardowo wykonuje się z prędkością rzędu kilku milimetrów na minutę w skrzynce o wymiarach 100x100 mm i wysokości kilkunastu milimetrów [16]. Schemat budowy i zasadę działania przedstawiono na rysunku 1a. Dzięki tej metodzie można wyznaczyć kąt tarcia wewnętrznego oraz kohezję gruntu. W związku z tym, że w aparacie skrzynkowym ścinanie przebiega nawet kilka tysięcy razy wolniej niż pod kołami pojazdu, dla potrzeb terramechaniki stosuje się przyspieszony proces ścinania [9]. Drugą bardzo popularną w budownictwie metodą, która znalazła zastosowanie w terramechanice [2,7], jest metoda trójosiowego ściskania, również umożliwiająca wyznaczenie kąta tarcia wewnętrznego oraz kohezji gruntu. Polega na wielokierunkowym ściskaniu cylindrycznej próbki umieszczonej w gumowej otoczce. Główne, osiowe ciśnienie Δσ 1 wywoływane jest przez siłownik, a ciśnienie boczne działające na całej powierzchni próbki, wywołane przez ciśnienie hydrauliczne o wartości σ 3 < Δσ 1. Na rysunku 1b przedstawiono schemat budowy i zasadę działania aparatu. Ze względu na brak wymuszonej płaszczyzny ścinania, metoda trójosiowego ściskania jest prawdopodobnie najbardziej reprezentatywną w określaniu wytrzymałości gruntu do zastosowań w budownictwie. W terramechanice natomiast, wymagane są badania przyrządami o kinematyce ścinania zbliżonej do tej występującej między podwoziem pojazdu, a gruntem. W przypadku gruntu ścinanego przez koła bądź gąsienice, płaszczyzna ścinania jest zawsze określona przez ich geometrię. Z tego powodu badania aparatem trójosiowym nie powinny być stosowane do określania zdolności gruntu do przenoszenia obciążeń od ruchu kołowego i gąsienicowego. Standardowa metoda trójosiowego ściskania jest najwolniejszą spośród ujętych w tym zestawieniu. Standardowa prędkość obciążania próbki to ok. 0,01 mm/s. Niyampa i in. [7] przeprowadzili adaptację tej metody do warunków rozważanych w terramechanice. Do badań zmodyfikowali aparat poprzez dodanie elektrycznego siłownika, który pozwalał na obciążanie próbek z maksymalną prędkością nawet 6,2 m/s. Rys. 1 a) budowa i zasada działania aparatu skrzynkowego b) budowa i zasada działania aparatu trójosiowego ściskania (na podstawie [14]) 282

284 Pierwszym przyrządem pomiarowym do oceny właściwości wytrzymałościowych gruntów, który powstał specjalnie na potrzeby określania mobilności pojazdów terenowych był penetrometr stożkowy. Jest to przyrząd standaryzowany przez ASAE i służy do określania wskaźnika cone index (CI), wyrażanego w kpa lub psi. Jest to wartość ciśnienia, jakie musi wywrzeć stożek na gruncie, aby cały zagłębił się pod jego powierzchnię. Przyrząd składa się ze stożka, umieszczonego na stalowym trzpieniu, połączonego z dynamometrem. Schemat budowy penetrometru stożkowego przedstawiono na rysunku 2a. Penetrometr stożkowy jest prawdopodobnie najczęściej stosowanym przyrządem do określania parametrów wytrzymałościowych gruntu, ze względu na niewymagający przygotowań prosty pomiar, trwający kilka sekund. Dużą zaletą jest także możliwość badania gruntu na głębokościach do ok. 60cm, czyli równych największym prześwitom podwozi pojazdów terenowych. Badanie penetrometrem ma jednak także wiele wad. Przede wszystkim, niewielki rozmiar stożka penetrującego powoduje znaczny rozrzut wyników [4,13]. Poza tym istnieją znaczne trudności w odniesieniu wskaźnika CI do standardowych parametrów wytrzymałościowych gruntu (kohezji oraz kąta tarcia wewnętrznego )[10]. Specyficzną odmianą penetrometru stożkowego jest penetrometr stożkowo-łopatkowy, wyposażony w dodatkowe łopatki przy stożku pomiarowym. Daje możliwość określenia wskaźnika CI, kohezji oraz kąta tarcia wewnętrznego. Pomiar polega na zagłębianiu głowicy pomiarowej w grunt i jednoczesnym jej obracaniu. Ze względu na bardziej skomplikowaną obsługę jest to jednak przyrząd, który nie przyjął się tak powszechnie, jak standardowy penetrometr stożkowy [11]. Największy przełom w dziedzinie badań gruntu na potrzeby terramechaniki nastąpił w latach 50. XX wieku, kiedy stworzono bevametr [1]. Jest to urządzenie składające się z dwóch zespołów ścinarki pierścieniowej i urządzenia do penetracji gruntu. Zespół ścinarki pierścieniowej składa się z pierścienia z łopatkami, siłownika realizującego obciążenie normalne pierścienia oraz silnika realizującego obrót pierścienia. Sam pierścień wciskany jest w grunt z zadaną siłą, po czym jest obracany. W wyniku serii pomiarów dla różnych obciążeń, otrzymywana jest zależność momentu ścinającego od obciążenia. Na podstawie pomiarów ustalić można kohezję i kąt tarcia wewnętrznego gruntu. Urządzenie do penetracji gruntu opisane jest w kolejnym podpunkcie. Na rysunku 2b przedstawiono schemat budowy i zasadę działania bevametru. Pomiary ścinarką pierścieniową należą do najlepiej oddających warunki występujące między gąsienicami a gruntem, choć metoda ta nie jest pozbawiona wad. Freitag poddał metodę dość surowej krytyce, ponieważ założenie o równomiernym rozkładzie naprężeń wzdłuż promienia pierścienia jest niepoprawne [3]. Wynika to po pierwsze z różnicy prędkości ścinania między wewnętrzną, a zewnętrzną częścią pierścienia. Po drugie, miękki grunt między łopatkami przemieszcza się na boki spod pierścienia, przez co nie można jednoznacznie określić powierzchni ścinania. Mimo tych zastrzeżeń podkreśla, że istnieje zbyt wiele przykładów dobrego odzwierciedlenia wyników pomiarów w praktyce, aby uznać tę metodę za nieskuteczną. Podsumowując można stwierdzić, że od aparatury pomiarowej wymagane jest przede wszystkim odwzorowywanie procesów kinematycznych zachodzących między podwoziem pojazdu, a gruntem oraz zachowanie porównywalnych prędkości ścinania. Zatem wśród przedstawionych aparatów pomiarowych, najodpowiedniejsze do określania zdolności gruntu do przenoszenia obciążeń od ruchu kołowego i gąsienicowego są ścinarka pierścieniowa oraz aparat skrzynkowy Badania wytrzymałości na penetrację Drugim parametrem gruntu określającym jego zdolność do przenoszenia obciążeń od ruchu kołowego i gąsienicowego jest wytrzymałość na penetrację. Określana jest za pomocą badań penetracyjnych. Badania polegają na zagłębianiu płytek o różnych kształtach i powierzchniach w gruncie, przy jednoczesnym zapisie sił koniecznych do penetracji oraz głębokości penetracji. Na rysunku 2b przedstawiono zasadę badań penetracyjnych jako elementu badań bevametrem. Na ich podstawie określa się zależność osiadania od ciśnienia penetracji. Jest to jedyna metoda stosowana w tym celu. Jej zasadniczą wadą jest podatność na tzw. efekt skali. Zjawisko to polega zmianie 283

285 zmierzonych parametrów w zależności od wielkości przyrządu pomiarowego. Aby efekt ten zminimalizować, należy używać płytek penetrujących o wymiarach maksymalnie zbliżonych do wymiarów modelowanego obiektu [1,5,8]. Rys. 2 a) penetrometr stożkowy; b) schemat budowy i zasada działania bevametru (na podstawie [11]) 3. Porównanie metod pomiarowych Jak wcześniej wspomniano, kinematyka ruchu i kształt przyrządu pomiarowego wpływa na wartość zmierzonych parametrów wytrzymałościowych gruntu. Najlepszym tego dowodem są porównania wyników pomiarów na tych samych gruntach wykonanych przy pomocy różnych przyrządów. Dotychczas dokonano kilku takich porównań [6,11,12,15]. Najobszerniejsze jest porównanie Stafforda i Tannera, w którym, przy pomocy 6 różnych metod pomiarowych, zbadano 6 różnych gruntów. Znaczne rozbieżności między wynikami pomiarów różnymi aparatami pokazują jak istotny jest dobór odpowiedniej aparatury pomiarowej. Na wykresach przedstawionych na rysunkach 3 i 4 zestawiono otrzymane wartości kohezji i kąta tarcia wewnętrznego. Z powyższych wykresów nie da się określić jednoznacznej tendencji do zawyżania czy zaniżania wyników w zależności od metody pomiarowej. Wyniki te należy traktować indywidualnie dla każdego rozpatrywanego rodzaju gruntu oraz dla celu w jakim się przeprowadza badania. Jednoznaczny jest natomiast wpływ metody badawczej na wyniki pomiarów. Rys.3 Wykres zależności kohezji od metody pomiarowej dla 6 różnych gruntów (opracowanie własne na podstawie [12]) 284

286 Rys.4 Wykres zależności kąta tarcia wewnętrznego od metody pomiarowej dla 6 różnych gruntów 4.Podsumowanie (opracowanie własne na podstawie [12]) Przedstawione w artykule metody są najczęściej spotykanymi w literaturze sposobami określenia zdolności gruntów do przenoszenia obciążeń od ruchu kołowego i gąsienicowego. Badania laboratoryjne wykonywane aparatem trójosiowego ściskania i aparatem skrzynkowym, dają gwarancję największej powtarzalności wyników, lecz nie odzwierciedlają tak dobrze warunków polowych jak metody badania in situ (bevametr czy penetrometr stożkowy). Bevametr, dzięki kompleksowemu badaniu właściwości gruntu, jest uznawany za najbardziej reprezentatywny, lecz kinematyka jego ruchu nie oddaje dokładnych warunków jakie występuję między pojazdem a gruntem. Pożądane jest zatem stworzenie przyrządu pomiarowego odzwierciedlającego zarówno warunki kinematyczne jak i geometryczne występujące podczas interakcji kół i gąsienic z gruntem. Do celów jakie stawia sobie autor niniejszej pracy należy stworzenie nowego aparatu do pomiaru właściwości wytrzymałościowych gruntu, który uwzględniać będzie wszystkie uwagi zawarte w artykule. Literatura [1]Bekker M.G., Introduction to terrain-vehicle systems. Ann Arbor: The University of Michigan Press, [2]Dickson W.J., A method of evaluating soil trafficability and soil-vehicle laws from triaxial compression test: CARDE Rep. TM , Volcatrier, Quebec, Canada, June, 1962 Journal of Terramechanics, Volume 1, Issue 1, 1964, Page 125 [3]Freitag D.R., Discussion on A simplified method for the estimation of soil thrust exerted by a tracked vehicle. J. Terramechanics [4]Heiming G.W., Statistical procedures for evaluation of terrain measuring data. Proceedings of the 9 th International ISTVS Conference, Barcelona, Spain, 1987, pp [5]Holm C., Hefer G.J., Hintze D., Influence of shape and size of a penetration body on the pressure-sinkage relationship. Proceedings of the 9 th International ISTVS Conference, Barcelona, Spain, 1987, pp [6]Kogure K., Yamaguchi H., Ohira Y., Comparison of strength and soil thrust characteristics among different soil shear tests. J. Terramechanics 25(3), 1988, pp [7]Niyampa T., Namikawa K., Salokhe V.M., Soil failure under undrained quasi-static and high speed triaxial compression test, J. Terramechanics 29(2), 1992, pp

287 [8]Qingnian W., Ying, L., Longming G., Bearing capacity and sinkage mechanicsm of loose sand. Proceedings of the 5 th European ISTVS Conference, Budapest, Hungary, 1991, pp [9]Schimming B.B., Hass I.J., Saxe H.C., A comparison of the dynamic and static shear 6trengths of cohesionless, cohesive and combined soils. Air Force Weapons Laboratory, Technical Report No. AFWL TR-65-48, [10]Shoop S.A., Comparison of thawing soil strength measurements for predicting vehicle performance. US Army Corps of Engineers, CRREL Report 92-17, [11]Shoop S.A., Terrain characterization for trafficability. US Army Corps of Engineers, CRREL Report 93-6, 1993 [12]Stafford J.V., Tanner D.W., Field measurement of soil shear strength and a new design of field shear meter. Proceedings of the 9 th Conference of the International Soil Tillage Research Organization, ISTRO, Osijek, Yugoslavia, [13]Sudduth K.A., Hummel J.W., Drummond S.T., Comparison of the veris profiler 3000 to an asae standard penetrometr. Applied Engineering in Agriculture 20(5), ASAE, 2004, pp [14]Terzaghi K., Peck R.B., Mesri G., Soil mechanics in engineering practice. John Wiley and Sons, [15]Zimbone S.M., Vickers A., Morgan R.P.C., Vella P., Field investigations of different techniques for measuring surface soil shear strength. Soil Technology 9, 1996, pp [16]Grunty budowlane Badania próbek gruntu, norma PN-88/B SOIL STRENGTH TESTS APPLIED IN TERRAMECHANICS The article presents the most common soil strength test methods applied in terramechanics. Soil strength testing is used for assessment of trafficability as well as for development of mobility models. Test methods are supposed to represent the phenomenons occurring during the interaction of the wheel or track and the soil. Bevameter is commonly accepted device for measurements of Bekker model values, based on internal friction angle and cohesion. However, it has been argued, that it does not substitute wheel s or track s kinematics. Therefore, there is a need of development of a new tool for more exact trafficability assessment. The article also presents a concise comparison of common test methods, as found in the literature. 286

288 Badanie charakterystyk dynamicznych czujników ultradźwiękowych Marek Stembalski 1, Wacław Skoczyński 1, Andrzej Roszkowski 1, Bartosz Marek 1 Streszczenie: Przedstawiono prototypowy system pomiarowy firmy Optel ver 2.0, umożliwiający dokonywanie pomiaru względnych przemieszczeń pomiędzy przedmiotem obrabianym a układem narzędziowym w tokarce. W wyniku badań układu pomiarowego wyznaczono charakterystyki dynamiczne czujników ultradźwiękowych. Słowa kluczowe: czujnik ultradźwiękowy, charakterystyka dynamiczna, 1. Wprowadzenie Inspiracją do przeprowadzenia badań czujników ultradźwiękowych były znane z literatury [2, 3, 4, 5] próby ich zastosowania w systemach wytwórczych. Potrzeba zbadania właściwości czujników ultradźwiękowych była związana z badaniami prowadzonymi w Instytucie Technologii i Automatyzacji Maszyn na Politechnice Wrocławskiej [1]. Na potrzeby tych badań opracowano metodę pomiaru charakterystyk dynamicznych układów konstrukcyjnych tokarek podczas realizacji procesu skrawania z użyciem techniki ultradźwiękowej. Badania te zakładały pomiar przemieszczeń pomiędzy przedmiotem obrabianym a układem narzędziowym w tokarce. Podczas pomiarów wykorzystano ultradźwiękowy system OPVIB ver 2.0 firmy Optel. Przed rozpoczęciem badań należało poznać właściwości statyczne i dynamiczne przetworników ultradźwiękowych, aby sprawdzić możliwość wykorzystania ich w badaniach obrabiarek. Zbadanie charakterystyk dynamicznych tych czujników stanowiło główny cel pracy. 2. Ultradźwiękowy układ pomiarowy OPVIB Badany prototypowy układ pomiarowy OPVIB [1] umożliwia bezdotykowy pomiar przemieszczeń w czterech niezależnych kanałach pomiarowych. Urządzenie składa się z modułu sterującego i czterech głowic pomiarowych. Zasada pomiaru oparta jest na wysyłaniu z ustaloną częstotliwością impulsów ultradźwiękowych i pomiarze czasu przelotu impulsu na odcinku głowica nadawcza - przedmiot badany -głowica odbiorcza. Znając prędkość dźwięku w ośrodku, na podstawie czasu przelotu można obliczyć odległość głowicy pomiarowej od urządzenia. Z zasady działania urządzenia wynika pewne ograniczenie metody pomiaru. Ponieważ prędkość rozchodzenia się dźwięku w powietrzu wynosi ok. 340 m/s (zależnie od ciśnienia, temperatury i wilgotności), to wraz ze wzrostem odległości rośnie czas przelotu wiązki ultradźwięków pomiędzy głowicą pomiarową a obiektem badanym. Łatwo obliczyć, że dla dystansu 6 mm pomiędzy głowicą a obiektem, droga fali wynosi 12 mm, a czas przelotu wynosi około 35 µs. Odpowiada to maksymalnej, teoretycznej częstotliwości próbkowania około 28.5 khz. Częstotliwość pomiaru wzrasta wraz ze zmniejszaniem się dystansu: głowica obiekt badany. W rzeczywistości częstotliwość pomiaru zmaleje w odniesieniu do rozważanej 28.5 khz, jeżeli uwzględnimy wpływ dodatkowych zjawisk towarzyszących powstawaniu ultradźwięków. Po pierwsze czas nadawania i czas odbioru wiązki nie jest pomijalnie mały. Dla częstotliwości pracy 1 Politechnika Wrocławska, Wydział Mechaniczny ul. Łukasiewicza 5, Wrocław budynek B4 marek.stembalski@pwr.wroc.pl, wacław.skoczynski@pwr.wroc.pl, andrzej.roszkowski@pwr.wroc.pl 287

289 głowicy rzędu 800 khz, czas potrzebny do nadania jednego okresu fali wynosi 1.25 µs. Bardzo trudno wykonać system, w którym czas nadawania to tylko jeden okres sygnału, chociażby ze względu na relaksację głowicy. Po wstępnych próbach przyjęto wariant konstrukcji dzielonej głowicy ultradźwiękowej. Głowica ta pracuje na częstotliwości ok. 800kHz. Można w niej wyróżnić dwie sekcje nadawczoodbiorcze osadzone na wspólnym podłożu. Podczas pomiaru jedna z nich pracuje jako nadajnik fali ultradźwiękowej, a druga jako odbiornik. Moduł pomiarowy wyposażono w cztery kanały pomiarowe, jedno wejście sygnału TTL, jedno wyjście analogowe dla sygnału kalibracyjnego i port szeregowy RS-232. Każdy kanał pomiarowy wyposażony jest w wyjście nadawcze oraz wejście odbiorcze obsługujące głowicę pomiarową i analogowe wyjście sygnałowe. Napięcie na analogowym wyjściu sygnałowym jest proporcjonalne do zmierzonego czasu przelotu, przy czym zakres napięć wyjściowych mieści się w granicach +/-10V. Pomiary mogą być wyzwalane przy pomocy zegara wewnętrznego lub poprzez wejście dedykowane dla zewnętrznego sygnału TTL. Analogowe wyjście kalibracyjne umożliwia obserwację na oscyloskopie czoła fal nadanej i odbitej dla wybranej głowicy pomiarowej. Wyjście kalibracyjne jest wspólne dla wszystkich kanałów. Przełączenie wyjścia na dany kanał kalibracyjny następuje po przesłaniu komendy sterującej. Zasada pomiaru odległości z użyciem głowicy ultradźwiękowej polega na pomiarze czasu przelotu wiązki ultradźwiękowej pomiędzy czołem fali nadanej i czołem fali odbitej. Układ wysyła krótką wiązkę ultradźwięków w kierunku obiektu pomiarowego. Następnie odliczany jest tzw. czas martwy, podczas którego sekcja nadawcza wybrzmiewa. Czas martwy według specyfikacji wynosi ok. 50 µs. Po upłynięciu czasu martwego wyzwalany jest pomiar sygnału w sekcji odbiorczej głowicy. Jeśli wartość sygnału odebranego przekroczy próg komparacji, wówczas pomiar czasu jest zatrzymywany i zwracany jako czas przelotu wiązki ultradźwiękowej, a procedura pomiaru czasu startuje od nowa. Tak więc właściwie dobrany próg komparacji ma kluczowe znaczenie dla poprawności realizacji pomiaru z użyciem głowicy ultradźwiękowej. 3. Charakterystyki dynamiczne czujników ultradźwiękowych Stanowisko pomiarowe (rys. 1,2) do wyznaczania charakterystyk dynamicznych przetworników ultradźwiękowych składało się z: - wzbudnika elektrodynamicznego 4812 firmy Bruel & Kjaer wraz ze wzmacniaczem mocy 2702, - czterokanałowego układu OPVIB 4 ver. 2.0, z głowicami ultradźwiękowymi firmy Optel, - akcelerometru 4384 firmy Bruel&Kjaer, - karty pomiarowej PXI 4461 firmy National Instruments, - komputera pomiarowego PXI 8176 firmy National Instruments, - wzmacniacza ładunku czujnika piezoelektrycznego 2635, - laptopa (jako generatora sygnałowego). Czujnik ultradźwiękowy zamocowany na ruchomym statywie (podłączony do systemu pomiarowego NI PXI 8176) znajdował się w środku zakresu pomiarowego. Do wzbudnika elektrodynamicznego przymocowano akcelerometr, który pełnił rolę czujnika referencyjnego. Wzbudnik zasilany był ze wzmacniacza mocy. Generator sygnałowy (laptop) generował sygnałem wzorcowym o nastawianej programowo częstotliwości. Oba czujniki rejestrowały drgania płyty przyłączeniowej wzbudnika w zakresie częstotliwości od 50 do 1000 Hz. Podczas badań zmieniano częstotliwość skokowo co 50 Hz. Dla wszystkich częstotliwości wymuszeń starano się utrzymywać amplitudę przemieszczeń drgań około 20 µm. 288

290 Rys.1.Schemat stanowiska badawczego do wyznaczania charakterystyk dynamicznych czujników ultradźwiękowych (1- głowica ultradźwiękowa firmy Optel, 2- akcelerometr piezoelektryczny firmy Bruel&Kjaer 4384 (czujnik referencyjny), 3- wzmacniacz mocy 2702, 4- wzmacniacz ładunku czujnika piezoelektrycznego 2635, 5- układ OPVIB, 6- komputer pomiarowy PXI 8176 firmy National Instruments, 7- laptop (jako generator sygnału), 8- wzbudnik elektrodynamiczny 4812 Rys. 2. Stanowisko badawcze do wyznaczania charakterystyk dynamicznych głowic ultradźwiękowych (1-głowica ultradźwiękowa, 2-akcelerometr (czujnik referencyjny), 3-statyw, 4-wzbudnik elektrodynamiczny) 289

291 Trudności wystąpiły z nastawieniem małej amplitudy drgań dla najniższej z zastosowanych częstotliwości 50Hz, gdyż w tym przypadku amplitudy te są na ogół duże, nawet przy bardzo małych wzmocnieniach sygnału zasilającego. Napotkano również problemy związane z wymuszeniami założonych amplitud przemieszczenia drgań dla częstotliwości powyżej 1 khz. Miały one jednak inny charakter. Uzyskanie takich amplitud przemieszczeń przy tego rzędu częstotliwościach wymagało zastosowania bardzo dużych wzmocnień sygnału zasilającego, do których wzmacniacz mocy nie był dostosowany. Rys. 3. Wykresy drgań i rozrzut amplitud dla głowic ultradźwiękowych i przetwornika referencyjnego dla częstotliwości wymuszeń 600Hz Dla każdego z kanałów pomiarowych zadawane były parametry pomiaru, takie jak: częstotliwość próbkowania sygnału, długość sygnału. Rodzaj, długość i amplituda sygnału wymuszającego były zadawane na panelu monitora systemu pomiarowego. Wyniki w postaci przebiegu czasowego, widma sygnału z badanej głowicy ultradźwiękowej i przetwornika referencyjnego były śledzone on-line na ekranie monitora. Na panelu użytkownika zadawano również nazwę zbioru wynikowego i parametry uśredniania. Jako miarę przemieszczenia przyjęto wartość międzyszczytową uśrednioną po okresach wymuszenia. Wartość odniesienia amplitudy przemieszczenia drgań wyznaczono drogą dwukrotnego całkowania i uśrednienia wartości międzyszczytowej przebiegu zmierzonego akcelerometrem (rys. 3). 290

292 Rys. 4. Porównanie uśrednionych wartości amplitud przemieszczenia drgań dla głowicy ultradźwiękowej (Optel) i przetwornika referencyjnego Rys. 5. Widma drgań dla przetwornika referencyjnego i głowicy ultradźwiękowej przy częstotliwości wymuszeń 800 Hz Jak wynika z zamieszczonych przykładowych charakterystyk (rys.3), rozrzut zmierzonych amplitud ustalonych drgań wymuszonych realizowanych przez wzbudnik był dla akcelerometru bardzo mały i nie przekraczał 1%. Nie można tego powiedzieć o pomiarach głowicą ultradźwiękową, dla której wyznaczone amplitudy drgań miały rozrzut sięgający nawet 20%. Jednak jeśli weźmiemy pod uwagę uśrednione amplitudy przemieszczeń drgań, to dla obu przetworników różnice były niewielkie (rys.4). Dla obu przetworników równolegle wyznaczono widma drgań. Przykładowe wyniki pokazano na rys

293 W przypadku akcelerometru mamy do czynienia z wyraźnie dominującym prążkiem podstawowym, który odpowiada częstotliwości sygnału wymuszającego. Brak jest Prążków harmonicznych. Dla głowic ultradźwiękowych również występuje dominujący prążek. Jednak we wszystkich otrzymanych widmach uwidaczniają się dodatkowe prążki pochodzące od częstotliwości 50 Hz i jej harmonicznych. Pochodzą one z zakłóceń z sieci zasilającej. 4. Podsumowanie W wyniku przeprowadzonych badań wyznaczone zostały charakterystyki dynamiczne przetworników ultradźwiękowych. W przypadku uśrednionych wartości amplitud przemieszczeń drgań czujniki ultradźwiękowe były porównywalne do czujnika referencyjnego- akcelerometru. Na wykresach widma aplitudowo częstotliwościowego (dla obydwu czujników) wyraźnie widać dominujące prążki odpowiadające częstotliwości wymuszeń. W przypadku przetwornika ultradźwiękowego występują dodatkowe zakłócenia, które uwidaczniają się w postaci prążków harmonicznych rozmieszczonych co 50. Ma to istotne znaczenie z punktu widzenia zastosowania tych czujników w badaniach obrabiarek a także w systemach nadzoru i diagnostyki w systemach wytwórczych. W dalszych pracach należałoby dążyć do zidentyfikowania przyczyn i eliminacji zakłóceń sieciowych. Ponadto należałoby dążyć do zmniejszenia rozrzutu amplitud przetworników ultradźwiękowych. Może być to związane z ustawieniami oprogramowania sprzętowego. Wydaje się, że po usunięciu problemów sprzętowych głowice ultradźwiękowe mogą być przydatne do rejestracji drgań względnych przemieszczeń pomiędzy przedmiotem obrabianym a układem narzędziowym w tokarce. Literatura [1] Skoczyński W., Marek B. Analiza drgań obrabiarek wymuszanych procesem skrawania Raporty Instytutu Technologii Maszyn i Automatyzacji Serii: SPRAWOZDANIA Nr 25/08 s. 9-12, [2] Krzyżanowski J. Wprowadzenie do elastycznych systemów wytwórczych, Oficyna Wydawnicza Politechniki Wrocławskiej, Wrocław 2005, [3] Byrne G., Dornfeld D., Inasaki I. Tool condition monitoring (TCM) - The status of research and industrial application, Annals of the CIRP, 1995, Vol.44/2, [4] Tonshoof H.K, Inasaki I. Sensors in manufacturing, WILLEY-VCH, 2001, [5] Dornfeld D., Lee D. Precision manufacturing, Springer Science ++ Business Media, LLT, USA 2008, [6] Honczarenko J. Elastyczna automatyzacja wytwarzania, Wydawnictwo Naukowo-Techniczne, Warszawa 2000, 292

294 Pomiar i numeryczna analiza kinetyki topografii rogówki Marta A. Szmigiel 1, Malwina Lewandowska-Soboń 1, Henryk Kasprzak 1 Streszczenie: Przy pomocy videokeratometru Medmont E300 wykonano serie pomiarów topografii rogówki oka ludzkiego w czasie. Na podstawie przeprowadzonej analizy kinetyki topografii rogówki dokonano oceny jej wysokości. Stworzono algorytm do analizy zmiany wysokości rogówkowych w czasie. Słowa kluczowe: topografia rogówki oka, wysokość rogówkowa 1. Wprowadzenie Moc optyczna oka w około 70 procentach determinowana jest przez moc rogówki. Informacje na temat jej ukształtowania okazują się niezmiernie istotne przy określaniu wady refrakcji oka ludzkiego czy chirurgii refrakcyjnej. Rogówka normalnego oka ludzkiego jest asferyczna i spłaszcza się ku peryferiom. Badanie stabilność topografii rogówki w okresie między mrugnięciami badał T. Buehren [1] i inni. D. Siedlecki, H. Kasprzak oraz B.K. Pierścionek [2] badali zmiany dynamiczne topografii rogówki za pomocą analizy sekwencji interferogramów topografii rogówki. D.R. Iskander oraz M.J. Collins [3] badali numerycznie wysokość rogówki uzyskaną z analizy sekwencji obrazów wideokeratometrycznych powierzchni rogówki. Celem niniejszej pracy jest weryfikacja hipotezy o możliwości zaobserwowania zmiany krzywizny rogówki w czasie, poprzez badanie wysokości rogówkowych. 2. Pomiar topografii rogówki w czasie Korzystając z wideokeratometru Medmont E300 oraz komputera PC, wykonano serię pomiarów topografii rogówki w czasie do 9 sekund z częstotliwością 20Hz. Pomiar przeprowadzono wielokrotnie, dla różnych oczu różnych pacjentów. Był on dokonywany w powtarzalnych warunkach, pacjenta poproszono o wstrzymanie się od mrugania przez dłuższy czas. Wynik pojedynczego pomiaru wysokości rogówkowej, z powierzchni rogówki o rozmiarze (12x12)mm 2, został zapisany w postaci macierzy złożonej z 2500 komórek. Rys. 1a. przedstawia przykładowy zapis mapy topograficznej rogówki (góra), wraz z profilem rogówki wzdłuż jednej z osi (dół). Analizie każdorazowo została poddana różnica wysokości danego punktu na rogówce w stosunku do wysokości środka rogówki, czyli wartości strzałki h r. Rys. 1b przedstawia schemat mierzonych odległości na powierzchni rogówki. Analizie poddano punkty rogówki leżące w jednakowej odległości r od środka rogówki w osi poziomej (r H ) i pionowej (r V ). Odległość punktów r zmieniała się co 0,48mm, od r=0,72mm do r=3,60mm. Na podstawie wysokości rogówki h r i h r wyznaczono wartość strzałki ugięcia, z zależności: 1 ( h r ' hr ") 2 h r (1) 1 Zespół Optyki Widzenia, Instytut Fizyki, Politechnika Wrocławska, Wybrzeże Wyspiańskiego 27, Wrocław; marta.szmigiel@pwr.wroc.pl 293

295 Wysokość rogówki [mm] Wysokość rogówki [mm] Wzgl. wysokość rogówki [mm] a) b) z h r h r h r y r V r V Rys. 1a. Przykładowy zapis mapy topograficznej rogówki (góra), wraz z profilem rogówki wzdłuż jednej z osi (dół). Rys. 1b. Schemat wyników pomiaru wysokości rogówki wraz z zaznaczonymi mierzonymi odległościami w osi pionowej (h r, h r wartości względnej wysokości rogówki, h r strzałka ugięcia, 2r V cięciwa). Wyznaczono średnią wartość względnej zmiany wysokości rogówki dla dwóch punktów w poziomie (r H ), dla dwóch punktów w pionie (r V ) oraz łącznie dla czterech punktów (r A ). Rys. 2a. przedstawia przykładowe wykresy średnich zmian względnych wysokości rogówki w punktach odległych o zadaną odległość od środka rogówki. a) b) Czas [s] Czas [s] Wzgl. wysokość rogówki [mm]] Rys. 2a. Wykresy średnich zmian wysokości rogówki w punktach odległych od środka rogówki w osi pionowej o 0,24mm (góra) i 1,68mm (dół) w funkcji czasu Rys. 2b. Wykres współzależności średnich wysokości rogówki w punktach odległych od środka rogówki w osi pionowej o 0,24mm i 1,68mm. Sprawdzono, czy istnieje korelacja [4] pomiędzy zachowaniem punktów leżących w jednej linii, a odległych od środka rogówki o różną odległość. Wyznaczono współczynnik korelacja Pearsona (R) dla przebiegu zmian wartości wysokości rogówkowych każdej pary (r i,r j ). Rys. 2b. przedstawia przykładowy rozkład punktów pomiarowych. Jeżeli zmiany wartości h r dla różnych r V (r Vi r Vj ) są skorelowane ze sobą, to może to świadczyć o zmianie promienia krzywizny w czasie. Tabela 1 przedstawia wartości współczynników korelacji dla punktów różnoodległych od środka rogówki zaobserwowanych w pomiarze

296 Tab.1. Współczynniki korelacji dla względnych średnich wysokości rogówki dla punktów odległych o r Vi oraz r Vj od środka w pionie dla pomiaru 2 r Vj [mm] 1,20 1,68 2,16 2,64 3,12 3,60 r Vi [mm] 0,72 0,82 0,81 0,77 0,64 0,59 0,38 1,20 0,91 0,82 0,69 0,59 0,37 1,68 0,95 0,85 0,76 0,53 2,16 0,93 0,86 0,65 3. Wyniki analizy zmian topografii rogówki w czasie 3.1. Zmiany wysokości rogówki w czasie Wartość wysokości rogówki h r w czasie podlegają wahaniom. Nie można zauważyć okresowości wahań. Dla niektórych przebiegów zmian h r w czasie można zauważyć spadek lokalnych wartości maksymalnych i minimalnych. To może świadczyć o zmianie krzywizny rogówki. Można zauważyć różnicę w wartościach dla punktów w położeniach prostopadłych: wartości dla punktów w osi pionowej r H są mniejsze niż w osi poziomej r V. Zauważono, że przebieg zmian wysokości rogówki r A dla niemal każdej odległości od środka rogówki jest silniej skorelowany z przebiegiem r H niż z przebiegiem r V. Oznacza to, że znacznie większy wpływ na uśredniony wynik z czterech punktów miały punkty na osi poziomej. Porównując wykresy dla punktów różnoodległych nie można zauważyć porównywalnego zachowania (wzrost lub spadek wartości) we wszystkich kolejnych odstępach czasu. Tendencję taką można zauważyć tylko dla punktów nieznacznie odległych od siebie Korelacja Współczynniki korelacji dla przebiegu zmian wartości wysokości rogówkowych punktów różnoodległych od środka rogówki były niższe niż się spodziewano. Oczekiwano, że nawet punkty odległe od siebie o 2,4-2,8mm będą ze sobą silnie skorelowane. Tymczasem w większości przypadków wartości te przedstawiają brak korelacji (liczby z przedziału 0 0,2) lub słabą korelację (0,2 0,45). Ciekawe jest, że dla punktów z osi pionowych ten współczynnik jest nieznacznie większy i osiąga poziom korelacji średniej (ok. 0,5). Jedynie dla punktów bardzo nieznacznie odległych od siebie (0,48-0,96mm) korelację można uznać za dużą (0,8 1,0). 4. Podsumowanie Wysoki współczynnik korelacji pomiędzy zmianami wysokości rogówki w punktach równoodległych od środka rogówki w czasie świadczyłby o zmianie krzywizny rogówki w czasie. Uzyskane wyniki pokazują, ze istniej współzależność, jednak nie tak silna, jak można by się spodziewać. Wiadomo, że pomiary dokonane przy pomocy videokearatometru Medmont E300 są obarczone błędem, wynikającym z uśredniania danych przez oprogramowanie tego urządzenia. Gdyby nie stosować przybliżeń, jakie podaje wideokeratometr Medmont E300, można podejrzewać, że uzyskane dane obarczone byłyby mniejszym błędem. 295

297 Otrzymane wyniki wskazują na to, że rogówka zmienia swoją krzywiznę. Zaobserwowano zmiany wysokości rogówkowych w czasie do 9 sekund, co daje podstawy do wnioskowania o zmianie krzywizny rogówki. Może to być punktem wyjścia do dalszych badań. Literatura [1] T. Buehren, M.J. Collins, D.R. Iskander, B. Davis, B. Lingelbach, The stability of Corneal Topography in the Post-Blink Interval, Cornea, vol.20, no.8, 2001, s [2] D. Siedlecki, H. Kasprzak, B.K. Pierścionek, Dynamic changes in corneal topography and its influence on the point-spread function of the eye, Applied Optics, Vol. 46, No. 8, 2007, s [3] D.R. Iskander, M.J. Collins, Applications of high-speed videokeratoscopy, Clinical and Experimental Optometry, 88.4, 2005, s [4] J. Jóźwiak, J. Podgórski, Statystyka od podstaw, Polskie Wydawnictwo Ekonomiczne, Warszawa MEASUREMENT AND NUMERICAL ANALYSIS OF KINETICS OF CORNEAL TOPOGRAPHY Corneal topography examination was carried out using videokeratometr Medmont E300. Series of pictures up to 10s, with a frequency of 20fps for the different eyes of several patients were recorded. Analysis of the kinetics of the cornea at points equally distant from the center were made. Mean values of relative changes of the corneal heights were calculated. The correlation between heights of points on the corneal surface located at different distances from the center of the cornea was analyzed. The existence of characteristic variability of the corneal curvature over time cannot be conclude. There is no repeatability (which could bring a periodic function). The value of correlation coefficients for changes of the corneal heights in the points located at different distance from the center of the cornea were lower than expected. 296

298 Struktura kinematyczna mechanizmu roboczego silnika zewnętrznego spalania analiza wstępna Jarosław Szrek 1 Streszczenie: W artykule przedstawiono wstępną analizę kinematyczną wybranych mechanizmów roboczych stosowanych w silnikach zewnętrznego spalania. Na tej podstawie dokonano wstępnego wyboru struktury mechanizmu, która będzie wykorzystana przy budowie fizycznego modelu silnika. Słowa kluczowe: Struktura kinematyczne, kinematyka, odnawialne źródła energii 1. Wprowadzenie Nowe sposoby pozyskiwania energii od wielu lat są przedmiotem badań wielu ośrodków naukowych oraz przemysłowych. Badania są ukierunkowane na pozyskiwanie głównie energii tańszej oraz stanowiącej alternatywę dla paliw kopalnianych (węgiel, ropa, gaz). Pośród kilku alternatywnych źródeł energii do najbardziej rozpowszechnionych można zaliczyć energię pozyskiwaną z wiatru, wody, promieniowania słonecznego, ze źródeł geotermalnych oraz ze spalania biopaliw. Pozyskiwanie energii ze źródeł odnawialnych niesie za sobą wiele problemów. Jednym z nich jest zapewnienie ciągłości dostaw. Elektrownie wiatrowe w przypadku, gdy nie ma wiatru pracują ze znacznie mniejszą efektywnością lub w ogóle nie dostarczają energii. Podobna sytuacja ma miejsce w przypadku użycia paneli słonecznych, które przy zachmurzonym niebie lub nocą są mało wydajne. Innym problemem związanym z energią jest jej postać i przetworzenie na inną pożądaną formę energii [5] (np. energią cieplna przetwarzana na elektryczną, mechaniczną itp.). W pracy został poruszony temat jednego z elementów biorących udział w przetwarzaniu energii cieplnej na energię elektryczną. Celem prac jest zaprojektowanie samowystarczalnego układu zasilania kotła grzewczego na biomasę. Obecnie, aby kocioł mógł sprawnie działać potrzeba dostarczyć do niego zewnętrzne zasilanie energią elektryczną, co podnosi koszty eksploatacji, a co najważniejsze układ nie jest samowystarczalny - w przypadku braku energii elektrycznej system grzewczy nie działa. Urządzenie zamontowane do standardowego kotła, w założeniach ma zasilić niezbędne układy sterowania i regulacji oraz elementy wykonawcze instalacji grzewczej. W pracy skoncentrowano się nad strukturą układu roboczego silnika, ze szczególnym ukierunkowaniem na analizę kinematyczną. 2. Silnik zewnętrznego spalania Głównym elementem układu przetwarzania energii cieplej w elektryczną jest silnik zewnętrznego spalania, którego koncepcja została opatentowana w 1816 r. przez Roberta Stirlinga Idea działania Działanie silnika Stirlinga (od nazwiska twórcy) oparta jest o regenerację ciepła w czasie zamkniętego obiegu, przy stałej masie gazu roboczego. W czasie trwania obiegu Stirlinga czynnik 1 Politechnika Wrocławska, Instytut Konstrukcji i Eksploatacji Maszyn ul. Łukasiewicza 7/9, Wrocław, jaroslaw.szrek@pwr.wroc.pl 297

299 termodynamiczny podlega czterem kolejnym przemianom, w których następuje wymiana ciepła gazu z otoczeniem [3, 4]. Dla zapewnienia większej sprawności zamiast powietrze stosuje się gazy posiadające lepszą przewodność i ciepło właściwe np. wodór lub hel. Najchętniej wykonywane są silniki pojedynczego działania z obiegiem zamkniętym. Dla realizacji cyklu silnika wymaga to użycia 2 tłoków, które pracują z pewnym przesunięciem fazowym α, przemieszczając gaz pomiędzy zimną a gorącą przestrzenią. Gorąca przestrzeń jest umieszczona w miejscu ze źródłem ciepła (tzw. tłok gorący) i w nim następuje wzrost temperatury gazu. Tłok zimny ma na celu wychłodzenie czynnika, który jest przemieszczany z przestrzeni gorącej. Zazwyczaj pomiędzy dwoma tłokami umieszcza się regenerator, który w zależności od kierunku przepływy gazu ma za zadanie wstępny odzysk ciepła (gdy kierunek przepływu jest w kierunki tłoka gorącego) lub wstępne wychłodzenie, gdy kierunek przepływu jest odwrotny. Można wyróżnić trzy zasadnicze typy budowy silników - alfa, beta oraz gamma. Dla różnych typów, w których tłoki poruszają się z inną charakterystyką wymagane jest zastosowanie odpowiednich układów kinematycznych, dla realizacji syklu pracy silnika Struktura kinematyczne mechanizmów roboczych W silniku zazwyczaj współpracują wzajemnie dwa tłoki, które cyklicznie sprężając i przemieszczając gaz pomiędzy dwoma komorami, realizując cykl. Mechanizmy robocze silnika mają na celu zapewnienie odpowiedniej charakterystyki ruchowej tłoków, aby zrealizować cykl przemian obiegu Stirlinga. Do analizy wybrano kilka układów kinematycznych (inne t.j. mechanizm ze skośną tarczą, kombinowany nie zostały wybrane do analizy). - mechanizm romboidalny - układ kinematyczny odpowiedzialny za ruch tłoków jest związany specjalnie zaprojektowaną przekładnią, współpracującą z mechanizmem romboidalnym, dzięki której dwa tłoki poruszają się w jednym cylindrze. Ruch cylindrów odbywa się wzdłuż jednej osi, a charakterystyka ruchu jest tak dobrana, by zrealizować cykl pracy silnika. Silnik pracujący w takiej konfiguracji przyjął nazwę silnika typu beta. Rys. 1. Mechanizm romboidalny - model kinematyczny (a) oraz charakterystyka przemieszczenia (b) - mechanizm typu alfa prosta budowa, zapewnienie niezbędnego przesunięcia fazowego pomiędzy tłokami odbywa się przez usytuowanie cylindrów (tłoków) pod odpowiednim kątem z zakresu stopni. Realizuje się to konstrukcyjnie przez wykonanie korpusu z odpowiednim kątem rozwarcia. W takim przypadku korbowody z wałem połączone są w tym samym punkcie [4] (rys. 2). 298

300 Rys. 2. Mechanizm typu alfa - model kinematyczny (a) oraz charakterystyka przemieszczenia (b) - mechanizm dźwigniowo-korbowy Ross a został opatentowany w 1985 r. w USA przez A Ross a. Jego szczególną cechą jest trójkątny element łączący wykorbienie z korbowodami. Model kinematyczny oraz przykładowa charakterystyka przedstawiona jest na rys. 3. Rys. 3. Mechanizm Ross a - model kinematyczny (a) oraz charakterystyka przemieszczenia (b) Wykonane modele oraz ich wstępna analiza kinematyczna jest pierwszym etapem projektu silnika zewnętrznego spalania. Analiza miała na celu wyselekcjonowane struktury, która będzie wykorzystana do budowy modelu fizycznego. Biorąc również pod uwagę złożoność budowy, łatwość oddzielenia strony zimnej od gorącej silnika oraz możliwość chłodzenia tłoka do dalszych prac została wybrana struktura typu alfa. Mechanizm romboidalny został odrzucony na konieczność wykonania przekładni zębatej oraz relatywnie skomplikowanej struktury kinematycznej (w porównaniu do struktury alfa). Podobnie postąpiono w przypadku struktury mechanizmu Ross a. Dodatkowo wzajemne usytuowanie tłoków (równolegle) powodują trudności w montażu tego rozwiązania do kotła. 299

301 3. Podsumowanie W pracy przedstawiono pierwszy etap projektowy fizycznego modelu silnika zewnętrznego spalania. Na podstawie wykonanych modeli dokonano wstępnego porównania rodzajów struktury kinematycznej oraz przeanalizowano możliwości montażu do kotłów. W następnej kolejności prace projektowe będą polegać na doborze parametrów geometrycznych silnika (wysokość cylindra, skok tłoka itp.), dla zapewnienia odpowiedniej mocy użytecznej [1, 2]. Do dalszych prac projektowych wybrano strukturę typu alfa. W wybranym silniku ruch posuwisto-zwrotny tłoków odbywa się wzdłuż osi wzajemnie prostopadłych. Dzięki temu, jeden z tłoków będzie można umieścić we wnętrzu kotła (tzw. tłok gorący), a drugi (tłok zimny) będzie znajdował się na zewnątrz. Takie ustawienie w łatwy sposób pozwoli przyłączyć dodatkowe chłodzenie za pomocą wody w zewnętrznym obiegu (zwiększenie sprawności). Literatura [1] R. D. Banduric N. C, J. Chen, Nonlinear Analysis Of Stirling Engine Thermodynamics, Oak Ridge National Laboratory Of Martin Marietta Energy Systems, Inc. June [2] Noel P. Nightingale, Automotive Stirling Engine, Mod II Design Report, Mechanical Technology Incorporated Latham, New York, October [3] P. Rochelle, P. Stouffs, Simplified Theory of Ringbom Stirling Machines, Int.J. Applied Thermodynamics, Vol.2, (No.2), pp , June-1999 [4] S. Żmudzki, Silniki Stirlinga WNT [5] Praca jest efektem realizacji stażu w projekcie Zielony Transfer współfinansowanego ze środków Unii Europejskiej w ramach Europejskiego Funduszu Społecznego THE OPERATING MECHANISM KINEMATIC STRUCTURE OF THE EXTERNAL COMBUSTION ENGINE PRELIMINARY ANALYSIS The paper presents a first step of design process of the external combustion engine. This type of engine (heat engine) was invented in 1816 by Robert Stirling - Scottish inventor. Engine operation is based on cyclic compression and expansion of air or other gas (hydrogen, helium) at different temperature levels. Engine allow conversion of heat energy to other form of energy - the mechanical. The aim of this work is design a heat engine to deliver the electric power for heat system electrical components (pumps, coolers, control system). Using an heat engine coupled to a power generator is a one of possible way of independence from the external electric power source. 300

302 Badania wpływu składowej magnetycznej 50 Hz na organizm człowieka Dariusz Sztafrowski 1 Streszczenie: W artykule omówiono wybrane badania wpływu pola magnetycznego 50 Hz na organizm człowieka prowadzone przez autora we współpracy z Uniwersytetem Wrocławskim. W prowadzonych badaniach uwzględniono tylko wpływ składowej magnetycznej 50 Hz ponieważ składowa elektryczna została zakwalifikowana przez Międzynarodową Agencję Badań nad Rakiem (IARC) do grupy 3, w której występują czynniki, których karcinogenne działanie jest niemożliwe do udowodnienia. Natomiast składowa magnetyczna 50 Hz została zakwalifikowana do grupy 2B, do której zalicza się czynniki, które mają przypuszczalny wpływ na tworzenie się chorób nowotworowych. Słowa kluczowe: składowa magnetyczna 50 Hz, markery nowotworowe, monitorowanie parametrów życiowych człowieka 1. Wprowadzenie Wszystkie urządzenia elektryczne oraz obiekty elektroenergetyczne są źródłem pól elektromagnetycznych 50 Hz. Pole magnetyczne występujące wokół tych urządzeń jest konsekwencją płynącego prądu (składowa magnetyczna), a natężenie pola elektrycznego (składowa elektryczna) jest zależna od różnicy potencjałów występującym w obwodzie elektrycznym. Dlatego szczególnie istotne dla środowiska i organizmu człowieka są sytuacje, w których napięcia oraz natężenia prądów osiągają wysokie wartości. Takie wartości wspomnianych czynników fizycznych są charakterystyczne dla linii przesyłowych najwyższych napięć. Różnice potencjałów dochodzą w tym przypadku (obiekty na terenie Polski) do 400 KV, a natężenia płynącego prądu mogą osiągać wartości dochodzące do kilku tysięcy amperów. Innym przykładem występowania dużych wartości prądów mogą być niektóre procesy technologiczne takie jak: topienie indukcyjne metali zgrzewanie, elektroliza czy spawanie metali. Liczne doświadczenia prowadzone na świecie ujawniają, że oddziaływanie składowej magnetycznej 50 Hz nie pozostaje obojętne dla organizmu człowieka. Wolnozmienne pola magnetyczne o wartościach natężeń, które generują urządzenia powszechnego użytku oraz instalacje przemysłowe (stanowiska pracy) mogą powodować mierzalne reakcje organizmów ludzi pozostających w ich zasięgu. Badania wpływu wolnozmiennego pola magnetycznego EMF-ELF (Electric and Magnetic Fields at Extremely Low Frequency) na organizm człowieka możemy prowadzić na różnych szczeblach organizacji biologicznej. Wpływ tego czynnika fizycznego możemy obserwować eksponując całe organizmy żywe, a badania tego typu zaliczamy do grupy badań medycznych, które możemy podzielić na dwie zasadnicze grupy: badania epidemiologiczne oraz badania lekarskie. Inną grupą badań są badania in vivo. Termin ten stosowany jest zazwyczaj przy opisywaniu badań biologicznych, odnosi się on do czegoś, co ma miejsce wewnątrz żywego organizmu - w ustroju żywym. Badania prowadzone na żywych, wyizolowanych z organizmu komórkach lub substancjach, zaliczamy do doświadczeń typu in vitro. Na każdym szczeblu organizacji biologicznej prowadzone badania mają nieco inny charakter. Stosowane metody różnią się od siebie, oraz inny jest też sposób wnioskowania na podstawie otrzymanych wyników. Omawiane powyżej przypadki badań wraz z ich charakterystycznymi cechami ilustruje rysunek 1. 1 Politechnika Wrocławska, W-5/I-8/ZEP, dariusz.sztafrowski@pwr.wroc.pl 301

303 Rys. 1. Schemat ilustrujący możliwości badania efektów biologicznych i ryzyka zdrowotnego pól elektromagnetycznych na różnych szczeblach organizacji biologicznej Obecnie prowadzone przez autora badania naukowe (wraz z zespołem biologów oraz lekarzy) koncentrują się głównie w sferze badań lekarskich polegających na wykonaniu badań laboratoryjnych tzw. antygenów nowotworowych we krwi (planowane są badania ok. 10 różnych antygenów) u osób zamieszkujących w sąsiedztwie obiektów elektroenergetycznych oraz pracowników energetyki narażonych bezpośrednio na działanie pola magnetycznego 50 Hz i porównaniu uzyskanych wyników z wynikami odpowiednio dobranej grupy kontrolnej, dzięki czemu można uzyskać statystyczną pewność, że wykonane badania antygenów nowotworowych na grupie eksperymentalnej rzeczywiście przyniosły oczekiwany skutek. Markery nowotworowe są to specyficzne substancje obecne we krwi, moczu bądź w wycinkach tkanek pacjenta. Badanie ich rodzaju oraz stężenia ułatwia postawienie diagnozy, ocenę ryzyka i długookresowe monitorowanie stanu zdrowia chorego. Marker nowotworowy powinien pozwolić na wczesne zdiagnozowanie osób chorych na nowotwór. Ponieważ większość tego rodzaju substancji produkowana jest w niewielkich ilościach przez zdrowy organizm, trudność sprawia przyjęcie granicy odcinającej (cut-off value), determinującej stan zdrowia/choroby, zwłaszcza w przypadku dużej zmienności laboratoryjnej i metodycznej. Jak dotychczas nie znaleziono markera nowotworowego spełniającego wszystkie warunki krytyczne dla tego rodzaju substancji. Tylko wyczulona uwaga lekarza na kliniczne objawy, takie jak krwawienia, ból, test opadania krwinek, skoki temperatury czy odchylenia w biochemicznych badaniach laboratoryjnych może naprowadzić na istnienie choroby nowotworowej. Nie stosuje się badania poziomu markerów nowotworowych dla przesiewowego przebadania populacji w kierunku wystąpienia nowotworu. Natomiast może być celowe przeprowadzenie pomiaru poziomu markera nowotworowego populacji obarczonej ryzykiem wystąpienia danej choroby nowotworowej. Przykładem może być przebadanie mężczyzn po czterdziestym roku życia w kierunku raka prostaty przez oznaczenie poziomu PSA. Jednocześnie należy pamiętać, że prawidłowy" poziom markera nowotworowego 302

304 nie wyklucza istnienia choroby nowotworowej. Możemy także stwierdzić, że bardzo ważnym i podstawowym badaniem jest morfologia krwi obwodowej z rozmazem ocenionym pod mikroskopem. Znacznie podwyższona leukocytoza oraz odmłodzone formy krwinek białych w rozmazie mogą być pierwszym sygnałem toczącego się procesu nowotworowego. Dlatego też morfologię krwi obwodowej możemy nazwać pierwszym i jednym z najczulszych markerów nowotworowych. 2. Materiały i metody Po dokonaniu analizy literaturowej oraz uwzględnieniu omawianych powyżej zależności, zdecydowano się na przeprowadzenie następujących badań: erytrocyty (RBC), hemoglobina (HGB), hematokryt (HCT), leukocyty (WBC), płytki krwi (PLT), rozmaz krwi (neutrofile, eozynofile, bazofile, limfocyty, monocyty), antygenu CA 19-9, antygenu CYFRA 21-1, antygenu CEA, antygenu PSA, antygenu NSE. W prowadzonych badaniach należy ustalić czy pojawianie się badanego parametru jest spowodowane rzeczywistym związkiem przyczynowo-skutkowym z oddziaływaniem przemiennego pola magnetycznego o częstotliwości sieciowej, czy jest tylko przypadkowym współwystępowaniem. (np. czy przyczyną pojawienia się antygenu mogło być palenie tytoniu lub inny czynnik zewnętrzny). Dlatego podstawowym problemem tego typu badań jest wyeliminowanie wpływu innych czynników na badane osoby poza przemiennym polem magnetycznym. Z wyżej wymienionych powodów została napisana ankieta mająca na celu wyeliminowanie możliwie wszystkich innych czynników poza badanym czynnikiem fizycznym, co ma kluczowy wpływ na otrzymany wynik końcowy w badaniach antygenów nowotworowych. Pytania zawarte w ankiecie mają na celu eliminację czynników zewnętrznych mogących mieć wpływ na uzyskane wyniki oraz ustalenie ogólnego stanu zdrowia badanej osoby. Jak już wcześniej wspomniano przebadane zostaną dwie grupy osób narażonych na podwyższoną ekspozycję na przemienne pola magnetyczne o częstotliwości sieciowej. Pierwszą grupę będą stanowili ludzie zamieszkujący w pobliżu linii 220 i 400 kv, a drugą - pracownicy stacji elektroenergetycznych. Inną kwestią o podstawowym znaczeniu, w szczególności w aspekcie porównywania wyników badań oddziaływania pola elektromagnetycznego w ekspozycji środowiskowej, jest kwestia ustalenia rzeczywistej ekspozycji na działanie pola osób zamieszkujących w sąsiedztwie linii napowietrznych i poddawanych badaniom różnego typu (lekarskim, epidemiologicznym itp.). Spośród różnych metod pozwalających na bardziej lub mniej precyzyjny sposób scharakteryzowania narażenia na działanie pola magnetycznego wytwarzanego przez napowietrzne linie elektroenergetyczne wyróżnić można: indywidualne pomiary dozymetryczne, metodę kodu przewodów (ang. wire codes), metodę opartą o określenie odległości od przewodów linii, obliczeniowe szacowanie uśrednionej wartości natężenia pola magnetycznego, uśrednione miejscowo pomiary natężenia pola magnetycznego, i inne. Na potrzeby opisanych badań medycznych, w celu zidentyfikowania narażenia osób mieszkających w sąsiedztwie linii napowietrznych 220 i 400 kv, zastosowano metodę polegającą z jednej strony na oszacowaniu średniej wartości natężenia pola magnetycznego w każdej lokalizacji na podstawie znajomości rocznego rozkładu obciążeń linii napowietrznej, a z drugiej strony - na pomiarowej weryfikacji uzyskanych w ten sposób wyników. 303

305 I l o ś ć Rys. 2. Struktura wiekowa badanej populacji W konsekwencji dla każdej z lokalizacji, dysponując czasowym rozkładem obciążenia konkretnej linii w ciągu jednego roku, a także jej danymi technicznymi, w tym rysunkami profili porzecznych pozwalającymi na obliczenie natężenia pola magnetycznego w charakterystycznych punktach obliczeniowych, wyznaczona zostanie średnia (roczna) wartość natężenia pola magnetycznego dla każdej ze zidentyfikowanych lokalizacji, a następnie uzyskane wyniki zostaną poddane weryfikacji metodą pomiarową. Obecnie zakwalifikowano do badań 73 osoby. Strukturę wiekową badanych populacji ilustruje rysunek Podsumowanie Głównym celem niniejszej pracy jest przeprowadzenie na podstawie badań laboratoryjnych oceny częstości występowania podwyższonych wartości markerów nowotworowych w grupie A osób narażonych na oddziaływanie pól elektromagnetycznych w porównaniu z grupą kontrolną B osób nie narażonych na oddziaływanie tego czynnika fizycznego. W celu wykluczenia zależności otrzymanych wyników od wieku badanych osób, dodatkowo obliczony zostanie współczynnik korelacji pomiędzy badanymi parametrami a wiekiem. Literatura [1] Dawson TW, Caputa K, Stuchly MA.: Magnetic field exposures for UK live-line workers. Phys Med Biol Apr 7;47(7): [2] Davidson V.L., Sittman D.B.: Biochemistry. Harward Publ., NY, London [3] Feychting M., Ahlbom A.: Magnetic fields and cancer in people residing near Swedish high voltage power lines. American Journal of epidemiology, 1993, vol.138, pp [3] Forseen U.M. i wsp.: Relative contribution of residential and occupational magnetic field exposure over twenty-four hour among people living close to and far from a power line. Bioelectromagnetics, 2002, vol.23, No.3, pp [4] Górski B.: Hereditary Cancer in Clin. Practice. 2006, 43: [5] Green L.M. i wsp.: Childhood leukemia and personal monitoring of residential exposures to electric and magnetic fields in Ontario, Canada. Cancer Causes Control 1999 r., Vol. 10, pp

306 Charakterystyka stałych paliw wtórnych oraz ich walory energetyczne Arkadiusz Szydełko 1, Wiesław Rybak 2 Streszczenie: Stałe paliwa wtórne wytwarzane ze stałych odpadów komunalnych, innych niż niebezpieczne, posiadają wiele walorów energetycznych. Współspalanie tych paliw z węglem, pozwala zaliczyć część wytworzonej energii jako energię odnawialną, ponieważ paliwa te mogą posiadać frakcje biogeniczne. Stosowanie paliw wtórnych przyczynia się więc do zmniejszenia emisji gazów cieplarnianych głownie CO 2. Celem przeprowadzonych badań było scharakteryzowanie paliwa alternatywnego pod względem właściwości fizykochemicznych. Słowa kluczowe: SRF, stałe paliwa wtórne, klasyfikacja paliwa, spalanie, współspalanie 1. Wprowadzenie Malejące zasoby paliw kopalnych, wzrost stężenia dwutlenku węgla w atmosferze, postępujący efekt cieplarniany, międzynarodowe zobowiązania ekologiczne wymogły wprowadzenie szeregu działań oraz rozwiązań legislacyjnych zmierzających do ograniczenia emisji CO 2, poszanowania energii, poprawy efektywności energetycznej oraz racjonalnego wykorzystywania istniejących zasobów paliw kopalnych, a także do promocji energii wytwarzanej w odnawialnych źródłach energii tzw. OZE. 2. Stałe paliwa wtórne Mianem stałych paliw wtórnych SRF (Solid Recovered Fuel) określa się grupę paliw wytwarzanych ze stałych odpadów komunalnych. Są to paliwa uzyskiwane wyłącznie z odpadów innych niż niebezpieczne i mogą być stosowane tylko w instalacjach spełniających standardy emisyjne, wynikające z Dyrektywy 2000/76/EC, dotyczącej spalania odpadów. W skład SRF nie mogą wchodzić paliwa kopalne [1]. Paliwo SRF, w odróżnieniu od spalania nieprzetworzonych odpadów, cechuje się znacznie wyższą stabilnością parametrów jakościowych, takich jak zawartość wilgoci, chloru, rtęci oraz siarki, a także gwarantowaną kalorycznością, przez co wzbudza coraz większe zainteresowanie na rynku nośników energii. Zainteresowanie tymi paliwami jest także stymulowane przez wprowadzony system handlu uprawnieniami do emisji gazów cieplarnianych. Zastosowanie SRF w procesie współspalania przyczynia się bowiem do zmniejszenia emisji gazów cieplarnianych (głownie CO 2 ) powstających w wyniku spalania paliw kopalnych, a także pozwala oszczędzić ich nieustannie malejące zasoby. Upowszechnienie stosowania SRF upatruje się w systemie umożliwiającym zaliczenie części energii wytwarzanej z ich wykorzystaniem do energii odnawialnych, ponieważ paliwa te mogą zawierać frakcje biodegradowalne pochodzenia biogenicznego [1]. Wśród surowców do wytwarzania SRF można wyróżnić przede wszystkim: pozostałości z procesów produkcyjnych, poużytkowe odpady przemysłowe, odpady z selektywnej zbiórki z handlu 1 Instytut Techniki Cieplnej i Mechaniki Płynów, Wyb. Wyspiańskiego 27; Wrocław, arkadiusz.szydelko@pwr.wroc.pl 2 Instytut Techniki Cieplnej i Mechaniki Płynów, Wyb. Wyspiańskiego 27; Wrocław, wiesław.rybak@pwr.wroc.pl 305

307 i gospodarstw domowych, stałe odpady komunalne, a także odpady konstrukcyjno-remontowe. Z kolei najważniejszymi grupami odpadów, wykorzystywanymi w charakterze komponentów do produkcji SRF są: papier, zużyte opony, odpady tworzyw sztucznych, drewno i tekstylia. Wytwarzanie SRF jest często wskazywane jako jeden z podstawowych elementów zintegrowanego systemu zarządzania odpadami w nowoczesnej gospodarce [4],[2]. Zaproponowany przez CEN system klasyfikacji oparto na trzech kluczowych parametrach określających właściwości SRF: wartości opałowej, zawartości chloru, zawartości rtęci. Wybór tych parametrów uwzględnia trzy aspekty oceny paliwa, związane z jego wykorzystaniem: ekonomiczny, technologiczny i emisyjny. Dla każdego z trzech parametrów opisujących SRF wyznaczono 5 klas jakościowych, z określeniem dla każdej z nich wartości granicznych. Kombinacja numerów klas daje w wyniku kod klasyfikacyjny paliwa. Wartości poszczególnych parametrów należy wyznaczać przy uwzględnieniu reguł statystycznych i ściśle zdefiniowanej częstości badań [2]. W tabeli przedstawiono parametry klasyfikacyjne z wartościami granicznymi dla SRF przyjętych zgodnie z PKN-CEN/TS 15359:2008 [4]. Parametr klasyfikacyjny Wartość opałowa (NCV) Zawartość chloru (Cl) Tab. 1. Klasyfikacja paliwa SRF zgodnie z PKN-CEN/TS 15359:2008 [4] Pomiar statystyczny średnia arytmetyczna średnia arytmetyczna Jednostka Klasa [MJ/kg] w st. roboczym [%] 0,2 0,6 1,0 1,5 3 w st. suchym [mg/mj] mediana* 0,02 0,03 0,08 0,15 0,50 Zawartość rtęci w st. roboczym 80-ty (Hg) [mg/mj] percentyl** 0,04 0,06 0, 16 0,30 1,00 w st. roboczym *Mediana nazywana jest również wartością środkową lub też środkiem obszaru zmienności rozpatrywanej zmiennej. Jest to wartość zmiennej, która rozdziela całą populację na dwie równe części. W pierwszej części znajdują się jednostki o wartościach niższych od mediany, a w drugiej są jednostki o wartościach wyższych. **Percentyl wskazuje wartość, poniżej której mieści się dany procent populacji. Podczas klasyfikacji paliwa pod względem zawartości rtęci stosuje się wyższą z dwóch wartości statystycznych. System klasyfikacji kodowej paliwa SRF został opracowany w celu identyfikacji paliwa oraz aby umożliwić i ułatwić kontakt pomiędzy wytwórcą (producentem paliwa) oraz odbiorcą (producentem energii). Jednakże te trzy parametry nie opisują w pełni właściwości paliwa [2]. System CEN przewiduje szczegółową charakteryzację parametrów paliwa SRF zgodnie z szablonem podanym w aneksie A Specyfikacji Technicznej PKN-CEN/TS 15359:2008 [4]. Paliwo z odpadów stanowi odmienny rodzaj nośnika energii w stosunku do paliw kopalnych i biomasy, który oprócz niewątpliwych zalet posiada również cechy niekorzystne, w tym stwarzające zagrożenie środowiskowe, gdy jest stosowany w sposób niezgodny z obowiązującymi przepisami. Aktualnie obowiązujące regulacje prawne traktują paliwa wytworzone z odpadów w dalszym ciągu jako odpady. Tak więc, przy energetycznym wykorzystaniu SRF muszą obowiązywać wymagania środowiskowe sformułowane dla gospodarki odpadami i spalania odpadów [2]. Energetyczne wykorzystanie SRF może odbywać się przy użyciu różnych technologii. Największy potencjał i znaczenie praktyczne posiadają technologie współspalania, wykorzystujące: kotły pyłowe, rusztowe, a zwłaszcza fluidalne [2]. Celem przeprowadzonych badań było scharakteryzowanie paliwa alternatywnego pod względem właściwości fizyko-chemicznych: wartości opałowej, zawartości chloru oraz zawartości rtęci. Wyniki porównano względem węgla brunatnego pochodzącego z Bełchatowa. Paliwo alternatywne pochodziło z firmy EKO-REGION z Bełchatowa. 306

308 2. Materiały i metody Oznaczanie wartości opałowej paliwa zostały wykonane zgodnie z normą CEN/TS [5]. W badaniu użyto ok. 1g homogenicznego, rozdrobnionego paliwa i spalono w bombie kalorymetrycznej w obecności tlenu pod wysokim ciśnieniem. Doświadczenia przeprowadzono za pomocą kalorymetru IKA C Badania paliwa na zawartość chloru rozpuszczalnego w wodzie zostały wykonane zgodnie z normą CEN/TS [6]. Metoda ta polega na spaleniu ok. 1g homogenicznego, rozdrobnionego paliwa o średnicy cząstek <1mm w bombie kalorymetrycznej w obecności tlenu. Powstające podczas spalania gazy rozpuszczają się w 10ml roztworu absorbującego, uprzednio wprowadzonego do bomby kalorymetrycznej. Jeśli zawartość procentowa chloru w suchej masie paliwa jest większa od 1% to stosowanym roztworem absorbującym jest 0.2M KOH, a jeśli zawartość chloru jest mniejsza niż 1% to używa się H 2 O miliq. Następnie otrzymany roztwór poddaje się badaniom na zawartość chloru, za pomocą jednej z czterech metod opisanych w normie (metody: EN ISO , EN ISO , ISO 9297, ISO , EN ISO ). W badaniach wykorzystano metodę miareczkową wg normy PN-ISO 9297:1994 [7]. Metoda ta polega na reakcji chlorków z jonami srebra, prowadząc do powstania nierozpuszczalnego chlorku srebra, wytrącającego się ilościowo. Wprowadzenie niewielkiego nadmiaru jonów srebra w obecności jonów chromianowych, jako wskaźnika, powoduje utworzenie czerwonobrązowego chromianu srebra. Reakcja ta wskazuje punkt końcowy miareczkowania. Utrzymywanie ph w granicach w czasie miareczkowania umożliwia wytrącenie osadu. Objętość azotanu srebra po przeliczeniu odpowiada stężeniu chlorków rozpuszczalnych w wodzie. Wyniki przeliczono i przedstawiono w postaci procentowej zawartości chloru w suchej masie próbki. Oznaczanie zawartości rtęci zostało wykonane zgodnie z normą CEN/TS [8]. Norma ta przewiduje trzy metody roztwarzania SRF: roztwarzanie wspomagane mikrofalowo z roztworem HF, HNO 3, HCl; roztwarzanie spopielonej próbki SRF we wrzącej łaźni wodnej w obecności HF, HNO 3, HCl; roztwarzanie w piecu w obecności HF, HNO 3, HClO 4. Jednakże w przypadku rtęci zaznaczono, że pierwiastek ten może być analizowany wyłącznie po przeprowadzeniu roztwarzania SRF wspomaganego mikrofalowo (metoda opisana w normie EN 13656). Roztworzona próbka jest następnie analizowana za pomocą technik spektrometrycznych takich jak absorpcji atomowej czy spektroskopii emisyjnej. 3. Wyniki i dyskusja Nazwa próbki Tab. 2. Zawartość Hg i Cl w paliwie SRF mg/kg Zwartość Hg mg/mj Całkowita zwartość Cl % (stan suchy) SRF 0,322 0,013 0,565 Rys. 1. Wartość opałowa Q, ciepło spalania Qi badanych próbek (stan analityczny) węgiel brunatny 0,438 0,033 0,075 Q ciepło spalania (para wodna zawarta w spalinach nie skropliła się) Q i wartość opałowa (para wodna zawarta w spalinach skropliła się) 307

309 Wyższą kalorycznością (>20 MJ/kg) charakteryzuje się paliwo SRF, a niższą węgiel brunatny. Zawartość rtęci w paliwie SRF w porównaniu do węgla brunatnego jest nieznacznie niższa. Jednakże po przeliczeniu zawartość rtęci na mg/mj zawartości wynoszą odpowiednio 0,013 i 0,033 mg/mj, co wyraźnie wskazuje że przy tym samym efekcie energetycznym emisja rtęci dla paliwa SRF jest mniejsza. Występuje duża różnica w zawartości chloru dla paliwa SRF wynosi ona 0,565 % s.m., a dla węgla brunatnego 0,075 % s.m. Jest to spowodowane tym, że w skład paliwa SRF wchodzą tworzywa sztuczne, folie, butelki PET, które cechują się znacznym udziałem chloru. 4. Wnioski Ze względu na zawartość chloru i rtęci oraz wartość opałową dostarczone paliwo formowane SRF, zgodnie z zaproponowana przez CEN klasyfikacją, spełnia wymogi określone dla 2 klasy jakości. Pomimo korzyści ekologicznych płynących z wykorzystania tych paliw w energetyce, istnieje ryzyko, że wyższa zawartość chloru może powodować występowanie niekorzystnych zjawisk korozyjno-erozyjnych. Dlatego w przypadku rozpoczęcia współspalania SRF w istniejących obiektach energetycznych należy prowadzić regularną kontrolę stanu powierzchni ogrzewanych oraz powierzchni przegrzewaczy. Wprowadzenie w krajach UE jednolitych zasad klasyfikacji paliw SRF oraz metodyki badawczej dla określania jakości tych paliw umocni ich pozycje na rynku nośników energii, a także umocni handel tym towarem [3]. Literatura W pracy wykorzystano przedruk Polskiej Normy dokonany za zgodą PKN. [1] R. Wasielewski, S. Stelmach, A. Sobolewski, J. Zuwała, Propozycje w zakresie bilansowania energii odnawialnej z wykorzystaniem stałych paliw wtórnych. Polityka Energetyczna, tom 10, zeszyt 2, 2007 [2] A. Sobolewski, R. Wasielewski, S. Stelmach, Wykorzystanie stałych paliw wtórnych w energetyce. Polityka Energetyczna, tom 10, zeszyt 2, 2007 [3] J. W. Wandrasz, K. Pikoń, Paliwa z Odpadów VI. Wydawnictwo Helion, Gliwice 2007 [4] PKN-CEN/TS 15359:2008 Stałe paliwa wtórne - Wymagania techniczne i klasy [5] CEN/TS Solid recovered fuels Determination of calorific value [6] CEN/TS Solid recovered fuels Methods for the determination of sulphur (S), chlorine (Cl), fluorine (F) and bromine (Br) content [7] PN-ISO 9297:1994 Jakość wody. Oznaczanie chlorków. Metoda miareczkowania azotanem srebra w obecności chromianu jako wskaźnika (Metoda Mohra) [8] CEN/TS Solid recovered fuels Methods for the determination of the content of trace elements (As, Ba, Be, Cd, Co, Cr, Cu, Hg, Mo, Mn, Ni, Pb, Sb, Se, Tl, V and Zn) Characteristics of solid recovered fuels and their energy values Abstract: Solid recovered fuels manufactured from non-hazardous municipal solid waste, have a lot of energy assets because can have a biogenic fractions. Co-combustion with coal allows to include a part of the produced energy as a renewable energy. The use of secondary fuels contributes to reduce emissions of greenhouse gas mainly CO 2. The aim of the study was to characterize physicochemical properties of the alternative fuel. 308

310 Wydajne osadzanie cienkich warstw związków metodą rozpylania magnetronowego Katarzyna Tadaszak 1 Streszczenie: Rozpylanie magnetronowe jest szeroko stosowaną metodą nanoszenia cienkich powłok metalicznych. Metodą tą osadza się również związki, jednakże w tym wypadku napotyka się na szereg ograniczeń rzutujących na stabilność procesu, a także jego efektywność. W pracy zostaną przedstawione możliwe rozwiązania problemu wydajności osadzania cienkich warstw związków. Słowa kluczowe: rozpylanie magnetronowe, cienkie warstwy 1. Wprowadzenie Rozpylanie magnetronowe należy do metod fizycznego osadzania z fazy gazowej wspomaganego plazmą PAPVD (Plasma Assisted Physical Vapour Deposition). Technika ta jest wykorzystywana do nanoszenia warstw: metali, stopów i związków metali, oraz niemetali. Cienkie warstwy materiałów, o grubości maksymalnej do kilku μm, osadzane tą techniką znajdują zastosowania w wielu dziedzinach nauki i gałęziach przemysłu jako warstwy odblaskowe, antyrefleksyjne, termoelektryczne, hydrofobowe, dekoracyjne i wiele innych. Ze względu na mnogość możliwych do rozpylania materiałów, wachlarz zastosowań tej techniki jest bardzo szeroki. Na przykład w elektronice, dziedzinie nauki, która zapoczątkowała rozwój technologii cienkowarstwowych, służą do nanoszenia warstw metalizacji układów mikroelektronicznych, cienkich warstw rezystywnych, czy termopar. Magnetronowy układ rozpylający jest szczególnym przypadkiem układu diodowego (anoda katoda). W układzie tym dodatnie jony gazu roboczego bombardują ujemnie spolaryzowany target, powodują kinetyczne wybijanie atomów z powierzchni i ich osadzanie na podłożu [1], są również przyczyną powstawania nowych jonów i elektronów wtórnych [7]. Wyładowanie jarzeniowe zachodzi w skrzyżowanych polach magnetycznym i elektrycznym. Rys. 1. Uproszczony przekrój poprzeczny magnetronu planarnego oraz rozkład pola magnetycznego nad powierzchnią targetu [7] 1 Wydział Elektroniki Mikrosystemów i Fotoniki, ul. Janiszewskiego 11/17, Wrocław, katarzyna.tadaszak@pwr.wroc.pl 309

311 Niejednorodne pole magnetyczne zakrzywia tor elektronu, wybitego z powierzchni targetu w wyniku bombardowania jonowego i prowadzi go stycznie wzdłuż linii sił pola. Spiralny ruch elektronu zwiększa prawdopodobieństwo zderzeń a tym samym wzmacnia jonizację. Taki układ źródła magnetronowego pozwolił na zwiększenie szybkości nanoszenia i obniżenie ciśnienia roboczego (w stosunku do rozpylania katodowego) oraz poprawę adhezji osadzanych warstw (w porównaniu do naparowywania próżniowego). 2. Reaktywne rozpylanie magnetronowe Najstarszą metodą rozpylania magnetronowego jest rozpylanie z zasilaniem stałoprądowym, które obecnie stosuje się jedynie do osadzania materiałów przewodzących. W procesach reaktywnych (prowadzonych w obecności gazu reaktywnego), w układach zasilanych prądem stałym gwałtownie wzrasta prawdopodobieństwo powstania wyładowania łukowego [7]. Warstwy związku tworzące się na targecie tworzą kondensator, którego okładką jest z jednej strony plazma z drugiej metaliczny target. Powstała struktura jest ładowana w polu elektrycznym, aż do momentu przebicia mikrołukiem. Konsekwencjami łuków elektrycznych (w szczególności w procesach dużej mocy) może być zniszczenie magnetronu i awaria całego stanowiska próżniowego. Dlatego też do osadzania związków chemicznych zaczęto stosować systemy z zasilaniem prądem zmiennym. Coraz większe wymagania stawiane warstwom i procesom zapoczątkowały ewolucję systemów zasilania w kierunku średnich częstotliwości. Częstotliwość pracy zasilacza zależy od czasu ładowania warstwy i w praktyce powinna być wyższa niż 10 khz oraz niższa niż 250 khz. Powstanie nowej generacji zasilaczy impulsowych sprzyja lepszej wydajności, stabilności, powtarzalności procesów reaktywnych [2]. Powstające na powierzchni materiału rozpylanego warstwy związków są rozpylane wolniej i ich tworzenie się zmienia zasadniczo warunki trawienia jonowego targetu. W procesach reaktywnych zauważyć można niepożądane zjawiska, związane z histerezą procesu rozpylania. Wynika ona z nieustalonego stanu powierzchni targetu, która w trakcie rozpylania jest lub nie jest pokryta związkiem. Ze względu na stan powierzchni targetu wyróżnia się trzy mody pracy magnetronu (rys. 2): reaktywny mod metaliczny czysty target, reaktywny przejściowy target częściowo pokryty związkiem i reaktywny dielektryczny target całkowicie pokryty związkiem. Rys. 2. Charakterystyka procesu reaktywnego rozpylania magnetronowego z zaznaczonymi modami pracy magnetronu i oknami procesowymi dla kilku popularnych materiałów [6] Tradycyjnie, związki osadzano wybierając pracę w modzie dielektrycznym, zapewniającym stechiometryczny skład warstwy, jednak mało wydajny za względu na zatrucie powierzchni targetu związkiem. W systemach przemysłowych korzysta się z rozpylania w modzie przejściowym (rys. 2), w którym, ze względu na niestabilność procesu, stosuje się skomplikowane systemy sterowania. 310

312 3. HiPIMS W ostatnich latach została zaproponowana nowa technika impulsowego rozpylania magnetronowego wysokiej mocy HiPIMS (ang. High Power Impulse Magnetron Sputtering). Wyjątkową cechą tej metody osadzania jest wzrost gęstości plazmy, dzięki skróceniu drogi jonizacji dla rozpylonych cząstek [3]. Moc przyłożona do targetu pozwala osiągnąć gęstość elektronów rzędu m -3 w sąsiedztwie źródła, co odpowiada mocy elektrycznej rzędu kilku kwcm -2. Zastosowanie takich mocy niesie za sobą problemy z utrzymaniem odpowiednio niskiej temperatury pracy. Z tego względu zastosowano zasilanie impulsowe, gdyż potrzeba chłodzenia targetu jest determinowana przez średnią moc bardziej niż przez moc maksymalną. Dzięki wąskim impulsom prądu moc może być utrzymywana na poziomie, na którym układ chłodzenia będzie wystarczająco wydajny. Zastosowanie zasilania z małym współczynnikiem wypełnienia umożliwiło osiągnięcie kompromisu pomiędzy wysoką mocą, a wydajnym chłodzeniem. Dużą zaletą tej techniki, jest brak zjawiska histerezy (podczas trwania impulsu target jest skutecznie czyszczony z warstw związku [8]) oraz poprawa jakości warstw, spowodowana dłuższymi czasami wyłączenia, w których osadzana warstwa ulega relaksacji [5]. Jednakże wadą tej techniki jest niższa, niż przy zasilaniu średniej częstotliwości, szybkość osadzania warstw, a także wyładowania łukowe, które powstają mimo impulsowego charakteru rozpylania. Ze względu na dużą gęstość przyłożonej mocy wzrasta prawdopodobieństwo przebicia warstwy mikrołukiem. 4. Wydajne osadzanie warstw Mimo znacznego rozwoju technologii magnetronowego rozpylania, ciągle brak jest efektywnej i stabilnej metody osadzania związków chemicznych. W procesach przemysłowych wydajne nanoszenie warstw jest realizowane poprzez pracę magnetronu w modzie przejściowym, możliwą dzięki sprzężeniu parametrów zasilacza z parametrami procesu, co wymaga skomplikowanego systemu sterowania i kontroli warunków osadzania. Z obserwacji trudności związanych z rozpylaniem w modach przejściowym i reaktywnym powstała idea rozpylania w stabilnym reaktywnym modzie metalicznym. Przy zmodyfikowanym układzie magnetronowym, odpowiednim doborze warunków technologicznych oraz z zastosowaniem zasilacza DPS (Dora Power System) [2] (rys. 3) można w modzie metalicznym otrzymywać związki o składzie zbliżonym do stechiometrycznego z szybkością nanoszenia charakterystyczną dla warstw metalicznych (np. kilkadziesiąt nm/min). Dzięki zastosowaniu zasilacza DPS, moc chwilowa dostarczana do targetu jest znacznie większa niż w innych systemach DC, dłuższe są także czasy wyłączenia, ze względu regulację mocy średniej. Może to powodować pewne podobieństwa do procesów HiPIMS, np. zanikanie histerezy, czy poprawę jakości warstw. Wstępne badania, przeprowadzone dla tlenku glinu, potwierdzają, że posługując się magnetronem pracującym w reaktywnym modzie metalicznym można otrzymywać warstwy o właściwościach zbliżonych do charakterystycznych dla związków stechiometrycznych [4]. Rys. 1. Magnetron WMK-50 i zasilacz DPS (Dora Power System) oraz wytrawiony target glinowy. 311

313 Proponowane podejście jest kompromisem pomiędzy dobrze znaną metodą rozpylania średniej częstotliwości a nowatorskimi osiągnięciami metody HiPIMS. Opracowany wydajny proces rozpylania cechuje się szybkością osadzania zbliżoną do charakterystycznej dla procesów niereaktywnych, wzrostem stabilności i relatywnie prostym systemem sterowania (opartym na śledzeniu zmian parametrów zasilacza). 3. Podsumowanie Reaktywne rozpylanie magnetronowe jest szeroko stosowaną techniką otrzymywania cienkich warstw związków. Obecność gazu reaktywnego w atmosferze procesu skutkuje tworzeniem się na materiale rozpylanym warstwy związku, co może prowadzić do niestabilności procesu i spadku wydajności (w przypadku całkowitego pokrycia powierzchni). Trudności te można ominąć poprzez zastosowanie odpowiednio wysokich mocy HiPIMS. Jednakże takie rozwiązanie okazuje się niewystarczające pojawiają się wyładowania łukowe, a wydajność jest niższa niż w systemach magnetronowych z zasilaniem średniej częstotliwości. Przedstawiona metoda osadzania związków w metalicznym modzie pracy magnetronu pozwala na znaczną poprawę wydajności, stabilności i powtarzalności procesu. Literatura [1] R. F. Bunshah, i inni, Deposition Technologies for Films and Coatings, Noyes Publications USA (1982) [2] J.Dora, Zasilacz rezonansowy, Urząd Patentowy RP, Patent nr , zgł [3] V. Kouznetsov i inni A novel pulsed magnetronsputter technique utilizing very high target power densities, Surface and Coatings Technology 122 (1999), [4] Katarzyna Krówka, Artur Wiatrowski, Witold M. Posadowski, Magnetron sputtering modes during pulsed deposition process, 8th International Conference on Coatings on Glass and Plastics ICCG. Proceedings, Braunschweig, June 13-17, 2010, [5] M. Lattemann, U. Helmersson, J.E. Greene, Fully dense, non-faceted 111-textured high power impulse magnetron sputtering TiN films grown in the absence of substrate heating and bias, Thin Solid Films 518 (2010) [6] C.May, F. Milde, G. Teschner, Process Development for Large Area Reactive Magnetron Sputtering, 45th Annual Technical Conference Proceedings, 2002 [7] W. M. Posadowski, Niekonwencjonalne układy magnetronowe do próżniowego nanoszenia cienkich warstw, Oficyna Wydawnicza Politechniki Wrocławskiej, Wrocław 2001 [8] E. Wallin, U. Helmersson, Hysteresis-free reactive high power impulse magnetron sputtering, Thin Solid Films 516 (2008) EFFECTIVE THIN FILM COMPOUND DEPOSITION BY MAGNETRON SPUTTERING Reactive magnetron sputtering is widely used for thin film compound deposition. The addition of reactive gas to process atmosphere could cause instabilities and significant drop of deposition rate, induced by reactive compound formation on the target. This problem could be solved by implementation of high power supply, for example HiPIMS method (High Power Impulse Magnetron Sputtering). With high power system, plasma density increases and the compound formed on the surface is effectively sputtered. However, it results in system cooling problems, arcing or lower deposition rate (than in pulsed-dc sputtering). Introduced new method of effective reactive sputter deposition in metallic mode of magnetron work is a compromise between HiPIMS and classic DC-pulsed reactive sputtering. This new method ensures deposition rate comparable to metallic film deposition and high stability of magnetron work. 312

314 Zastosowanie technologii zol-żel w niskotemperaturowych współwypalanych układach ceramicznych LTCC Rafał Tadaszak 1 Streszczenie: Praca prezentuje technologię zol-żel pod kątem możliwości jej zastosowania do wytwarzania planarnych światłowodów, na podłożach z ceramiki LTCC. Autor przedstawia zalety takich układów oraz podstawowe informacje o obu technologiach i warunkach, jakie muszą spełniać, by można było wykorzystać je w jednym układzie. 1. Wprowadzenie Słowa kluczowe: LTCC, zol-żel, światłowody planarne, optoelektronika Ostatnie lata to znaczący wzrost zainteresowania urządzeniami, w których podstawowym nośnikiem informacji zamiast elektronu, jest foton. Zmiana taka pozwala osiągnąć nie tylko większe szybkości transmisji, ale także w wielu przypadkach zwiększa niezawodność układu i poprawia bezpieczeństwo użytkowania. Drugi trend, który również można z łatwością zauważyć, to tendencja miniaturyzacji. Dążenie do konstruowania nowych, coraz mniejszych urządzeń oraz zmniejszania wymiarów już istniejących powoduje konieczność opracowywania nowych technologii bądź całkiem innego zastosowania już istniejących. Często są to układy typu lab-onchip, w których na jednym podłożu dąży się do umieszczenia zarówno elementów elektronicznych, struktur przepływowych, jak i elementów optycznych, np. soczewek lub światłowodów. Artykuł prezentuje idee połączenia dwóch doskonale znanych technologii, wcześniej niełączonych, aby uzyskać technologię wykonywania mikroukładów ze zintegrowaną optyką i optoelektroniką. Pierwsza technologia to LTCC (ang. Low Temperature Cofired Ceramics), która pozwalają na wykonywanie mikroelektronicznych układów grubowarstwowych. Druga to chemiczna metoda zol-żel, umożliwiającą otrzymywanie organicznych i nieorganicznych cienkich warstw z fazy ciekłej. 2. Technologia LTCC Do podstawowych zalet wykonywania układów grubowarstwowych w technologii LTCC należy zaliczyć: duże spektrum możliwych do uzyskania elementów, łatwość obróbki niewypalonego materiału, niewielkie wymagania technologiczne i przede wszystkim relatywnie niski koszt. Dzięki tym zaletom opłacalne staje się wykonywanie nawet małych, wysoko wyspecjalizowanych serii układów elektronicznych. Technologia LTCC pozwala m.in. na wykonywanie układów 3D (np. mikro-komory, mikro-reaktory) oraz warstwowych z zagrzebanymi elementami biernymi [1]. Bazowym materiałem w technologii LTCC jest cienka niewypalona folia, tzw. green tape, grubości od 50 μm do 250 μm. Jest ona mieszaniną proszków ceramiki i szkła oraz nośnika organicznego. Największą zaletą technologii i tym, co ją wyróżnia w grupie ceramicznych układów grubowarstwowych, jest relatywnie niska temperatura wypalania C (w standardowej 1 Politechnika Wrocławska, Wydział Elektroniki Mikrosystemów i Fotoniki, ul. Janiszewskiego 11/ Wrocław, rafal.tadaszak@pwr.wroc.pl 313

315 ceramice wysokotemperaturowej wynosi ona C). Pozwala to m.in. wykonywać cała gamę elementów biernych i ścieżek przewodzących z materiałów, które mogą być współwypalane w jednym procesie (np. Au, Ag, PdAg). Pierwszym etapem wykonywania układu LTCC jest wycięcie folii w kształcie odpowiednim do przeznaczenia i zgodny z projektem. Wykonuje się to najczęściej za pomocą lasera lub wykrojnika mechanicznego, co pozwala uzyskać dużą precyzję i powtarzalność wzorów. Jednocześnie wykonywane są wszystkie otwory, rowki i inne zagłębienia otworów pod elementy składowe np. kanały przepływowe oraz tzw. vie pozwalające na połączenia między warstwami (przy układach wielowarstwowych). Następnie za pomocą metody sitodruku nanoszone są pasty pełniące role ścieżek przewodzących oraz dielektryków i rezystorów. Kolejnym etapem jest złożenie w jedną strukturę wszystkich folii z naniesionymi elementami. Złożone razem warstwy umieszczane są między dwoma sztywnymi płytkami, a następnie poddawane procesowi laminacji izostatycznej (p=20 MPa, T=70 C, t=10 min). Ostatnim etapem podczas wykonywania układu LTCC jest jego wypalenie, które przeprowadza się w atmosferze powietrza, w piecu o odpowiednim profilu temperaturowym z temperaturą szczytową ok. 870 C. Po wypaleniu można wykonać operacje post-firingu, czyli kontrolę jakościową i dołączenie elementów zewnętrznych, np. tranzystorów 3. Technologia zol-żel Rys. 1. Uproszczony proces wykonywania układów w technologii LTCC Metoda zol-żel jest procesem chemicznym, pozwalającym na wytworzenie materiałów w stanie stałym, takich jak szkła i materiały szkliste, w reakcji żelowania materiałów ciekłych. W wykorzystywanej syntezie płynny materiał nieorganiczny - zol w wyniku hydrolizy i następnie kondensacji cząsteczek przekształca się w molekuły tworzące fazę stałą, czyli żel. Zaletą takiego rozwiązania jest fakt, iż nie wymaga ono stosowania obróbki wysokotemperaturowej (koniecznej w przypadku tradycyjnej metody otrzymywania szkła), gdyż materiał uzyskiwany jest z roztworów bez konieczności topienia składników. Nie mniej istotną zaletą jest mnogość (dip-coating, sitodruk, spin coating, natrysk itd.) oraz prostota metod nakładania ciekłej warstwy na podłoże. Otrzymany materiał jest chemicznie obojętny oraz charakteryzuje się dobrymi właściwości mechanicznymi, czystością i transparentnością w zakresie widzialnym oraz bliskiej podczerwieni. Synteza przeprowadzana zazwyczaj w temperaturze pokojowej oraz środowisku wodno-alkoholowym pozwala na łatwe domieszkowanie szkieł na etapie zolu. Jako domieszki w matrycach wykorzystuje się wiele różnorodnych cząsteczek, w tym indykatory (barwniki), biomolekuły (enzymy, przeciwciała) lub cząstki metali. Cechy te sprawiają, że materiały otrzymywane metodą zol-żel są doskonałymi produktami, znajdującymi szerokie zastosowanie w optyce jako elementy bierne lub czynne układów optoelektronicznych, a także jako optyczne warstwy czujnikowe. 314

316 Rys. 2. Podstawowe reakcje zol-żel 4. Światłowody zol-żel na podłożach LTCC Opracowywany światłowód planarny powinien składać się z dwóch warstw materiału zolżel. Pierwsza z nich to warstwa podłożowa z materiału krzemionkowego o współczynniku załamania ok. 1,44. Spełnia ona rolę płaszcza światłowodu, a ponadto wygładza podłoże w celu zminimalizowania chropowatości ceramiki. Według przeprowadzonych pomiarów, średnia wartość arytmetyczna chropowatości R a wynosi ok. 280 nm. Jest to zbyt duża wartość dla prowadzenia wiązki światła i może wprowadzać duże tłumienie. Druga warstwa to warstwa prowadząca. Powinna się charakteryzować większym współczynnikiem załamania, aby spełnić niezbędny warunek całkowitego wewnętrznego odbicia. W tym celu do zolu krzemionkowego dodaje się prekursor tytanowy lub cyrkonowy, co w rezultacie pozwala zwiększyć współczynnik załamania materiału do wartości powyżej 1,7. Światłowody w pracach autora wykonywane są w dwóch wersjach. Pierwsza z nich to światłowody z wyniesioną warstwą prowadzącą. W innej koncepcji, jest ona umieszczona w kanale wykonanym w ceramice LTCC (rysunek 3). W przypadku światłowodów wykonywanych w kanałach, materiał warstwy prowadzącej wymaga dodatku składnika organicznego. Wypełnia on pory materiału, umożliwiając wykonywanie warstw grubych, nawet do 200 μm. Wadą tego rozwiązania jest niska temperatura pracy maksymalnej (do 120 C) oraz gorsze parametry starzeniowe. Dodatkowo materiał ten nie jest odporny na długotrwałe zamoczenie, co uniemożliwia zastosowanie go np. w systemach mikroprzepływowych. Rys. 3. Struktura światłowodów: a) światłowód paskowy; b) światłowód w kanale Zgodnie z procedurą przyjętą w programie badań, warstwy optyczne nakładane są zanurzeniowo za pomocą metody dip-coatingu. Badania pokazały, iż optymalna prędkość zanurzenia wynosi 30 mm/min. Następnie, naniesione warstwy są suszone w temperaturze 60 C oraz wypalane w temperaturze 550 C. W przypadku warstw podłożowych taki proces wykonywany jest trzykrotnie i uzyskuje się dzięki temu wielowarstwę grubości 3-4 μm. Dla warstw prowadzących wyniesionych ilość powtórzeń jest uzależniona od materiału, zazwyczaj są to jednak też trzy powtórzenia. Struktury otrzymane według podanej procedury spełniają postawione wymagania. Potwierdzono, iż możliwe jest otrzymanie struktur światłowodowych zol-żel na podłożach ceramicznych. Tłumienie jest na tyle małe, że światło może być transmitowane na niewielkie odległości, co jest wystarczające w układach, w których wymiar zazwyczaj nie przekracza pojedynczych centymetrów. Badania są kontynuowane w celu poprawy otrzymanych wyników 315

317 i opracowania, m.in. warstw czujnikowych, w których absorpcja zmienia się pod wpływem badanego czynnika (np. ph). Dodatkowo prowadzone są prace nad integracją warstw światłowodowych w kompletnym układzie optoelektronicznym wykonanym na podłożu LTCC. 5. Podsumowanie Rys. 4. Przykład światłowodu w kanale Przedstawiona praca dotyczy tematyki połączenia technologii LTCC oraz zol-żel, w całość w celu wykonania światłowodów planarnych, integrowanych w układach optoelektronicznych. Prowadzane badania pokazały, że połączenie tych technologii spowoduje rozszerzenie możliwości wykonywania mikroelektronicznych układów ceramicznych. Podziękowania Prace w ramach przedstawionego projektu wykonywane są m.in. dzięki grantom Ministerstwa Nauki i Szkolnictwa Wyższego (granty nr NN i NN ) oraz stypendium współfinansowanemu przez Unię Europejską w ramach Europejskiego Funduszu Społecznego. Literatura [1] L. Golonka, Zastosowanie ceramiki LTCC w elektronice; Oficyna Wydawnicza Politechniki Wrocławskiej, Wrocław 2001 [2] K. Maruszewski, Fizykochemia molekuł zamkniętych w zeolitach i zol żelach; Wydawnictwo Uniwersytetu Wrocławskiego (2000) THIN SOL-GEL FILMS AS OPTICAL WAVEGUIDES ON THE LTCC SUBSTRATES Researches on optical planar waveguides made in sol-gel technique on LTCC substrates have been presented. This kind of components can be used in integrated optoelectronics devices, what implicates higher scale of integration and reliability. Furthermore, thanks to this method it is possible to connect passive elements made in thick-film technology with planar optical waveguides on one substrate. Described structures can be used in many devices. The most interesting is their application in sensors with optical detection - telecommunication elements, e.g. optical switches or devices called "lab-on-chip". The presented paper is a general look at the topic and problems. For this reason, it contains description of two technologies (LTCC and sol-gel) and conditions which should be fulfill to join them together. Brief of the process flow and the sample of the sol-gel waveguide in channel made in LTCC substrate were presented as well. 316

318 Wytwarzanie kompozytów bioresorbowalnych z wykorzystaniem technologii laserowego selektywnego topienia proszków Anna Woźna 1, Jacek Reiner 1, Tomasz Kurzynowski 1, Edward Chlebus 1 Streszczenie: W pracy omówiono technologię wytwarzania kompozytów bioresorbowalnych z wykorzystaniem technologii laserowych. Metoda polega na selektywnym topieniu proszku kompozytu polimer/ceramika, warstwa po warstwie, co w efekcie pozwala uzyskać lity element o skomplikowanym kształcie, gotowy do wszczepienia pacjentowi. Słowa kluczowe: kompozyty bioresorbowalne, ceramika, polimer, hydroksyapatyt, laser 1. Wprowadzenie Proces wytwarzania implantów za pomocą technologii laserowych pozwala indywidualnie dostosowywać je do pacjenta, a także do poziomu uszkodzenia jego kości. Jedną z istotnych cech procesu, którą można manipulować, jest możliwość precyzyjnego określenia struktury implantu, mając tym samym wpływ na jego porowatość. W przypadku implantów bioresorbowalnych jest to kwestia kluczowa w kontekście określenia czasu w jakim implant zostanie wchłonięty przez organizm. Aby implant funkcjonował właściwie i spełniał wszystkie swoje funkcje, jego porowatość musi być zamodelowana w sposób umożliwiający późniejsze wnikanie krwi i komórek w jego kanały. Poprzednie rodzaje implantów mogły być penetrowane przez komórki pacjenta w ograniczonym zakresie. Nowa technika pozwala generować kanały o średnicy od 0,5 do 1 mm z dokładnością do 100 μm. 2. Metody laserowe Metoda laserowa polega na selektywnym (miejscowym) przetapianiu proszku materiału z indywidualnie dobranymi parametrami procesu, skoncentrowaną wiązką lasera, warstwa po warstwie, aż do otrzymania pełnej struktury geometrycznej modelu. Metoda umożliwia przetopienie materiału sięgające 99.99% [12]. Temperatura topnienia analizowanego polimeru to niespełna 200 C, dzięki czemu materiał jest doskonały do przeróbki laserem CO 2. Długość fali lasera CO 2 wynosi 10,6 μm, w związku z czym lasery te dostosowane są głównie do topienia proszków polimerowych. Decyduje o tym wysoki poziom absorpcji w zakresie podczerwieni (dla polimerów wynosi on w przybliżeniu 0,75 [15]). Inne resorbowalne materiały jak np. bioceramiki mogą być przetwarzane laserem jedynie poprzez osadzenie ich cząstek w matrycy jednego z wyżej wymienionych materiałów. 1 Instytut Technologii Maszyn i Automatyzacji, Politechnika Wrocławska, ul. Łukasiewicza 5, Wrocław, anna.wozna@pwr.wroc.pl 317

319 Rys. 1. Wykres prezentujący zmiany chłonności w zależności od długości fali (dla metali i stopów i materiałów organicznych) [12] 3. Analiza materiału i metod przetwarzania Materiał stosowany do wytwarzania implantów ma bardzo duże znaczenie. Hydroksyapatyt (HAp) jest odpowiednim materiałem do produkcji biodegradowalnych implantów, ponieważ jako składnik, naturalnie występującego w ludzkiej kości, pobudza organizm do odbudowy ubytków kostnych. Jednak ze względu na budowę chemiczną, HAp i jego pochodne nie mogą być bezpośrednio przetwarzane poprzez przetapianie, dlatego też, tylko w ograniczonym zakresie nadają się do przetwarzania za pomocą lasera. Głównie z tego powodu zaczęto poszukiwać materiału mogącego być dodatkiem, który wymieszany z proszkiem HAp generuje doskonałe właściwości kształtowania i topliwości. Podczas obróbki laserem, materiał w postaci proszku jest całkowicie przetapiany, więc tylko materiały, które osiągają stan liquidus mogą być rozpatrywane. Takie materiały to np. materiały na bazie polimeru lub bioglass. Grupą materiałów, która spełnia wszystkie te wymagania są degradowalne polimery. Rys. 2. Element wytworzony za pomocą lasera z polimeru resorbowalnego [4] 318

320 Kompozyt oparty na HAp z dodatkiem polimeru sprawia, że materiał jest łatwiejszy w kształtowaniu i w pełni resorbowalny. Łączenie dwóch materiałów ma również inne zalety natury medycznej. Podczas resorpcji polimerów wytwarza się specyficzne kwaśne środowisko w okolicy implantu (przyczyną jest laktydowa struktura polimeru resorbowalnego). Kwaśne środowisko w tkankach ludzkich powoduje reakcje zapalne. Takie otoczenie może zostać zmniejszone poprzez wykorzystanie kompozytów z materiałów alkalicznych takich jak ceramiki fosforanu wapnia. Wykorzystując kompozyt polimeru i ceramiki, również właściwości mechaniczne materiału zwiększają się w stosunku do czystego polimeru. Rys. 3. Kompozyt polimer/ceramika fosforanu wapnia w postaci proszku. SEM [4] Hydroksyapatyt, inaczej hydroksyfosforan wapnia, jest to sól kompleksowa wapniowo i fosforowo. W organizmie stanowi mineralne rusztowanie dla tkanki łącznej i jest odpowiedzialna za mechaniczną wytrzymałość kości. Bioceramika hydroksyapatytowa jest wysoce biozgodna zarówno jeśli chodzi o tkanki miękkie, jak i twarde. Ponadto, w przeciwieństwie do wielu materiałów, nie powoduje działania rakotwórczego, cytotoksycznego, drażniącego ani alergizującego. Bardzo dobrze adoptuje się w żywym organizmie i nie powoduje zapaleń. Przez bardzo długi okres czasu wykazuje stabilność fizyczną i chemiczną. Poza tym, bardzo dobrze znosi sterylizację. Szybkość resorpcji HAp jest uzależniona od stosunku molowego Ca/P w wyjściowym proszku zastosowanym do wytworzenia implantu a także od składu fazowego tworzywa po przetapianiu. Resorpcji ceramiki sprzyja obecność fazy szklistej na granicach międzyziarnowych oraz niewielkie ilości domieszek Mg 2+, F -, Co Czynnikiem, który również wpływa na szybkość resorpcji jest niski stopień krystaliczności, co jest równoznaczne z większym udziałem fazy amorficznej. 319

321 Rys. 4. Wytrzymałość na rozciąganie w stosunku do modułu sprężystości Young a dla materiałów wykorzystywanych do projektowania kompozytów o zastosowaniach biomedycznych [5] Przewagą biomateriałów polimerowych nad metalicznymi lub ceramicznymi jest ich degradowalność w środowisku biologicznym, łatwość wytwarzania produktów o zróżnicowanym i skomplikowanym kształcie, niski koszt a także dostępność gamy materiałów o szerokim zakresie właściwości mechanicznych i fizycznych. Istotnym jest także fakt, że sztywność polimerów jest zbliżona do sztywności kości w przeciwieństwie do materiałów metalicznych i ceramicznych. Wytrzymałość na rozciąganie i moduł sprężystości polimerów czyni je materiałami adekwatnymi do zastosowania jako implanty kości. Zaletami ceramiki w zastosowaniach medycznych jest jej wysoka porowatość, gęstość taka sama jak dla kości, odporność na ściskanie, a także odporność na korozję. Kluczową wadą natomiast, jest zbyt duża kruchość tego typu materiałów, dlatego też ich zastosowanie w implantologii rozszerza się wraz z możliwością kombinacji ceramiki z innymi materiałami tj.: metale lub polimery. 4. Podsumowanie Analizując założenia, które muszą być spełnione w przypadku wytwarzania kompozytów bioresorbowalnych podjęto próby z wykorzystaniem polimeru bioresorbowalnego a także ceramiki hydroksyapatytowej. Właściwości polimeru w połączeniu z właściwościami ceramiki gwarantują uzyskanie materiału o charakterystykach zbliżonych do naturalnych tkanek, które czasowo są zastępowane takimi właśnie elementami. 320

322 Metoda pozwala na wytwarzanie elementów o skomplikowanych kształtach (np. na podstawie obrazów CT) w jednej operacji. Ograniczona ilość operacji, wykorzystywany materiał, a także specyfika procesu daje szanse szybko reagować na zapotrzebowanie konkretnych pacjentów, a to rzutuje na zdecydowany postęp w rozwoju implantologii. Literatura [1] L. Hao, S. Dadbakhsh, O. Seaman, M. Felstead Selective laser melting of a stainless steel and hydroxyapatite composites for load-bearing implant development [2] L. Recularu, R. Eschler, P.Y. Eschler, J.M. Meyer Corrosion behavior of a welded stainless steel orthopedic implant [3] J.P. Kruth, G. Levy, F. Klocke and T.H.C. Childs Consolidation phenomena in laser and powder-bed based layered manufacturing [4] Hoeges S., Lindner M., Fischer H., Meiners W., Wissenbach K., Manufacturing of bone substitute implants using Selective Laser Melting [5] Pielichowska K., Błażewicz S., Bioactive polymer/hydroxyapatite (Nano)composites for Bone Tissue Regeneration [6] Puppi D., Chiellini F., Piras A.M., Chiellini E., Polymeric materials for bone and cartilage repair [7] Hollander A.D., Wirtz T., von Walter M., Linker R., Schultheis A., Paar O., Development of Individual Three-Dimensional Bone Substitutes Using Selective Laser Melting [8] Li J., Zuo Y., Cheng X., Yang W., Wang H., Li Y., Preparation and characterization of nanohydroxyapatite/polyamide 66 composite GBR membrane with asymmetric porous structure [9] Wang M., Yue C.Y., Chua B., Production and evaluation of hydroxyapatite reinforced polysulfone for tissue replacement [10] Ren J., Zhao P., Ren T., Gu S., Pan K., Poly (D,L-Lactide)/Nano-hydroxyapatite composite scaffolds for bone tissue engineering and biocompatibility evaluation [11] Gaasbeek D.A.R., Toonen G.H., van Heerwarden J.R., Buma P., Mechanism of bone incorporation of β-tcp bone substitute in open wedge tibial osteotomy in patients [12] J.C. Ion, Laser Processing of Engineering Materials, Elsevier, 2005 [13] Materiały z wykładu Biomateriały i biomimetyka, Prof. Romuald Będziński, Wrocław 2010 [14] Mao Y., Dong Y., Lin P, Chu C., Sheng X., Guo C., Preparation of poly (L-lactic acid) microspheres by droplet-freezing process [15] Tolochko N. K., Laoui T., Khlopkov Y. V., Mozzharov S. E., Titov V. I., Ignatiev M. B., Absorptance of powder materials suitable for laser sintering [16] Realizer GmbH (2010) [17] Dirk A. Hollander, Tobias Wirtz, Matthias von Walter, Ralph Linker, Axel Schultheis, Othmar Paar, Development of Individual Three-Dimensional Bone Substitutes Using Selective Laser Melting BIORESORBABLE COMPOSITES MADE USING SELECTIVE LASER MELTING Process of producing implants with laser technology allows to individually adjust them to the patient as well as to the level of damage to his bones. One of the important features of the process, which can be manipulated, it is possible to precisely determine the structure of the implant, having the same effect on its porosity. In the case of bioresorbable implants it is a key issue in the context of determining the time the implant is absorbed by the body. Giving properly function to the implant and meet all of its functions, its porosity must be modeled in a way that the subsequent penetration of the blood and cells in the channels. Previous types of implants could be penetrated by the patient's cells to a limited extent. The new technique can generate channels with a diameter of 0.5 to 1 mm with an accuracy of 100 microns. This method allows the production of parts with 321

323 complex shapes (eg based on CT images) in one operation. A limited number of operations, the material used and the specifics of the process gives a chance to respond quickly to the needs of individual patients, and this influences progress in the development of implantology. 322

324 Analiza stateczności ładowarko zwałowarki na podwoziu szynowym, na składowisku węgla brunatnego Władysław Kluczkiewicz 1 Streszczenie: W referacie przedstawiono zakres modernizacji ładowarko zwałowarki kołowo szynowej o oznaczeniu LZKS ,5/II, metodę i program badań, analizę otrzymanych wyników. Słowa kluczowe: Stateczność, pomiar tensometryczny, maszyny podstawowe. 1. Wstęp Analiza stateczności maszyn podstawowych górnictwa odkrywkowego była spowodowana zwiększoną degradacją pewnych elementów eksploatowanych lub awaryjnym zatrzymaniem w trakcie pracy maszyny wynikającym z utraty stateczności. Kolejne podobne przypadki wymusiły przeprowadzenie analizy stateczności po większych modernizacjach i remontach głównych. Modernizacja maszyny od zawsze wiązała się z wykorzystaniem najnowszych rozwiązań w technice. Efektem tego była zmiana ciężaru wielu podzespołów w konstrukcji maszyny takich jak: przekładnia główna koła czerpakowego z tradycyjnej wielostopniowej na planetarną, elementy instalacji sterującej i zasilającej oraz elementy samej konstrukcji nośnej. Porównując położenie i masy poszczególnych zespołów przed modernizacja z efektem końcowym środek ciężkości całej konstrukcji ulega przemieszczeniu w przestrzeni. Efektem zmiany położenia jest najczęściej degradacja, czyli zwiększone zużycie i zmniejszenie wytrzymałości materiału rodzimego z jakiego zostały wykonane elementy konstrukcyjne lub elementy współpracujące. Łożysko główne jako element zaliczany do głównych elementów nośnych konstrukcji ulega często uszkodzeniu nie pozwalającemu na regenerację, która by przywracała pełną wartość wytrzymałościową elementu bez zmiany innych walorów eksploatacyjnych samego węzła konstrukcyjnego. W tym konkretnym przypadku często występującym zjawiskiem jest pitting, czyli zmęczenie warstwy wierzchniej bieżni łożyska. Widocznym efektem występowania pittingu jest łuszcząca się powierzchnia bieżni w postaci listków materiału rodzimego bieżni łożyska. Listki materiału powstawały na skutek rozwalcowywania małych fragmentów łożyska głównego, które zostały wykruszone z powierzchni bieżni właśnie poprzez wystąpienie zjawiska pittingu. Ciągła praca łożyska zaprasowuje kolejne drobiny, natomiast czynnik smarujący pozostaje pomiędzy rozwalcowanymi drobinami, na skutek kolejnych cykli warstwa narasta, a następnie odspaja się od bieżni łożyska. W ten sposób odspojone listki materiału mogą powodować zatarcie lub okresowe zwiększenie oporów przy obrocie nadwozia maszyny. Miejsca występowania złuszczeń bieżni odwzorowują obszary, w których środek ciężkości maszyny zbliżył się do umownej krawędzi wywrotu, czyli również obrysu łożyska głównego. Wywołuje to większe obciążenia w konstrukcji sprzyjające zjawisku pittingu. W historii tych maszyn były opracowywane różnego rodzaju rozwiązania konstrukcyjne wydłużające czas eksploatacji bezawaryjnej dla łożyska na konstrukcjach dobrze balastowanych. Naprawy bieżące nie mają znaczącego wpływu na położenie środka ciężkości lecz czas jaki upływa pomiędzy generalnymi remontami i ilość ich występowania nie jest tak dokładnie 1 Wydział Mechaniczny Politechnika Wrocławska ul. Smoluchowskiego 48, Wrocław wladyslaw.kluczkiewicz@pwr.wroc.pl 323

325 udokumentowana by na ich podstawie można wyliczyć nowe położenie środka ciężkości. Ciężar balastu na przeciwwadze jest wyliczany wstępnie, a następnie dobierany zgodnie z wieloletnią praktyką i wytycznymi zamieszczonymi w polskich normach [6]. Analiza położenia środka ciężkości przeprowadza się dla skrajnych pozycji nadwozia zamieszczonych w opisie dokumentacji techniczno ruchowej ustroju nośnego. Parametry przeprowadzanych pomiarów oparte są o zasady eksperymentu, co wymusza wielokrotny pomiar oraz dopuszcza błąd przypadkowy i systematyczny. Niweluje się to odpowiednią częstotliwością próbkowania, kilkukrotnym pomiarem dla jednej konfiguracji ustroju nośnego, uśrednianiem wyników oraz doświadczeniem jakie zespół pomiarowy nabywał przez lata [1]. Stateczność maszyny będzie zachowana jeżeli rzut środka ciężkości w płaszczyźnie poziomej np. łożyska głównego zawarty będzie w obszarze bezpiecznym lub odległość od umownych krawędzi wywrotu będzie zachowana na odpowiednim poziomie. Dla konstrukcji ładowarko zwałowarki można wyznaczyć rzut dwóch współrzędnych środka ciężkości na płaszczyznę przechodzącą przez płaszczyznę podziału łożyska główne. Pionowe położenie środka ciężkości wylicza się na podstawie dokumentacji technicznej ładowarko zwałowarki. 2. Obiekt badań Obiektem badań była ładowarko-zwałowarka ŁZKS ,5 nr 2 (rys. 1) eksploatowana na placu uśredniania węgla w PGE O/KWB Bełchatów S.A. Zakres modernizacji na koparce obejmował wymianę głównego napędu koła czerpakowego z konwencjonalnego na hydrostatyczny, zmianę ciężaru przeciwwagi, jak i pomniejsze modernizacje wpływające nieznacznie na położenie środka ciężkości. Ładowarko zwałowarka porusza się na 32 kołach osadzonych w wahaczach po 2 szynach, napęd kół jest w całości elektryczny. Unikatowość konstrukcji badanej maszyny polega na zastosowaniu czteropunktowego podparcia na wózkach jezdnych i wymusza bardzo specyficzne warunki pracy, eksploatacji konstrukcji (rys. 3). Jest to układ statycznie niewyznaczalny. Rys. 1. Widok ładowarko-zwałowarki ŁZKS ,5 nr. 2 w dniu pomiarów od strony prawej [7] 3. Przebieg pomiaru Analizę stateczności maszyny przeprowadzono w oparciu o pomiary nacisków pod kołami podwozia szynowego (rys. 2). Jak wymieniona na wstępnie cała maszyna porusza się na 32 kołach 324

326 dlatego poszczególne pomiary były rejestrowane dłużej nie tylko dla czasu pomiędzy najechaniem pierwszego i zjechaniem ostatniego koła w zestawie z punktu pomiarowego, ale również z odpowiednim zapasem aby układ rejestracji mógł zapisać wartości gdy szyna nie była obciążona. Rys. 2. Punkt pomiarowy na szynie lewej [7] Rejestrowano przebiegi nacisków kolejnych kół podwozia podczas czterokrotnego przejeżdżania nad punktami pomiarowymi (dwa do przodu i dwa do tyłu) dla ośmiu położeń wysięgnika. Przebieg pomiarów zamieszczono w tabeli 1. Rys. 3. Przyjęte oznaczenia przegubów wahaczy głównych oraz kierunków obrotu nadwozia [7] Jednym z efektów końcowym jest wykres przedstawiających przebieg czasowy dla pojedynczego pomiaru przeskalowany dla potrzeb wizualizacji, (rys. 4). Na stójkach obu szyn umieszczono cztery punkty pomiarowe, po 2 na każdej szynie. Odległość miedzy punktami na jednej szynie wyniosła 5,60 m. 325

Interdyscyplinarność badań naukowych Praca zbiorowa pod redakcją Jarosława Szreka

Interdyscyplinarność badań naukowych Praca zbiorowa pod redakcją Jarosława Szreka Interdyscyplinarność badań naukowych 2011 Praca zbiorowa pod redakcją Jarosława Szreka Oficyna Wydawnicza Politechniki Wrocławskiej Wrocław 2011 Redakcja: Jarosław Szrek Współpraca: Ida Chojnacka, Paweł

Bardziej szczegółowo

ZAGADNIENIA PORZĄDKOWANIA MIEJSKIEJ PRZESTRZENI PUBLICZNEJ

ZAGADNIENIA PORZĄDKOWANIA MIEJSKIEJ PRZESTRZENI PUBLICZNEJ Budownictwo 18 Nina Sołkiewicz-Kos, Malwina Tubielewicz-Michalczuk ZAGADNIENIA PORZĄDKOWANIA MIEJSKIEJ PRZESTRZENI PUBLICZNEJ Wprowadzenie Przedmiotem pracy jest analiza przestrzeni miejskiej Gminy Kłomnice

Bardziej szczegółowo

LISTA LAUREATÓW Nagroda IV stopnia zestaw do grillowania

LISTA LAUREATÓW Nagroda IV stopnia zestaw do grillowania LISTA LAUREATÓW Nagroda IV stopnia zestaw do grillowania 1 Bronisław K. zweryfikowany 2 Marta B. w trakcie weryfikacji 3 Kazimierz S. zweryfikowany 4 Damian L. w trakcie weryfikacji 5 Marek Ś. w trakcie

Bardziej szczegółowo

I NAGRODA. Praca nr 2 otrzymała I nagrodę

I NAGRODA. Praca nr 2 otrzymała I nagrodę I NAGRODA Praca nr 2 otrzymała I nagrodę za najlepsze równoważenie wysokiej jakości przestrzeni publicznej i odpowiednich standardów zamieszkania w Śródmieściu oraz udaną próbę powiązania promenadowych

Bardziej szczegółowo

Wyższa Szkoła Finansów i Zarządzania w Białymstoku

Wyższa Szkoła Finansów i Zarządzania w Białymstoku Wyższa Szkoła Finansów i Zarządzania w Białymstoku Białystok 2011 SPIS TREŚCI OD REDAKTORA... 9 CZĘŚĆ I POLSKA SZKOŁA PLANOWANIA URBANISTYKI I ARCHITEKTURY Tadeusz Barucki Zapomniana architektura II Rzeczpospolitej...

Bardziej szczegółowo

KONCEPCJA URBANISTYCZNA ZAGOSPODAROWANIA WYSPY SPICHRZÓW W ELBLĄGU- CZEŚĆ OPISOWA

KONCEPCJA URBANISTYCZNA ZAGOSPODAROWANIA WYSPY SPICHRZÓW W ELBLĄGU- CZEŚĆ OPISOWA KONCEPCJA URBANISTYCZNA ZAGOSPODAROWANIA WYSPY SPICHRZÓW W ELBLĄGU- CZEŚĆ OPISOWA 1. IDEA: Ideą projektu jest przywróceniu miastu Elbląg wyspy Spichrzów, z nowym ładem przestrzennym i funkcjonalnym, oraz

Bardziej szczegółowo

WYTYCZNE KSZTAŁTOWANIA SYSTEMU TRANSPORTOWEGO CENTRUM MIASTA Referat wprowadzający

WYTYCZNE KSZTAŁTOWANIA SYSTEMU TRANSPORTOWEGO CENTRUM MIASTA Referat wprowadzający IV KONFERENCJA NAUKOWO TECHNICZNA MIASTO I TRANSPORT 2010 WYTYCZNE KSZTAŁTOWANIA SYSTEMU TRANSPORTOWEGO CENTRUM MIASTA Referat wprowadzający MARIUSZ DUDEK Politechnika Krakowska 24 lutego 2010 Politechnika

Bardziej szczegółowo

Lista zwycięzców za okres r.

Lista zwycięzców za okres r. Lista zwycięzców za okres 4.08.2014 10.08.2014 r. MIECZYSŁAW S. PIOTR W. ANASTAZJA B. STEFAN J. IRENA K. JERZY K. HELENA R. KAZIMIERZ C. JERZY G. ZOFIA M. EDWARD B. EWA S.P. MIECZYSŁAW D. GRZEGORZ K. JOLANTA

Bardziej szczegółowo

CHORZÓW CENTRUM KONCEPCJA NOWEGO UKŁADU KOMUNIKACYJNEGO KONCEPCJA ZAGOSPODAROWANIA OBSZARU CENTRUM CHORZOWA W REJONIE RYNKU

CHORZÓW CENTRUM KONCEPCJA NOWEGO UKŁADU KOMUNIKACYJNEGO KONCEPCJA ZAGOSPODAROWANIA OBSZARU CENTRUM CHORZOWA W REJONIE RYNKU CHORZÓW CENTRUM KONCEPCJA NOWEGO UKŁADU KOMUNIKACYJNEGO KONCEPCJA ZAGOSPODAROWANIA OBSZARU CENTRUM CHORZOWA W REJONIE RYNKU 41-501 CHORZÓW, ALEJA RÓŻANA 6 /PARK ŚLĄSKI/, TEL. 32 745 27 24, e-mail: biuro@franta-franta.pl

Bardziej szczegółowo

Paweł Sałek Sekretarz Stanu, Pełnomocnik Rządu ds. Polityki Klimatycznej, Ministerstwo Środowiska

Paweł Sałek Sekretarz Stanu, Pełnomocnik Rządu ds. Polityki Klimatycznej, Ministerstwo Środowiska PLANOWANIE PRZESTRZENNE AGLOMERACJI DUŻYCH MIAST DLA ŁAGODZENIA ZMIAN KLIMATU W KONTEKŚCIE ZRÓWNOWAŻONEGO ROZWOJU Paweł Sałek Sekretarz Stanu, Pełnomocnik Rządu ds. Polityki Klimatycznej, Ministerstwo

Bardziej szczegółowo

PROJEKT MODERNIZACJI UL. EMILII PLATER WRAZ Z SYSTEMEM ROWERU MIEJSKO-AKADEMICKIEGO. Karolina Jesionkiewicz KNIK/TransEko

PROJEKT MODERNIZACJI UL. EMILII PLATER WRAZ Z SYSTEMEM ROWERU MIEJSKO-AKADEMICKIEGO. Karolina Jesionkiewicz KNIK/TransEko Politechnika Warszawska, 6 grudzień 2007 PROJEKT MODERNIZACJI UL. EMILII PLATER WRAZ Z SYSTEMEM ROWERU MIEJSKO-AKADEMICKIEGO Karolina Jesionkiewicz KNIK/TransEko Krzysztof Masłowski KNIK/FABER MAUNSELL

Bardziej szczegółowo

KONCEPCJA ZAGOSPODAROWANIA PRZESTRZENNEGO OBSZARU NIECAŁA

KONCEPCJA ZAGOSPODAROWANIA PRZESTRZENNEGO OBSZARU NIECAŁA KONCEPCJA ZAGOSPODAROWANIA PRZESTRZENNEGO OBSZARU NIECAŁA GŁÓWNE ZAŁOŻENIA PROJEKTOWE. Głównym założeniem projektu było stworzenie atrakcyjnej przestrzeni publicznej, składającej się z placu miejskiego,

Bardziej szczegółowo

ŚRÓDMIEŚCIE WARSZAWY w XX WIEKU

ŚRÓDMIEŚCIE WARSZAWY w XX WIEKU Krystyna Guranowska-Gruszecka ŚRÓDMIEŚCIE WARSZAWY w XX WIEKU Warszawa, lipiec 2013 Szkoła Wyższa im. Bogdana Jańskiego Spis treści STRESZCZENIE... 11 SUMMARY... 15 WPROWADZENIE... 19 CZĘŚĆ I EWOLUCJA

Bardziej szczegółowo

Identyfikacja zagrożeń załogi pojazdów specjalnych podczas wybuchu

Identyfikacja zagrożeń załogi pojazdów specjalnych podczas wybuchu Identyfikacja zagrożeń załogi pojazdów specjalnych podczas wybuchu Edyta KRZYSTAŁA Sławomir KCIUK Arkadiusz MĘŻYK Identyfikacja zagrożeń załogi pojazdów specjalnych podczas wybuchu Autorzy monografii

Bardziej szczegółowo

Lp. Laureat Nagroda 1 Jarozlaw G. I stopnia 2 Jacek K. I stopnia 3 Przemysław B. I stopnia 4 Damian K. I stopnia 5 Tadeusz G. I stopnia 6 Bogumiła Ł.

Lp. Laureat Nagroda 1 Jarozlaw G. I stopnia 2 Jacek K. I stopnia 3 Przemysław B. I stopnia 4 Damian K. I stopnia 5 Tadeusz G. I stopnia 6 Bogumiła Ł. Lp. Laureat Nagroda 1 Jarozlaw G. I stopnia 2 Jacek K. I stopnia 3 Przemysław B. I stopnia 4 Damian K. I stopnia 5 Tadeusz G. I stopnia 6 Bogumiła Ł. II stopnia 7 Marek C. II stopnia 8 Agnieszka K. II

Bardziej szczegółowo

Zwycięzcy loterii promocyjnej Kamis Smaki 25-lecia. II losowanie edycja jesienna r.

Zwycięzcy loterii promocyjnej Kamis Smaki 25-lecia. II losowanie edycja jesienna r. Zwycięzcy loterii promocyjnej Kamis Smaki 25-lecia II losowanie edycja jesienna 1.08-31.10.2016 r. Laureat nagrody I stopnia 25 000 zł Kamila G. Laureaci nagród II stopnia młynków do przypraw Maria D.

Bardziej szczegółowo

NOWA WILDA. fragment miasta. jednostka urbanistyczna z dominującą funkcją mieszkaniową. Mapa miejska

NOWA WILDA. fragment miasta. jednostka urbanistyczna z dominującą funkcją mieszkaniową. Mapa miejska NOWA WILDA fragment miasta jednostka urbanistyczna z dominującą funkcją mieszkaniową Mapa miejska KLIN ZIELENI wg prof. Władysława Czarneckiego Dopływ świeżych idei dla nowych wyzwań Miasta Koncepcja funkcjonalno-przestrzenna

Bardziej szczegółowo

Polski Instytut Kultury w Kopenhadze

Polski Instytut Kultury w Kopenhadze Polski Instytut Kultury w Kopenhadze 01.04.2012 Polski Instytut Kultury w Kopenhadze 01.04.2012 Polski Instytut Kultury w Kopenhadze 01.04.2012 Polski Instytut Kultury w Kopenhadze 03.04.2012 POLSKI INSTYTUT

Bardziej szczegółowo

PROJEKTOWANIE URBANISTYCZNE A TWORZENIE PRZESTRZENI PUBLICZNEJ. prof. dr hab. arch. Sławomir Gzell

PROJEKTOWANIE URBANISTYCZNE A TWORZENIE PRZESTRZENI PUBLICZNEJ. prof. dr hab. arch. Sławomir Gzell PROJEKTOWANIE URBANISTYCZNE A TWORZENIE PRZESTRZENI PUBLICZNEJ prof. dr hab. arch. Sławomir Gzell TOśSAMOŚĆ MIASTA CO OZNACZA TOśSAMOŚĆ MIASTA W ZNACZENIU FIZYCZNYM? ZROZUMIAŁA STRUKTURA GĘSTA TKANKA ZDEFINIWANY

Bardziej szczegółowo

SPOTKANIE WARSZTATOWE GDAŃSKI STANDARD ULICY MIEJSKIEJ

SPOTKANIE WARSZTATOWE GDAŃSKI STANDARD ULICY MIEJSKIEJ SPOTKANIE WARSZTATOWE GDAŃSKI STANDARD ULICY MIEJSKIEJ Gdańsk, 24.01.2018r. 1. Skrzyżowania o dużej zajętości terenu 2. Przekrój z trzema jezdniami i tramwajem 3. Brak pełnych relacji skrętnych na skrzyżowaniach

Bardziej szczegółowo

Lista zwycięzców 30 zł na start z BZWBK24 mobile

Lista zwycięzców 30 zł na start z BZWBK24 mobile Lista zwycięzców 30 zł na start z BZWBK24 mobile KRYSTYNA S. KRYSTYNA C. EDWARD F. KAROLINA C. WOJCIECH T. JANINA F. FRANCISZKA G. HENRYK H. MIROSŁAW W. JULI BARBARA H. CELINA Ł. STANISŁAW K. HELENA S.

Bardziej szczegółowo

SYMULACYJNA OCENA POTENCJAŁU ROZWOJOWEGO MIAST WOJEWÓDZTWA LUBUSKIEGO W KONTEKŚCIE WSPÓŁPRACY TRANSGRANICZNEJ Z BRANDENBURGIĄ

SYMULACYJNA OCENA POTENCJAŁU ROZWOJOWEGO MIAST WOJEWÓDZTWA LUBUSKIEGO W KONTEKŚCIE WSPÓŁPRACY TRANSGRANICZNEJ Z BRANDENBURGIĄ Streszczenie SYMULACYJNA OCENA POTENCJAŁU ROZWOJOWEGO MIAST WOJEWÓDZTWA LUBUSKIEGO W KONTEKŚCIE WSPÓŁPRACY TRANSGRANICZNEJ Z BRANDENBURGIĄ Celem analiz było wskazanie miast i obszarów w województwie lubuskim,

Bardziej szczegółowo

PRZYZNANE NAGRODY, OPINIE O PRACACH KONKURSOWYCH

PRZYZNANE NAGRODY, OPINIE O PRACACH KONKURSOWYCH PRZYZNANE NAGRODY, OPINIE O PRACACH KONKURSOWYCH I NAGRODĘ w wysokości 66 000 zł brutto oraz zaproszenie do negocjacji w trybie zamówienia z wolnej ręki na opracowanie dokumentacji projektowej będącej

Bardziej szczegółowo

MODERNIZACJA ELEWACJI W OBIEKTACH UŻYTECZNOŚCI PUBLICZNEJ NA PRZYKŁADZIE KLUBU POLITECHNIK POLITECHNIKI CZĘSTOCHOWSKIEJ

MODERNIZACJA ELEWACJI W OBIEKTACH UŻYTECZNOŚCI PUBLICZNEJ NA PRZYKŁADZIE KLUBU POLITECHNIK POLITECHNIKI CZĘSTOCHOWSKIEJ Budownictwo 23 DOI: 10.17512/znb.2017.1.29 Nina Sołkiewicz-Kos 1, Malwina Tubielewicz-Michalczuk 2 MODERNIZACJA ELEWACJI W OBIEKTACH UŻYTECZNOŚCI PUBLICZNEJ NA PRZYKŁADZIE KLUBU POLITECHNIK POLITECHNIKI

Bardziej szczegółowo

12 NOWA WYSPA W ELBLĄGU KONKURS NA OPRACOWANIE KONCEPCJI URBANISTYCZNEJ ZAGOSPODAROWANIA WYSPY SPICHRZÓW W ELBLĄGU

12 NOWA WYSPA W ELBLĄGU KONKURS NA OPRACOWANIE KONCEPCJI URBANISTYCZNEJ ZAGOSPODAROWANIA WYSPY SPICHRZÓW W ELBLĄGU 8 12 NOWA WYSPA W ELBLĄGU KONKURS NA OPRACOWANIE KONCEPCJI URBANISTYCZNEJ ZAGOSPODAROWANIA WYSPY SPICHRZÓW W ELBLĄGU IDEA PROJEKTU PODSTAWOWYM ZAŁOŻENIEM PROJEKTU KONCEPCJI JEST ZAPROPONOWANIE TAKICH FUNKCJI,

Bardziej szczegółowo

Podhalańska Państwowa Wyższa Szkoła Zawodowa w Nowym Targu

Podhalańska Państwowa Wyższa Szkoła Zawodowa w Nowym Targu Wygenerowano: 017-10-0 18:55:50.75917, A-1-16-17 Podhalańska Państwowa Wyższa Szkoła Zawodowa w Nowym Targu Informacje ogólne Nazwa Kompozycja architektoniczno-urbanistyczna. Zespoły mieszkaniowe Status

Bardziej szczegółowo

Laureaci z poszczególnych dni: Stella Sz. Janina B. Ewa G. Przemysław S. Martyna K. Jarosław P. Rafał P. Renata N Michał K.

Laureaci z poszczególnych dni: Stella Sz. Janina B. Ewa G. Przemysław S. Martyna K. Jarosław P. Rafał P. Renata N Michał K. Laureaci z poszczególnych dni: 16-02-2018 Stella Sz. Janina B. Ewa G. Przemysław S. Martyna K. Jarosław P. Rafał P. Renata N. 17-02-2018 Michał K. Elżbieta J. Grzegorz P. Agata Sz. Krzysztof K. Karina

Bardziej szczegółowo

WARUNKI FUNKCJONALNE DLA BUDOWY PARKINGU WIELOPOZIOMOWEGO PRZY UL. NAWROT 3/5 W ŁODZI

WARUNKI FUNKCJONALNE DLA BUDOWY PARKINGU WIELOPOZIOMOWEGO PRZY UL. NAWROT 3/5 W ŁODZI WARUNKI FUNKCJONALNE DLA BUDOWY PARKINGU WIELOPOZIOMOWEGO PRZY UL. NAWROT 3/5 W ŁODZI 1. Nazwa przedsięwzięcia: Budowa parkingu wielopoziomowego przy ul. Nawrot 3/5 w Łodzi 2. Adres obiektu: Łódź, ul.

Bardziej szczegółowo

Rewitalizacja EC1. Węzeł Multimodalny Łódź Fabryczna

Rewitalizacja EC1. Węzeł Multimodalny Łódź Fabryczna Nowe Centrum Łodzi Projekt Nowe Centrum Łodzi stanowi część miejskiego programu zagospodarowania terenów poprzemysłowych tzw. lokalnego programu rewitalizacji. Polega on na budowie nowego centrum Miasta,

Bardziej szczegółowo

Analiza wytrzymałościowa 5 rodzajów kształtowników

Analiza wytrzymałościowa 5 rodzajów kształtowników Katedra Konstrukcji I Badań Maszyn Raport serii SPR nr 10/2018 Analiza wytrzymałościowa 5 rodzajów kształtowników Wybrzeże Wyspiańskiego 27 50-370 Wrocław Polska Tel: +48 71 320 38 60 Fax: +48 71 320 31

Bardziej szczegółowo

Rynek a władza publiczna; kształtowanie przestrzeni miasta Nowa polityka miejska-implikacje dla strategii rozwoju Krakowa 2030

Rynek a władza publiczna; kształtowanie przestrzeni miasta Nowa polityka miejska-implikacje dla strategii rozwoju Krakowa 2030 Rynek a władza publiczna; kształtowanie przestrzeni miasta Nowa polityka miejska-implikacje dla strategii rozwoju Krakowa 2030 Olgierd Dziekoński Kraków 22.02.2016 1 Rynek wobec przestrzeni miasta; ustawa

Bardziej szczegółowo

Tematy prac inżynierskich dla studentów VI semestru kierunku Architektura Krajobrazu w semestrze letnim 2011/2012

Tematy prac inżynierskich dla studentów VI semestru kierunku Architektura Krajobrazu w semestrze letnim 2011/2012 Tematy prac inżynierskich dla studentów VI semestru kierunku Architektura Krajobrazu w semestrze letnim 2011/2012 doc. dr inż. arch. Artur Buława - Gabryszewski Tel kom: 603 185 431 1. Projekty zagospodarowania

Bardziej szczegółowo

Ćwiczenie 2. Na tropach średniowiecznego miasta

Ćwiczenie 2. Na tropach średniowiecznego miasta Ćwiczenie 2 Na tropach średniowiecznego miasta Na tropach średniowiecza Ćwiczenie wykonywane w zespołach 2-osobowych Czas na opracowanie: ok. 6 kolejnych zajęć Forma: opracowanie rysunkowotekstowe w formacie

Bardziej szczegółowo

PRZEDMIOT : TEORIA URBANISTYKI WSPÓŁCZESNEJ PROWADZĄCY : Prof. dr hab. inż. arch. KRZYSZTOF BIEDA OPRACOWANIE: KAROLINA ŁABĘCKA, ANETA GRZYMKOWSKA,

PRZEDMIOT : TEORIA URBANISTYKI WSPÓŁCZESNEJ PROWADZĄCY : Prof. dr hab. inż. arch. KRZYSZTOF BIEDA OPRACOWANIE: KAROLINA ŁABĘCKA, ANETA GRZYMKOWSKA, PRZEDMIOT : TEORIA URBANISTYKI WSPÓŁCZESNEJ PROWADZĄCY : Prof. dr hab. inż. arch. KRZYSZTOF BIEDA OPRACOWANIE: KAROLINA ŁABĘCKA, ANETA GRZYMKOWSKA, MAREK WĘGLARZ TEMAT: Zieleń jako 'tworzywo' w kompozycji

Bardziej szczegółowo

Master Plan dla Poznańskiej Kolei Metropolitalnej. Poznań, 21 kwietnia 2017 r.

Master Plan dla Poznańskiej Kolei Metropolitalnej. Poznań, 21 kwietnia 2017 r. Master Plan dla Poznańskiej Kolei Metropolitalnej Poznań, 21 kwietnia 2017 r. Koncepcja budowy funkcjonalnych węzłów przesiadkowych PKM w kierunku zwiększenia ich dostępności oraz oferowania usług komplementarnych

Bardziej szczegółowo

STRATEGIA ROZWOJU I ZARZĄDZANIA TERENAMI ZIELENI DLA WILANOWA DLACZEGO WARTO?

STRATEGIA ROZWOJU I ZARZĄDZANIA TERENAMI ZIELENI DLA WILANOWA DLACZEGO WARTO? STRATEGIA ROZWOJU I ZARZĄDZANIA TERENAMI ZIELENI DLA WILANOWA DLACZEGO WARTO? Miasteczko Wilanów, Warszawa Lokalizacja: Dzielnica Wilanów m.st. Warszawy Powierzchnia terenu opracowania: 169 ha, w tym >20

Bardziej szczegółowo

KURS ARCHITEKTONICZNY

KURS ARCHITEKTONICZNY 131111 NA OPRACOWANIE KONCEPCJI PROGRAMOWO- PRZESTRZENNEJ ZAGOSPODAROWANIA ALEI PAPIEŻA JANA PAWŁA II I ZABUDOWY KWARTAŁÓW PRZYLEGŁYCH W REJONIE PLACU LOTNIKÓW I PLACU ŻOŁNIERZA POLSKIEGO W SZCZECINIE

Bardziej szczegółowo

Modernistyczne Śródmieście decyzją Prezydenta RP Pomnikiem Historii

Modernistyczne Śródmieście decyzją Prezydenta RP Pomnikiem Historii Modernistyczne Śródmieście decyzją Prezydenta RP Pomnikiem Historii Prezydent RP Bronisław Komorowski uznał układ urbanistyczny śródmieścia Gdyni za Pomnik Historii - to najwyższe krajowe wyróżnienie nadawane

Bardziej szczegółowo

połączenie obszaru Wyspy z rzeką główną przestrzenią publiczną,

połączenie obszaru Wyspy z rzeką główną przestrzenią publiczną, GŁÓWNE ZAŁOŻENIA KONCEPCYJNE połączenie obszaru Wyspy z rzeką główną przestrzenią publiczną, wytworzenie przestrzeni publicznych w oparciu o historyczne siatki urbanistyczne, aktywizacja obszaru przez

Bardziej szczegółowo

Aktualności - Urząd Miasta Częstochowy Oficjalny portal miejski

Aktualności - Urząd Miasta Częstochowy Oficjalny portal miejski 1 kwietnia 2014 PROGRAM OCHRONY PRZED HAŁASEM W ramach Programu ochrony środowiska przed hałasem dla miasta Częstochowy na lata 2013-2018, uchwalonego podczas ostatniej sesji przez Radę Miasta zaproponowano

Bardziej szczegółowo

UZASADNIENIE DO UCHWAŁY NR XXX/414/VI/2012 RADY MIASTA POZNANIA z dnia 17 kwietnia 2012r.

UZASADNIENIE DO UCHWAŁY NR XXX/414/VI/2012 RADY MIASTA POZNANIA z dnia 17 kwietnia 2012r. UZASADNIENIE DO UCHWAŁY NR XXX/414/VI/2012 RADY MIASTA POZNANIA z dnia 17 kwietnia 2012r. w sprawie miejscowego planu zagospodarowania przestrzennego Krzesiny rejon ulicy Tarnowskiej część B w Poznaniu.

Bardziej szczegółowo

- STWORZENIE WSPÓŁCZESNEGO MIASTA WYKORZYSTUJĄCEGO WALORY SWEGO POŁOŻENIA NAD RZEKĄ, MIĘDZY WZGÓRZAMI, PRZYJAZNEGO DLA MIESZKAŃCÓW l INTERESUJĄCEGO DL

- STWORZENIE WSPÓŁCZESNEGO MIASTA WYKORZYSTUJĄCEGO WALORY SWEGO POŁOŻENIA NAD RZEKĄ, MIĘDZY WZGÓRZAMI, PRZYJAZNEGO DLA MIESZKAŃCÓW l INTERESUJĄCEGO DL - STWORZENIE WSPÓŁCZESNEGO MIASTA WYKORZYSTUJĄCEGO WALORY SWEGO POŁOŻENIA NAD RZEKĄ, MIĘDZY WZGÓRZAMI, PRZYJAZNEGO DLA MIESZKAŃCÓW l INTERESUJĄCEGO DLA PRZYBYSZÓW. Istniejące centrum, uzupełnione o nową

Bardziej szczegółowo

Tak będzie wyglądał Teatr Miejski

Tak będzie wyglądał Teatr Miejski Tak będzie wyglądał Teatr Miejski Rozstrzygnięto konkurs na opracowanie koncepcji architektonicznej przebudowy Teatru Miejskiego im. Witolda Gombrowicza. Autorem zwycięskiej pracy jest warszawskie biuro

Bardziej szczegółowo

Ćwiczenie 3. Na tropach średniowiecznego miasta

Ćwiczenie 3. Na tropach średniowiecznego miasta Ćwiczenie 3 Na tropach średniowiecznego miasta Na tropach średniowiecza Ćwiczenie wykonywane w zespołach 2-osobowych Czas na opracowanie: 6 tygodni Forma: opracowanie rysunkowotekstowe w formacie A3 Termin

Bardziej szczegółowo

Problemy planowania przestrzennego w polskich metropoliach. Zbigniew K. Zuziak

Problemy planowania przestrzennego w polskich metropoliach. Zbigniew K. Zuziak Problemy planowania przestrzennego w polskich metropoliach Zbigniew K. Zuziak Kraków, 08.09.2016 Założenie: nastąpią korzystne zmiany w systemie planowania przestrzennego w Polsce, ale SZCZEBEL KRAJOWY

Bardziej szczegółowo

Plan zagospodarowania przestrzennego województwa stanowi podstawowe narzędzie dla prowadzenia polityki przestrzennej w jego obszarze.

Plan zagospodarowania przestrzennego województwa stanowi podstawowe narzędzie dla prowadzenia polityki przestrzennej w jego obszarze. Plan zagospodarowania przestrzennego województwa stanowi podstawowe narzędzie dla prowadzenia polityki przestrzennej w jego obszarze. Jej prowadzenie służy realizacji celu publicznego, jakim jest ochrona

Bardziej szczegółowo

Lokalizacja. Szczecin - centrum regionu Pomorza i południowego Bałtyku, największe miasto w regionie z 400 tys. mieszkańców. MAKROREGION POMERANIA

Lokalizacja. Szczecin - centrum regionu Pomorza i południowego Bałtyku, największe miasto w regionie z 400 tys. mieszkańców. MAKROREGION POMERANIA MAKROREGION POMERANIA Lokalizacja Szczecin - centrum regionu Pomorza i południowego Bałtyku, największe miasto w regionie z 400 tys. mieszkańców. 1 h Miejsce intensywnej współpracy transgranicznej oraz

Bardziej szczegółowo

ARCHITEKTURA II Rzeczypospolitej inspiracje do przygotowania konkursowego LAPBOOKA

ARCHITEKTURA II Rzeczypospolitej inspiracje do przygotowania konkursowego LAPBOOKA ARCHITEKTURA II Rzeczypospolitej inspiracje do przygotowania konkursowego LAPBOOKA MODERNIZM Cechy architektury modernistycznej: FUNKCJONALIZM, czyli architektura dostosowana do potrzeb: dostęp do świeżego

Bardziej szczegółowo

Anna K. Marek K. Karolina K. Barbara K. Katarzyna K. Kamil K. Małgorzata J. Renata F. Andrzej C. Anna N. Anna M. Katarzyna M. Iwona Ł. Agnieszka T.

Anna K. Marek K. Karolina K. Barbara K. Katarzyna K. Kamil K. Małgorzata J. Renata F. Andrzej C. Anna N. Anna M. Katarzyna M. Iwona Ł. Agnieszka T. Anna K. Marek K. Karolina K. Barbara K. Katarzyna K. Kamil K. Małgorzata J. Renata F. Andrzej C. Anna N. Anna M. Katarzyna M. Iwona Ł. Agnieszka T. Ilona K. Milena G. Zdzisław K. Sandra M. Daniel S. Elżbieta

Bardziej szczegółowo

DOGODNE POŁOŻENIE(Trans europejska sieć transportowa)

DOGODNE POŁOŻENIE(Trans europejska sieć transportowa) ELBLĄG Strefa dobrych inwestycji Urząd Miejski w Elblągu Adam Witek Wiceprezydent Elbląga www.elblag.eu DOGODNE POŁOŻENIE(Trans europejska sieć transportowa) Elbląg leży na skrzyżowaniu krajowych dróg

Bardziej szczegółowo

LOKALE NA WYNAJEM PLATFORMA DLA HANDLU DETALICZNEGO

LOKALE NA WYNAJEM PLATFORMA DLA HANDLU DETALICZNEGO LOKALE NA WYNAJEM PLATFORMA DLA HANDLU DETALICZNEGO TRENDY Od kilku lat na polskim rynku handlu zachodzą bardzo dynamiczne zmiany. Klienci cenią wygodę i szybkość zakupów dokonywanych blisko domu oraz

Bardziej szczegółowo

Wydział Architektury Kierunek: Gospodarka Przestrzenna Specjalność: Planowanie Przestrzenne Studia 2-go stopnia

Wydział Architektury Kierunek: Gospodarka Przestrzenna Specjalność: Planowanie Przestrzenne Studia 2-go stopnia Wydział Architektury Kierunek: Gospodarka Przestrzenna Specjalność: Planowanie Przestrzenne Studia 2-go stopnia PRACA DYPLOMOWA Ocena atrakcyjności ośrodków osadniczych regionu łódzkiego w kontekście przebiegu

Bardziej szczegółowo

LISTA LAUREATÓW Anna K. Marek K. Karolina K. Barbara K. Katarzyna K. Kamil K. Małgorzata J. Renata F. Andrzej C. Anna N. Anna M. Katarzyna M.

LISTA LAUREATÓW Anna K. Marek K. Karolina K. Barbara K. Katarzyna K. Kamil K. Małgorzata J. Renata F. Andrzej C. Anna N. Anna M. Katarzyna M. LISTA LAUREATÓW Anna K. Marek K. Karolina K. Barbara K. Katarzyna K. Kamil K. Małgorzata J. Renata F. Andrzej C. Anna N. Anna M. Katarzyna M. Iwona Ł. Agnieszka T. Ilona K. Milena G. Zdzisław K. Sandra

Bardziej szczegółowo

dr inż. Andrzej Brzeziński

dr inż. Andrzej Brzeziński dr inż. Andrzej Brzeziński (Politechnika Warszawska) mgr inż. Agnieszka Rogala (TransEko) PRZEMIANY W CENTRUM LEICESTER UWARUNKOWANIA WIZJA STRATEGIA REALIZACJA EFEKTY UWARUNKOWANIA 300 tys. mieszkańców

Bardziej szczegółowo

UZASADNIENIE DO UCHWAŁY NR V/51/VIII/2019 RADY MIASTA POZNANIA z dnia 8 stycznia 2019r.

UZASADNIENIE DO UCHWAŁY NR V/51/VIII/2019 RADY MIASTA POZNANIA z dnia 8 stycznia 2019r. UZASADNIENIE DO UCHWAŁY NR V/51/VIII/2019 RADY MIASTA POZNANIA z dnia 8 stycznia 2019r. w sprawie miejscowego planu zagospodarowania przestrzennego dla terenu w rejonie ulic Cmentarnej i Grunwaldzkiej

Bardziej szczegółowo

KONKURS MIEJSKI 9/5. Zespół autorski arch. Tadeusz Michalak arch. Elżbieta Pytlarz arch. Jan Zamasz KONKURS SARP

KONKURS MIEJSKI 9/5. Zespół autorski arch. Tadeusz Michalak arch. Elżbieta Pytlarz arch. Jan Zamasz KONKURS SARP KONKURS SARP Konkurs na opracowanie koncepcji fragmentu Śródmieścia wzdłuż Trasy W-Z został przeprowadzony przez Stowarzyszenie Architektów Polskich Oddział w Lublinie na zlecenie Prezydenta i Zarządu

Bardziej szczegółowo

Oferta badawcza Politechniki Gdańskiej. Wydział Architektury KATEDRA ARCHITEKTURY UŻYTECZNOŚCI PUBLICZNEJ

Oferta badawcza Politechniki Gdańskiej. Wydział Architektury KATEDRA ARCHITEKTURY UŻYTECZNOŚCI PUBLICZNEJ KATEDRA ARCHITEKTURY UŻYTECZNOŚCI PUBLICZNEJ kierownik katedry: dr hab. inż. arch. Elżbieta Ratajczyk-Piątkowska tel.: 058 347-21-33 e-mail: mamout@neostrada.pl adres www: http://www.arch.pg.gda.pl/?id=podstrony&idp=4&jezyk=pl&idd=7

Bardziej szczegółowo

PROBLEMY ZAGOSPODAROWANIA PRZESTRZENNEGO W OBSZARZE ŚRÓDMIEJSKIM

PROBLEMY ZAGOSPODAROWANIA PRZESTRZENNEGO W OBSZARZE ŚRÓDMIEJSKIM IV KONFERENCJA NAUKOWO TECHNICZNA MIASTO I TRANSPORT 2010 PROBLEMY ZAGOSPODAROWANIA PRZESTRZENNEGO W OBSZARZE ŚRÓDMIEJSKIM JOLANTA LATAŁA Biuro Architektury i Planowania Przestrzennego, Urząd m.st. Warszawy

Bardziej szczegółowo

Przebudowa ciągu komunikacyjnego jako koło zamachowe rewitalizacji obszarowej, na przykładzie Al. Piłsudskiego w Markach

Przebudowa ciągu komunikacyjnego jako koło zamachowe rewitalizacji obszarowej, na przykładzie Al. Piłsudskiego w Markach Przebudowa ciągu komunikacyjnego jako koło zamachowe rewitalizacji obszarowej, na przykładzie Al. Piłsudskiego w Markach 1 Rewitalizacja obszarowa jako szansa na zmianę sposobu zagospodarowania ciągów

Bardziej szczegółowo

Przystąpienie do sporządzenia miejscowego planu zagospodarowania przestrzennego W rejonie ulicy Gołębiej w Poznaniu

Przystąpienie do sporządzenia miejscowego planu zagospodarowania przestrzennego W rejonie ulicy Gołębiej w Poznaniu Przystąpienie do sporządzenia miejscowego planu zagospodarowania przestrzennego W rejonie ulicy Gołębiej w Poznaniu I konsultacje społeczne Poznań, 23 marca 2017 r. Zespół projektowy: Adam Derc - kierownik

Bardziej szczegółowo

Projekt miejscowego planu zagospodarowania przestrzennego W rejonie ulicy Gołębiej w Poznaniu

Projekt miejscowego planu zagospodarowania przestrzennego W rejonie ulicy Gołębiej w Poznaniu Projekt miejscowego planu zagospodarowania przestrzennego W rejonie ulicy Gołębiej w Poznaniu II konsultacje społeczne Poznań, 9 października 2017 r. Zespół projektowy: Adam Derc - kierownik zespołu projektowego

Bardziej szczegółowo

Gdańsk. konkurs. koncepcje

Gdańsk. konkurs. koncepcje Gdańsk konkurs koncepcje GDAŃSK Pomysł na plac Pomysł na nieco senny i trochę zapomniany Plac Wałowy w Gdańsku to kolejny z projektów rewitalizacyjnych realizowanych w ramach Bram Kraju przez AMS i władze

Bardziej szczegółowo

KONCEPCJA PRZEBUDOWY ULIC TACZAKA I GARNCARSKIEJ W POZNANIU JAKO PRZESTRZENI ZAMIESZKANIA, USŁUG, RUCHU I SPOTKAŃ

KONCEPCJA PRZEBUDOWY ULIC TACZAKA I GARNCARSKIEJ W POZNANIU JAKO PRZESTRZENI ZAMIESZKANIA, USŁUG, RUCHU I SPOTKAŃ KONCEPCJA PRZEBUDOWY ULIC TACZAKA I GARNCARSKIEJ W POZNANIU JAKO PRZESTRZENI ZAMIESZKANIA, USŁUG, RUCHU I SPOTKAŃ STAN PROJEKTOWANY ULICA TACZAKA - PROJEKTOWANY UKŁAD KOMUNIKACYJNY W ramach inwestycji

Bardziej szczegółowo

Położenie obszaru. Projekt rewitalizacji. Warszawa. Uwarunkowania położenia 2011-02-07. ul. Okopowa. Żoliborz. Śródmieście. Wola.

Położenie obszaru. Projekt rewitalizacji. Warszawa. Uwarunkowania położenia 2011-02-07. ul. Okopowa. Żoliborz. Śródmieście. Wola. Projekt rewitalizacji Warszawa ul. Okopowa Malwina Wysocka nr 38080 Położenie obszaru Dzielnica: Wola Na granicy z Żoliborzem i Śródmieściem Ograniczony ulicami: Stawki, Okopową oraz Al. Jana Pawła II

Bardziej szczegółowo

Karolina A. Krośnicka. Przestrzenne aspekty kształtowania i rozwoju morskich terminali kontenerowych

Karolina A. Krośnicka. Przestrzenne aspekty kształtowania i rozwoju morskich terminali kontenerowych Karolina A. Krośnicka Przestrzenne aspekty kształtowania i rozwoju morskich terminali kontenerowych Gdańsk 2016 PRZEWODNICZĄCY KOMITETU REDAKCYJNEGO WYDAWNICTWA POLITECHNIKI GDAŃSKIEJ Janusz T. Cieśliński

Bardziej szczegółowo

Nowoczesne rozwiązania infrastrukturalne wpływające na

Nowoczesne rozwiązania infrastrukturalne wpływające na Drugi Światowy Tydzień BRD ONZ Europejski Dzień Bezpieczeństwa Ruchu Drogowego Ministerstwo Spraw Wewnętrznych Warszawa, 6 maja 2013 Nowoczesne rozwiązania infrastrukturalne wpływające na bezpieczeństwo

Bardziej szczegółowo

10. OLSZA JEDNOSTKA: 10

10. OLSZA JEDNOSTKA: 10 10. OLSZA JEDNOSTKA: 10 POWIERZCHNIA: NAZWA: 139.39 ha OLSZA KIERUNKI ZMIAN W STRUKTURZE PRZESTRZENNEJ Istniejąca zabudowa mieszkaniowa osiedla Oficerskiego do utrzymania i uzupełnienia, z możliwością

Bardziej szczegółowo

Page 1 of 1 Konsultacje ws. budowy mostu Krasińskiego Szanowni Państwo, Zarząd Miejskich Inwestycji Drogowych prowadzi prace nad aktualizacją projektu mostu Krasińskiego wraz z dojazdami do mostu, które

Bardziej szczegółowo

Funkcjonowanie metropolii w Polsce : gospodarka, przestrzeń, społeczeństwo / Michał Kudłacz, Jerzy Hausner (red.). Warszawa, 2017.

Funkcjonowanie metropolii w Polsce : gospodarka, przestrzeń, społeczeństwo / Michał Kudłacz, Jerzy Hausner (red.). Warszawa, 2017. Funkcjonowanie metropolii w Polsce : gospodarka, przestrzeń, społeczeństwo / Michał Kudłacz, Jerzy Hausner (red.). Warszawa, 2017 Spis treści Wprowadzenie 11 Część I ROLA MIAST W BUDOWANIU PRZEWAGI KONKURENCYJNEJ

Bardziej szczegółowo

KIERUNKOWE EFEKTY KSZTAŁCENIA

KIERUNKOWE EFEKTY KSZTAŁCENIA Załącznik do Uchwały Senatu Politechniki Krakowskiej z dnia 28 czerwca 2017 r. nr 58/d/06/2017 Politechnika Krakowska im. Tadeusza Kościuszki w Krakowie Nazwa wydziału Wydział Inżynierii Środowiska Dziedzina

Bardziej szczegółowo

Zarządzenie Nr 1306/2012 Prezydenta Miasta Płocka z dnia 12 stycznia 2012 roku

Zarządzenie Nr 1306/2012 Prezydenta Miasta Płocka z dnia 12 stycznia 2012 roku Zarządzenie Nr 1306/2012 Prezydenta Miasta Płocka z dnia 12 stycznia 2012 roku w sprawie: zasadności przystąpienia do sporządzenia Miejscowego planu zagospodarowania przestrzennego Bielska Targowa w Płocku

Bardziej szczegółowo

KONKURS MIEJSKI 9/3 KONKURS SARP

KONKURS MIEJSKI 9/3 KONKURS SARP KONKURS SARP Konkurs na opracowanie koncepcji fragmentu Śródmieścia wzdłuż Trasy W-Z został przeprowadzony przez Stowarzyszenie Architektów Polskich Oddział w Lublinie na zlecenie Prezydenta i Zarządu

Bardziej szczegółowo

OPRACOWANIE KONCEPCJI ARCHITEKTONICZNO-URBANISTYCZNEJ DLA POTRZEB BUDOWY KOMPLEKSU SPORTOWEGO PRZY UL. ASNYKA W KATOWICACH

OPRACOWANIE KONCEPCJI ARCHITEKTONICZNO-URBANISTYCZNEJ DLA POTRZEB BUDOWY KOMPLEKSU SPORTOWEGO PRZY UL. ASNYKA W KATOWICACH OPRACOWANIE KONCEPCJI ARCHITEKTONICZNO-URBANISTYCZNEJ DLA POTRZEB BUDOWY KOMPLEKSU SPORTOWEGO PRZY UL. ASNYKA W KATOWICACH LOKALIZACJA TERENÓW SPORTOWYCH W SKALI MIASTA Opracowywany obszar graniczy od

Bardziej szczegółowo

Sz.P. Maciej Król Dyrektor Departamentu Inwestycji Polskie Koleje Państwowe S.A. Centrala ul. Szczęśliwicka 62 00-973 Warszawa

Sz.P. Maciej Król Dyrektor Departamentu Inwestycji Polskie Koleje Państwowe S.A. Centrala ul. Szczęśliwicka 62 00-973 Warszawa Stowarzyszenie FORUM ROZWOJU OLSZTYNA e-mail: forum@fro.net.pl tel. 728 623 503 adres do korespondencji: ul. Osińskiego 7/9, 10-010 Olsztyn Stowarzyszenie Inicjatyw Obywatelskich WIZJA LOKALNA e-mail:

Bardziej szczegółowo

Wrzeszcz Dolny rejon ulic Hallera i Grudziądzkiej w mieście Gdańsku (nr 0714)

Wrzeszcz Dolny rejon ulic Hallera i Grudziądzkiej w mieście Gdańsku (nr 0714) Projekt mpzp Wrzeszcz Dolny rejon ulic Hallera i Grudziądzkiej w mieście Gdańsku (nr 0714) PRZYMORZE WIELKIE BRZEŹNO U I DN 502m T N E P Z E R 297m I L B U P I J US 240m A J AC Z K S ETC DY 1 W J -UMOŻLIWIENIE

Bardziej szczegółowo

OPIS KONCEPCJI PROGRAMOWO- PRZESTRZENNEJ ZAGOSPODAROWANIA ALEI PAPIEŻA JANA PAWŁA II I ZABUDOWY KWARTAŁÓW PRZYLEGŁYCH W REJONIE PLACU LOTNIKÓW I

OPIS KONCEPCJI PROGRAMOWO- PRZESTRZENNEJ ZAGOSPODAROWANIA ALEI PAPIEŻA JANA PAWŁA II I ZABUDOWY KWARTAŁÓW PRZYLEGŁYCH W REJONIE PLACU LOTNIKÓW I 140104 OPIS KONCEPCJI PROGRAMOWO- PRZESTRZENNEJ ZAGOSPODAROWANIA ALEI PAPIEŻA JANA PAWŁA II I ZABUDOWY KWARTAŁÓW PRZYLEGŁYCH W REJONIE PLACU LOTNIKÓW I PLACU ŻOŁNIERZA POLSKIEGO W SZCZECINIE WYTYCZNE PROJEKTOWE

Bardziej szczegółowo

KONECZNEGO BUDYNEK MIESZKALNY WIELORODZINNY MIEJSCE: KRAKÓW POWIERZCHNIA: 4 700 m2 AUTOR: WIZJA KLIENT: REF POLAND PROJEKT: 2011 REALIZACJA: -

KONECZNEGO BUDYNEK MIESZKALNY WIELORODZINNY MIEJSCE: KRAKÓW POWIERZCHNIA: 4 700 m2 AUTOR: WIZJA KLIENT: REF POLAND PROJEKT: 2011 REALIZACJA: - MKARCH PROJEKTY PROJECTS KONECZNEGO BUDYNEK MIESZKALNY WIELORODZINNY MIEJSCE: KRAKÓW POWIERZCHNIA: 4 700 m2 AUTOR: WIZJA KLIENT: REF POLAND PROJEKT: 2011 REALIZACJA: - KONECZNEGO RESIDENTIAL BUILDING

Bardziej szczegółowo

Koncepcja uspokojenia ruchu na osiedlu Wilda w Poznaniu główne założenia

Koncepcja uspokojenia ruchu na osiedlu Wilda w Poznaniu główne założenia POLITECHNIKA POZNAŃSKA Zakład Systemów Transportowych Koncepcja uspokojenia ruchu na osiedlu Wilda w Poznaniu główne założenia Odbiorca: Rada Osiedla Wilda, Zarząd Dróg Miejskich Autorzy: dr inż. Szymon

Bardziej szczegółowo

Projekt nagrodzono za interesującą propozycję spójnego, wielobryłowego zespołu zabudowy scalającej urbanistycznie nowoprojektowany zespół z

Projekt nagrodzono za interesującą propozycję spójnego, wielobryłowego zespołu zabudowy scalającej urbanistycznie nowoprojektowany zespół z Ocena Prac - Etap II Praca nr 1. I NAGRODA Nagrodę przyznano za zdecydowane przeprowadzenie syntetycznej i klarownej. koncepcji przestrzenno-funkcjonalnej zespołu, dobrze wpisującego się w urbanistykę

Bardziej szczegółowo

INFORMACJA O SPRZEDAŻY NIERUCHOMOŚCI BUDYNKOWEJ WŁOCŁAWEK, ul. Kościuszki 3

INFORMACJA O SPRZEDAŻY NIERUCHOMOŚCI BUDYNKOWEJ WŁOCŁAWEK, ul. Kościuszki 3 INFORMACJA O SPRZEDAŻY NIERUCHOMOŚCI BUDYNKOWEJ WŁOCŁAWEK, ul. Kościuszki 3 KONTAKT Bank Zachodni WBK S.A. Obszar Logistyki i Zarządzania Nieruchomościami ul. Kasprzaka 2/8 Warszawa tel. 22 634 69 14 kom.

Bardziej szczegółowo

2. Wymagania wstępne w zakresie wiedzy, umiejętności oraz kompetencji społecznych (jeśli obowiązują):

2. Wymagania wstępne w zakresie wiedzy, umiejętności oraz kompetencji społecznych (jeśli obowiązują): WYŻSZA SZKOŁA UMIEJĘTNOŚCI SPOŁECZNYCH SYLABUS PRZEDMIOTU I. Informacje ogólne 1. Nazwa przedmiotu: Pracownia Projektowania Wnętrz 2. Rodzaj przedmiotu - obowiązkowy 3. Poziom i kierunek studiów: niestacjonarne

Bardziej szczegółowo

ELBLĄG Strefa dobrych inwestycji. Adam Witek Wiceprezydent Elbląga. Urząd Miejski w Elblągu. www.elblag.eu

ELBLĄG Strefa dobrych inwestycji. Adam Witek Wiceprezydent Elbląga. Urząd Miejski w Elblągu. www.elblag.eu ELBLĄG Strefa dobrych inwestycji Urząd Miejski w Elblągu Adam Witek Wiceprezydent Elbląga www.elblag.eu DOGODNE POŁOŻENIE(Trans europejska sieć transportowa) Elbląg leży na skrzyżowaniu krajowych dróg

Bardziej szczegółowo

Terminy konsultacji pracowników w semestrze letnim 2013/2014

Terminy konsultacji pracowników w semestrze letnim 2013/2014 Terminy konsultacji pracowników w semestrze letnim 2013/2014 Nazwisko i imię Tytuł Telefon Pokój, budynek KULCZYK Jan prof.dr hab.inż. 320-25-70 305 B5 CHROSTOWSKI Henryk 320-27-85 307 B5 DOMAGAŁA Zygmunt

Bardziej szczegółowo

Humanizacja zabudowy mieszkaniowej, Malarstwo i Rzeźba w architekturze

Humanizacja zabudowy mieszkaniowej, Malarstwo i Rzeźba w architekturze Humanizacja zabudowy mieszkaniowej, Malarstwo i Rzeźba w architekturze - opis przedmiotu Informacje ogólne Nazwa przedmiotu Humanizacja zabudowy mieszkaniowej, Malarstwo i Rzeźba w architekturze Kod przedmiotu

Bardziej szczegółowo

BUDUJEMY PRZYSZŁOŚĆ. 26.10.2010 godz. 17:00

BUDUJEMY PRZYSZŁOŚĆ. 26.10.2010 godz. 17:00 BUDUJEMY PRZYSZŁOŚĆ 26.10.2010 godz. 17:00 HARMONOGRAM 1. Wstęp Miasta Darłowo Burmistrz Arkadiusz! Klimowicz 2. POC Partners Doświadczenie belgijskie Dyrektor Generalny: Pan Taffeiren Peter 3. Arcas Projektowanie

Bardziej szczegółowo

Wrocław, 27 października 2015 r. Przemysław Filar Towarzystwo Upiększania Miasta Wrocławia. Prezydent Wrocławia Sukiennice 9 50-107 Wrocław

Wrocław, 27 października 2015 r. Przemysław Filar Towarzystwo Upiększania Miasta Wrocławia. Prezydent Wrocławia Sukiennice 9 50-107 Wrocław Wrocław, 27 października 2015 r. Przemysław Filar Towarzystwo Upiększania Miasta Wrocławia Prezydent Wrocławia Sukiennice 9 50-107 Wrocław Niniejszym w imieniu Towarzystwa Upiększania Miasta Wrocławia

Bardziej szczegółowo

Inżynieria Środowiska dyscypliną przyszłości!

Inżynieria Środowiska dyscypliną przyszłości! Warto budować lepszą przyszłość! Czyste środowisko, efektywne systemy energetyczne, komfort życia dr inż. Piotr Ziembicki Instytut Inżynierii Środowiska Uniwersytet Zielonogórski WYZWANIA WSPÓŁCZESNOŚCI

Bardziej szczegółowo

Model referencyjny doboru narzędzi Open Source dla zarządzania wymaganiami

Model referencyjny doboru narzędzi Open Source dla zarządzania wymaganiami Politechnika Gdańska Wydział Zarządzania i Ekonomii Katedra Zastosowań Informatyki w Zarządzaniu Zakład Zarządzania Technologiami Informatycznymi Model referencyjny Open Source dla dr hab. inż. Cezary

Bardziej szczegółowo

WYBÓR PUNKTÓW POMIAROWYCH

WYBÓR PUNKTÓW POMIAROWYCH Scientific Bulletin of Che lm Section of Technical Sciences No. 1/2008 WYBÓR PUNKTÓW POMIAROWYCH WE WSPÓŁRZĘDNOŚCIOWEJ TECHNICE POMIAROWEJ MAREK MAGDZIAK Katedra Technik Wytwarzania i Automatyzacji, Politechnika

Bardziej szczegółowo

Wizja Zero Hasło czy kompleksowa, długoterminowa strategia? Anna Zielińska Instytut Transportu Samochodowego

Wizja Zero Hasło czy kompleksowa, długoterminowa strategia? Anna Zielińska Instytut Transportu Samochodowego Wizja Zero Hasło czy kompleksowa, długoterminowa strategia? Anna Zielińska anna.zielińska@its.waw.pl Instytut Transportu Samochodowego Wizja Zero Hasło czy kompleksowa, długoterminowa strategia? 1. Pierwowzór:

Bardziej szczegółowo

Plaskowicki & Partnerzy Architekci Studio was established in 2000 and it is owned by architect Piotr Płaskowicki.

Plaskowicki & Partnerzy Architekci Studio was established in 2000 and it is owned by architect Piotr Płaskowicki. Plaskowicki & Partnerzy Architekci Studio was established in 2000 and it is owned by architect Piotr Płaskowicki. Since the beginning of our activity we are taking part in many architectural competitions

Bardziej szczegółowo

Modelowy budynek użyteczności publicznej na przykładzie siedziby WFOŚiGW w Gdańsku. Warszawa, 19 kwietnia 2017 r.

Modelowy budynek użyteczności publicznej na przykładzie siedziby WFOŚiGW w Gdańsku. Warszawa, 19 kwietnia 2017 r. Modelowy budynek użyteczności publicznej na przykładzie siedziby WFOŚiGW w Gdańsku Warszawa, 19 kwietnia 2017 r. Efektywność energetyczna w budynkach dla Województwa Pomorskiego Stan obecny zgodnie z RPS

Bardziej szczegółowo

Szkoła Główna Handlowa w Warszawie

Szkoła Główna Handlowa w Warszawie Szkoła Główna Handlowa w Warszawie Kampus Szkoły Głównej Handlowej jako czynnik rozwoju lokalnego 12/11/2015 1 1 Historia SGH Kampus Szkoły Głównej Handlowej jako czynnik rozwoju lokalnego Analiza konkursów

Bardziej szczegółowo

Inżyniera ruchu drogowego Studia 1-go stopnia Kierunek TRANSPORT

Inżyniera ruchu drogowego Studia 1-go stopnia Kierunek TRANSPORT Inżyniera ruchu drogowego Studia 1-go stopnia Kierunek TRANSPORT Na tej specjalności studenci poznają metody i programy komputerowe pozwalające na rozwiązywania problemów w zakresie organizacji ruchu,

Bardziej szczegółowo

Projekt Miejscowego Planu Zagospodarowania Przestrzennego Rejon ulicy T. Mateckiego w Poznaniu I konsultacje społeczne Poznań, r.

Projekt Miejscowego Planu Zagospodarowania Przestrzennego Rejon ulicy T. Mateckiego w Poznaniu I konsultacje społeczne Poznań, r. Projekt Miejscowego Planu Zagospodarowania Przestrzennego Rejon ulicy T. Mateckiego w Poznaniu I konsultacje społeczne Poznań, 15.09.2016 r. Zespół projektowy: Katarzyna Derda projektant prowadzący Hanna

Bardziej szczegółowo

UCHWAŁA NR XXXVIII-57/2017 RADY MIEJSKIEJ W WOŁOMINIE. z dnia 18 maja 2017 r.

UCHWAŁA NR XXXVIII-57/2017 RADY MIEJSKIEJ W WOŁOMINIE. z dnia 18 maja 2017 r. UCHWAŁA NR XXXVIII-57/2017 RADY MIEJSKIEJ W WOŁOMINIE w sprawie przystąpienia do sporządzania miejscowego planu zagospodarowania przestrzennego terenu położonego w miejscowościach: Czarna, Helenów i Wołomin

Bardziej szczegółowo

GRUPA 1 - POZIOM A1 GRUPA 2 - POZIOM A1

GRUPA 1 - POZIOM A1 GRUPA 2 - POZIOM A1 GRUPA 1 - POZIOM A1 TRYB: poniedziałek, środa 18:15-19:45 1 Jarosław P. 29 2 Justyna T. 37 3 Domicela Arycja K. 47 4 Ryszard Tomasz N. 51 5 Hanna G. 61 GRUPA 2 - POZIOM A1 TERMIN PIERWSZYCH ZAJĘĆ: 19.04.2013r.

Bardziej szczegółowo

Oferta numer 1 Chorzów 02.10.2014r. KARTA OCENY WIZUALIZACJA BRYŁY BUDYNKU [ocena punktowa zostanie potwierdzona oceną opisową] 1. Ekspozycja nowo projektowanego obiektu od strony ulicy Strzelców Bytomskich;

Bardziej szczegółowo

z zakresu: architektury i urbanistyki, planowania i gospodarki przestrzennej, transportu i infrastruktury, ochrony środowiska, ochrony dóbr kultury,

z zakresu: architektury i urbanistyki, planowania i gospodarki przestrzennej, transportu i infrastruktury, ochrony środowiska, ochrony dóbr kultury, z zakresu: architektury i urbanistyki, planowania i gospodarki przestrzennej, transportu i infrastruktury, ochrony środowiska, ochrony dóbr kultury, ekonomii, administracji i prawa. byli CZŁONKOWIE ZACHODNIEJ

Bardziej szczegółowo