Błażej Szymura* *Szkoła Wyższa Psychologii Społecznej Warszawa Aleksandra Słabosz** **Instytut Psychologii UJ Kraków Uwaga selektywna a pozytywne i negatywne konsekwencje automatyzacji czynności. 1. Streszczenie W badaniu analizie poddano pozytywne i negatywne skutki automatyzacji procesu selekcji bodźców w polu wzrokowym. Zakładano, iż automatyzacja czynności selekcji prowadzić będzie do zniesienia efektu przetargu pomiędzy tempem a poprawnością wykonania zadania, i jednocześnie do efektu transferu negatywnego w sytuacji zmiany warunków wykonywania zautomatyzowanej czynności. Zgodnie z oczekiwaniami, trzykrotne wykonanie pierwszej wersji testu uwagi selektywnej Moronia prowadziło do efektu automatyzacji procesu selekcji (w zakresie szybkości i poprawności) i tym samym do osłabienia efektu przetargu pomiędzy szybkością a poprawnością wykonania zadania. Natomiast zmiana wersji testu w próbie czwartej powodowała pogorszenie wydajności procesu selekcji, charakterystyczne zwłaszcza dla osób, które uprzednio zautomatyzowały tę czynność bardziej efektywnie. Efekt transferu negatywnego ujawnił się przede wszystkim w zakresie liczby popełnianych błędów i ogólnej wydajności przebiegu selekcji, nie zaś w zakresie szybkości wykonania zadania. Negatywny transfer wprawy miał jednak mniejszy wpływ na wykonywaną czynność poznawczą niż sama wprawa. W świetle przeprowadzonych badań zasadne wydaje się uzupełnienie charakterystyki procesów kontrolowanych jako takich, w przypadku których obserwuje się zjawisko przetargu pomiędzy szybkością a poprawnością wykonania zadania. 2. Wprowadzenie Przewidywanie poziomu wykonania czynności w toku nabywania wprawy jest tematem od dawna interesującym psychologów. Od dawna również wiadomo, iż wprawa ma dwa oblicza. Wielokrotne powtarzanie danej czynności prowadzi do wzrostu poziomu jej wykonywania dzięki zautomatyzowaniu poszczególnych komponentów lub całej sekwencji działania. Ten pozytywny aspekt procesu nabywania wprawy (automatyzacja czynności) procentuje w bardzo wielu sytuacjach życiowych, stwarzając podstawy do efektywnych zachowań. Czynności zautomatyzowane wykonywane są szybko i bezbłędnie, zaś uwolniony potencjał systemu przetwarzania może być przeznaczony do obsługi innych zadań. Automatyzacja pociąga jednak za sobą także skutki negatywne. Ujawniają się one przede wszystkim wówczas, gdy zmianie ulegnie sytuacja, w jakiej zadanie jest wykonywane, lub choćby jeden z komponentów czynności. Przykładu takich konsekwencji procesu automatyzacji dostarcza zjawisko transferu negatywnego. Celem prezentowanego badania była analiza pozytywnych i negatywnych skutków automatyzacji w odniesieniu do czynności polegającej na selekcji bodźców w polu wzrokowym. W pierwszej kolejności przedstawione zostaną koncepcje przetwarzania automatycznego oraz
poznawcze modele nabywania wprawy. Analiza zmierzać będzie w kierunku wychwycenia warunków umożliwiających automatyzację czynności, a także ustalenia jej pozytywnych i negatywnych skutków. Następnie omówione zostanie zjawisko przetargu pomiędzy poprawnością a szybkością wykonania czynności. Do takiego przetargu dochodzi we wszystkich tych przypadkach, gdy system poznawczy nie dysponuje wystarczającą pulą zasobów, by zadanie wykonać zarówno szybko, jak i bezbłędnie. Zgodnie z przyjętą hipotezą automatyzacja czynności prowadzi do zniesienia takiego przetargu. Dowolna jednak zmiana - czy to dotycząca warunków wykonywania zadania czy też samej czynności - powoduje ponowne ujawnienie się efektu przetargu. 2.1. Automatyzacja czynności i nabywanie wprawy Różne podejścia do zjawiska automatyzowania czynności można opisać, odwołując się do modeli przetwarzania automatycznego i kontrolowanego (Shiffrin i Schneider 1977; Schneider i Shiffrin 1977) oraz do badań nad wzorcami nabywania wprawy (Anderson 1982; Ackerman 1988). U podstaw procesu automatyzowania czynności leżą dwa zasadnicze czynniki: spójność w obrębie czynności (spójność: bodziec wyzwalający wymagana reakcja) oraz liczba powtórzeń. O ile drugi z tych czynników jest oczywisty i nie wymaga głębszej analizy, to warto chwilę zastanowić się nad czynnikiem spójności. Zgodnie z koncepcją Shiffrina i Schneidera każdy proces przetwarzania informacji można opisać na dymensji, której bieguny stanowią procesy kontrolowane oraz procesy automatyczne. Procesy kontrolowane przebiegają stosunkowo wolno, sekwencyjnie, wymagają wysiłku i podlegają kontroli ze strony podmiotu. Na tych procesach opiera się reagowanie w nowych bądź niespójnych sytuacjach (Schneider, Dumais i Shiffrin 1984). Natomiast każdy proces, który przebiega szybko, równolegle, bez wysiłku, niezależnie od zasobów pamięci krótkotrwałej i poza kontrolą podmiotu, jest procesem automatycznym. Kontrola podmiotu jest w przypadku takich procesów ograniczona - raz zapoczątkowaną czynność automatyczną trudno przerwać, zanim nie dobiegnie końca (zjawisko balistyczności ; Hasher i Zacks 1979). Procesy automatyczne przebiegają opierają się na stałych sekwencjach zapisanych w pamięci długotrwałej i są niedostępne introspekcyjnie. Jednakże w odniesieniu do procesów wtórnie automatycznych, czyli czynności zautomatyzowanych w toku treningu, twierdzi się, iż mimo wszystko w pewnym stopniu korzystają one z ograniczonej puli zasobów uwagi (Posner 1982; Kolańczyk, w druku). Do automatyzacji dochodzi, gdy w toku kolejnych powtórzeń czynności wymagania nakładane na system poznawczy są zawsze takie same (spójność wymagań) oraz gdy w toku
uczenia się dana reakcja jest wyzwalana zawsze w odpowiedzi na ten sam bodziec (spójność mapowania relacji: bodziec wyzwalający wymagana reakcja). Wyuczenie tej relacji prowadzi do zmniejszenia wymagań stawianych zasobom uwagi - czynność zaczyna być wykonywana niemal bezwysiłkowo. W realnych zadaniach życiowych mapowanie spójne można odnaleźć w takich czynnościach, jak: pisanie przy użyciu klawiatury, stosowanie komend i poleceń w konkretnym programie komputerowym, wykonywanie działań arytmetycznych. Podobne założenie o konieczności spójności mapowania przyjmują teorie nabywania wprawy. Większość modeli poznawczych zakłada istnienie trzech stadiów nabywania wprawy: poznawczego, asocjacyjnego i autonomicznego (Ackerman 1988; Anderson 1982). Stadium poznawcze charakteryzuje się dużym ładunkiem poznawczym, co wynika z konieczności zrozumienia i przyswojenia instrukcji, ogólnego zaznajomienia się z celem czynności oraz wstępnego sformułowania strategii wykonania. Kiedy uczący zapozna się z tymi podstawowymi wymaganiami zadania przyswoi sobie podstawowe procedury - przechodzi do fazy asocjacyjnej. Tak się jednak dzieje tylko w przypadku zadań nakładających spójne wymagania na system poznawczy. W stadium asocjacyjnym następuje proceduralizacja strategii wykonania (Anderson 1982), dzięki czemu wykonanie czynności staje się łatwiejsze. W efekcie ulegają skróceniu czasy reakcji oraz spada liczba popełnianych błędów. Wreszcie trzecie stadium nabywania wprawy to stadium autonomii, obejmujące pełną automatyzację czynności. W tym stadium raz wyzwolona reakcja przebiega niemal bezwysiłkowo, zadanie zaś wykonywane jest tak szybko i poprawnie, jak tylko pozwalają na to zdolności psychomotoryczne. W stadium autonomicznym jak twierdzi Anderson (1982) - serie systemów produkcji są już bowiem ustalone, tak, iż długie ich sekwencje mogą być wyzwalane jednym bodźcem lub wewnętrzną intencją. Wspólna dla modeli przetwarzania automatycznego i kontrolowanego oraz modeli nabywania wprawy konkluzja brzmi następująco: wielokrotne powtarzanie czynności opartej na spójnym mapowaniu bodziec - reakcja prowadzi do jej zautomatyzowania. Do pozytywnych skutków automatyzacji należą: skrócenie czasów reakcji oraz spadek liczby błędów zakłócających efektywne wykonanie czynności. Te pozytywne skutki ograniczają się jednak wyłącznie do sytuacji, gdy wszystkie warunki wykonywania zadania, jak i samo zadanie, są zachowane w niezmienionej postaci.
2.2. Sztywność mentalna i negatywny transfer wprawy W niektórych sytuacjach niezbędna jest jednak deproceduralizacja czynności już zautomatyzowanej. System produkcji musi być np. zmodyfikowany, gdy wykonywaną czynnością jest kierowanie nowo nabytym samochodem. Czasem do tego systemu musi również zostać dodany nowy element np. gdy nowy samochód posiada dodatkowe wyposażenie. Niekiedy wreszcie konieczna jest większa niż normalnie poprawność gdy miejsce do zaparkowania samochodu jest bardzo ograniczone. We wszystkich tych przypadkach do zapewnienia pożądanego poziomu wykonania niezbędna jest dodatkowa kontrola ze strony systemu przetwarzania. Powyższe przykłady ilustrujące sytuacje wymagające deproceduralizacji wskazują, iż automatyzacja nie zawsze jest korzystna. W sytuacji minimalnej choćby zmiany warunków wykonywania zadania lub konieczności wprowadzenia zmiany w obrębie samej czynności mogą pojawiać się błędy wynikające z bezrefleksyjnego jej wykonywania starym trybem. Spektakularnego przykładu kosztów płynących ze zautomatyzowania czynności dostarcza dobrze znany i szeroko omawiany eksperyment Shiffrina i Schneidera (1977; omówienia zob. np. Czyżewska 1991; Kolańczyk 1992). Innym przykładem kosztów płynących z procesu automatyzacji jest zjawisko transferu negatywnego, polegające na tym, iż dobrze wyuczona czynność utrudnia wykonywanie czynności podobnej, ale nie tożsamej z uprzednio wyuczoną. Podobieństwo to może dotyczyć zarówno bodźców, jak i wymaganej reakcji. Wydaje się, iż przeciwieństwie do dużego zainteresowania problemem zysków płynących z automatyzacji czynności, zainteresowanie badaczy zjawiskiem transferu negatywnego jest relatywnie niewielkie. Według Woltza, Gardnera i Bella (2000), negatywny transfer wprawy ma zapewne mniejszy wpływ na wykonywaną czynność poznawczą niż sama wprawa - doświadczający negatywnego transferu są mimo wszystko lepsi w wykonywaniu nowej czynności niż osoby mające niewielką lub żadną wprawę w jej wykonywaniu. Krótko mówiąc: zyski z automatyzacji zdają się przeważać nad kosztami. Koszty płynące z procesu automatyzacji można zaobserwować także w obrębie zjawisk z zakresu myślenia i rozwiązywania problemów, czego najbardziej znanym przykładem są badania nad sztywnością mentalną, przeprowadzone przez Luchinsa (1942; omówienie zob. np. Nęcka 1987). W mniej znanych eksperymentach, Woltz, Bell, Kyllonen i Gardner (1996) potwierdzili znaczenie negatywnego transferu umiejętności w zadaniu zbliżonym do zadania Luchinsa. Osoby badane zdobywały wprawę w wykonywaniu zadania polegającego na stosowaniu prostych reguł redukcyjnych w celu zastąpienia liczby trzycyfrowej jedną cyfrą. W odróżnieniu od eksperymentu
Luchinsa, osoby badane nie wprawiały się jednak w stosowaniu jednej reakcji (pojedyncza, skuteczna formuła). Różne liczby wymagały wprawdzie stosowania tych samych reguł redukcyjnych, ale ich zastosowanie prowadziło do odmiennych reakcji pośrednich, a także trzech alternatywnych reakcji końcowych. Osoby badane, które nabyły umiejętność stosowania reguł redukcyjnych na jednym zestawie liczb, wykazywały znacznie wydłużony czas redukcji nowych zestawów liczb, jeśli reguły redukcyjne zostały tylko nieznacznie zmienione. Co więcej, podobnie jak w eksperymencie Luchinsa (1942), uczestnicy z grupy kontrolnej, którzy nie uczyli się wcześniej reguł redukcyjnych, byli znacznie szybsi w procesie redukcji nowych zestawów. W kolejnym badaniu realizowanym w tym samym paradygmacie, przy wykorzystaniu nieco trudniejszych reguł Woltz, Gardner i Bell (2000) wykazali, że negatywny transfer umiejętności może przejawiać się również w zakresie poprawności nowej czynności. Określenie sztywność pada także często w kontekście badań nad ekspertami i specyfiką wiedzy eksperckiej. Ciekawego przykładu kosztów płynących ze zautomatyzowania czynności dostarczają badania nad diagnozą medyczną Raufaste a i współpracowników (Raufaste, Eyrolle i Martiné, 1998). W badaniach tych polegających na postawieniu diagnozy na podstawie zdjęcia radiologicznego uczestniczyły cztery grupy radiologów o różnym poziomie kompetencji: studenci, stażyści, eksperci - lekarze samodzielni i super-eksperci (lekarze o statusie konsultantów krajowych). Obraz chorobowy przedstawiony osobom badanym na zdjęciu był jednak nietypowy. Wstępna analiza stawiana na podstawie kilku narzucających się symptomów sugerowała bowiem inną diagnozę niż prowadząca do trafnych wniosków analiza pogłębiona. Z tak nietypowym przypadkiem najgorzej poradzili sobie... eksperci, czyli lekarze samodzielni. Ich diagnozy były mniej poprawne niż te sformułowane przez super-ekspertów (co oczywiste). Jednakże eksperci okazali się również gorsi w diagnozie od stażystów i studentów zupełnych nowicjuszy na tym polu (co zatrważające). Szczegółowa analiza punktów fiksacji gałek ocznych podczas analizy kliszy pozwoliła stwierdzić, iż grupa ekspertów wykazała się najbardziej schematycznym a więc zautomatyzowanym sposobem analizy zdjęcia, co prowadziło do pominięcia w analizie ważnych wskazówek prowadzących do diagnozy prawidłowej. Reasumując, automatyzacja oprócz niewątpliwych zalet - ma też swe negatywne konsekwencje, które ujawniają się w sytuacjach nowych, gdy zmianie ulegają warunki wykonywania zadania lub też jego poszczególne komponenty. Jak się wydaje, swoistym wskaźnikiem zysków i kosztów automatyzacji może być wielkość efektu przetargu między szybkością a poprawnością.
2.3. Przetarg między szybkością a poprawnością W badaniach nad przebiegiem procesów przetwarzania informacji jednym z ważniejszych jest paradygmat przetargu pomiędzy szybkością a poprawnością (Meyer, Irwin, Osman i Koniuos 1988). W eksperymentach wykorzystujących tę metodologię osoby badane z reguły nie są w stanie uzyskać wysokich wyników przetwarzania jednocześnie w zakresie szybkości i poprawności reakcji. W efekcie albo są szybcy, ale wtedy popełniają wiele błędów, albo też są poprawni, ale kosztem znacznego spowolnienia przebiegu procesów poznawczych. Przetarg pomiędzy szybkością a poprawnością może zostać wywołany przez odpowiednią instrukcję (lub informację zwrotną podawaną w trakcie trwania zadania), jeśli kładzie ona nacisk na tylko jeden z parametrów przetwarzania (Dickman i Meyer 1988). Zjawisko przetargu występuje też zazwyczaj wtedy, gdy zadanie jest wykonywane pod presją czasu (Snodgrass, Luce i Galanter 1967). Jak się wydaje, zjawisko przetargu dotyczy raczej procesów uwagowych, choć stwierdzono je również w zakresie krótkotrwałych procesów pamięciowych, niekoniecznie bezpośrednio związanych z funkcjonowaniem centralnego wykonawcy pamięci roboczej (McElree i Dosher 1993). Istnienie zjawiska przetargu między szybkością a poprawnością można wyjaśnić, powołując się zarówno na starsze teorie filtru selektywnej uwagi, jak i na nowsze teorie integracji cech w obiekt. Zgodnie z modelem elastycznego filtru uwagi Johnstona (1978; Johnston i Heinz 1978), hipotetyczny system selekcjonujący informacje może funkcjonować na różnych poziomach przetwarzania informacji (Craik i Lockhart 1972). Im płytszy jest poziom analizy bodźców, tym szybszy jest proces selekcji informacji. Jednak, w sytuacji płytkiego przetwarzania sygnału, niewiele jego cech podlega analizie. W efekcie hipotetyczny filtr uwagi jest narażony na znaczne błędy w selekcji informacji może on nie wychwycić sygnałów o cechach ważnych z punktu widzenia zasady selekcji. Na głębokich poziomach przetwarzania informacji podejmowane przez hipotetyczny filtr uwagi analizy bodźców są znacznie bardziej złożone i uwzględniają znacznie więcej cech stymulacji. Wiąże się to z wyższą poprawnością procesów selekcyjnych kosztem wydłużenia czasu potrzebnego na podjęcie decyzji. Johnston (1978) ustalił m.in., iż minimalny czas selekcji informacji na poziomie płytkim wynosi około 100-180 ms (czas reakcji prostej dla bodźców różnej modalności), a na poziomie głębokim 360-480 ms(prosta kategoryzacja bodźców; porównaj także: Posner i Mitchell 1967). Johnston i Dark (1982) wykazali również, że skuteczność procesu selekcji jest wprost proporcjonalna do efektywności procesu odrzucania
zakłóceń na poziomach płytkich analizy informacji. Proces selekcji jest tym gorszy, im więcej dystraktorów jest przepuszczanych przez szybki filtr funkcjonujący na płytkim poziomie sensorycznym. Efekt przetargu między szybkością a poprawnością wykonania zadania można również wyjaśnić, nawiązując do drugiej wersji modelu przewodników Wolfe (1994). Zgodnie z tym modelem, w trakcie przeduwagowej fazy kodowania stymulacji informacje dotyczące liczby i rodzaju cech aktywnych (występujących w obrębie pola wzrokowego) są zapisywane w tzw. mapie aktywacyjnej. Ta mapa jest wykorzystywana przez system selekcjonujący jako przewodnik w selekcyjnym procesie integracji cech w obiekt. Jako pierwsze analizowane są te elementy pola wzrokowego, które wzbudziły największą aktywność w obrębie mapy-przewodnika. Są to elementy charakteryzowane w pierwszej kolejności przez cechę ruchu (McLeod, Driver i Crisp 1988), w drugiej przez cechę koloru (D Zamura 1991; Duncan 1989), a w dalszej zaś przez inne cechy statyczne (Treisman 1988). Jak się wydaje, proste, narzucające się cechy percepcyjne, takie jak ruch czy kolor (zwane również cechami priorytetowymi), mają zdolność do generowania wysokiego poziomu pobudzenia w obrębie mapy-przewodnika. Proces przeszukiwania pola wzrokowego, polegający na integracji cech w poszukiwany obiekt, jest uruchamiany wtedy, gdy suma pobudzenia w obrębie mapy aktywacyjnej przekroczy pewien próg (Wolfe 1994). Im bardziej przekroczony zostaje próg tym szybszy jest proces przeszukiwania pola wzrokowego. To dlatego proces selekcji na podstawie prostych cech priorytetowych jest uruchamiany i wykonywany szybko. Jednocześnie przebiega on wówczas w większym stopniu intuicyjnie - analizie nie podlegają jedynie priorytetowe cechy stymulacji - co prowadzi do zwiększonej liczby błędów. W sytuacji, gdy proces selekcji bazuje na kilka złożonych, choć w mniejszym stopniu narzucających się cechach - prowadzących, każda z osobna, do mniejszego wzbudzenia w obrębie mapy aktywacyjnej przebiega wolniej, ale i bardziej poprawnie. Dzieje się tak, gdyż w rozważanej sytuacji w procesie integracji cech w obiekt zostaje uwzględnionych wiele różnych charakterystyk stymulacji, aby sumaryczny próg aktywacji mógł być przekroczony, co jest przecież warunkiem rozpoczęcia procesu przeszukiwania. Zgodnie z teorią detekcji sygnałów (Green i Swets 1966), w zadaniach na selekcję informacji mogą pojawić się dwa rodzaje błędów. Błąd fałszywego alarmu (FA) polega na wykonaniu reakcji odpowiedniej dla sygnału w sytuacji, gdy sygnał ten jest nieobecny. Błąd ominięcia polega natomiast na braku takiej reakcji pomimo iż sygnał jest obecny. Ogólna liczba błędów (D = FA + OM; Nęcka 1994), będąca sumą fałszywych alarmów i ominięć, jest globalnym
wskaźnikiem poziomu poprawności przetwarzania. Jak się wydaje, koszty związane z przyspieszeniem przebiegu procesów poznawczych, do jakiego dochodzi w sytuacji wykonywania zadania pod presją czasu, znajdują swe odzwierciedlenie w zakresie sumarycznej liczby błędów (D; Dickman i Meyer 1988; Larson i Saccuzzo 1986; Szymura i Nęcka 1998) oraz specyficznie w zakresie błędu ominięcia (OM; Lobaugh, Cole i Rovet 1998; Zenger i Fahle 1997). Natomiast kosztów w zakresie błędów fałszywych alarmów (FA) raczej się nie stwierdza, nawet jeśli analizy dotyczą grup osób szczególnie impulsywnych, a więc skłonnych do nadmiernego reagowania (Dickman i Meyer 1988 - osoby badane o podwyższonej impulsywności; Larson i Saccuzzo 1986 oraz Szymura i Nęcka 1998 - osoby badane o podwyższonym neurotyzmie). Przytoczone rezultaty wydają się zgodne z przedstawionymi powyżej hipotetycznymi wyjaśnieniami efektu przetargu pomiędzy szybkością a poprawnością wykonania zadania. Przyspieszenie procesu selekcji prowadzi bądź to do płytkiej analizy sensorycznej (zgodnie z modelem elastycznego filtru uwagi Johnstona 1978), bądź to do kierowania się w procesie integracji cech w obiekt jedynie cechami priotytetowymi (zgodnie z modelem przewodników uwagi Wolfe 1994). W obu przypadkach, chociaż z zupełnie innych powodów, większość aspektów stymulacji nie jest uwzględniania przy podejmowaniu decyzji selekcyjnej. Taka ślepota uwagowa występuje szczególnie w sytuacjach presji czasowej, znacznie ograniczając liczbę potencjalnie odbieranych sygnałów. W efekcie osoby badane często wybierają wówczas strategię zgadywania. Jak wykazali Chun i Wolfe (1996), takie zgadywanie w ponad 80% przypadków kończy się decyzją negatywną (brak detekcji, potencjalne ominięcie), zaś tylko w niecałych 20% - decyzją pozytywną (detekcja, potencjalny fałszywy alarm). 3. Metoda 3.1. Osoby badane W eksperymencie uczestniczyło 129 osób: 101 studentek i 28 studentów I roku psychologii na Uniwersytecie Jagiellońskim. Średni wiek osób badanych wyniósł 20,55 (SD = 2,91). Ponieważ badanie przeprowadzono w ramach zajęć z przedmiotu psychologia procesów poznawczych, uczestnictwo w nim było obligatoryjne. 3.2. Materiały i aparatura Test Zegarków Moronia. W badaniu wykorzystano test selektywnej uwagi autorstwa Marcjusza Moronia. Na arkuszu testowym (format A4) zamieszczonych było 400 bodźców ikon
obrazujących tarczę zegarka wskazówkowego (20 rzędów po 20 bodźców w każdym rzędzie). Tarcze przedstawiały tylko pełne godziny (np. 1.00, 2.00 itd.). Liczba tarcz obrazujących konkretne godziny była zrównoważona. Sygnał stanowiła ikona reprezentująca określoną godzinę (np. 5.00). Na arkuszu testowym znajdowało się 40 tego typu bodźców. Pozostałe ikony stanowiły szum informacyjny. Zadaniem osoby badanej było wykrycie i zaznaczenie w dowolny sposób (zakreślenie) możliwie największej liczby sygnałów w przeciągu 2 minut (porządek analizy arkusza testowego - od lewej do prawej strony, od pierwszego rzędu do ostatniego). Po upływie czasu przeznaczonego na rozwiązanie testu osoba badana zaznaczała ostatnią przeanalizowaną przez siebie ikonę. Jeśli test udało się zakończyć przed upływem dwóch minut, instrukcja zezwalała na przejrzenie arkusza raz jeszcze (w dowolnym porządku), celem dokonania ewentualnych poprawek. W takiej sytuacji badany nie zaznaczał żadnej ikony testu jako tej, którą przeanalizował jako ostatnią. Parametry poziomu wykonania testu. Rejestrowano trzy wskaźniki poziomu wykonania testu (nazewnictwo oparto na teorii detekcji sygnałów): (1)SPEED liczbę ikon przeanalizowanych w ciągu dwóch minut przeznaczonych na wykonanie testu (w przypadku osób, które w tym czasie wykonały cały test SPEED=400); (2)FA liczbę fałszywych alarmów (błędnych oznaczeń ikon szumu jako sygnałów); (3)OM liczbę ominięć (braku oznaczeń sygnału). Powyższe wskaźniki poziomu wykonania stanowiły podstawę obliczenia trzech złożonych parametrów wykonania: (1)D całkowitej liczby błędów (FA + OM); (2)β proporcji błędów różnego rodzaju (FA/D); (3)PROP proporcji ogólnej liczby reakcji do sumarycznej liczby błędów (SPEED/D). Przyjęte wskaźniki poziomu wykonania testu pozwoliły na oszacowanie efektywności mechanizmów selektywnej uwagi zarówno w aspekcie szybkości (SPEED), jak i poprawności wykonania (FA, OM, D). Wskaźnik β posłużył dodatkowo do oceny strategii rozwiązywania testu: od nadmiernej ostrożności (OM>>FA; β->0) do nadmiernej impulsywności (FA>>OM; β->1). Ponadto wskaźnik PROP umożliwił ocenę ogólnej efektywności mechanizmu selekcji, łącząc w sobie zarówno szybkość, jak i poprawność przebiegu selekcji.
3.3. Procedura Eksperyment przeprowadzano w kilkunastoosobowych grupach. Uczestnicy w pierwszej kolejności trzykrotnie wypełniali Test Zegarków w wersji 5.0. W wersji tej sygnałem była ikona przedstawiająca godzinę 5.00. Następnie osoby badane wypełniały raz Test Zegarków w wersji 4.0, gdzie sygnał stanowiła ikona przedstawiająca godzinę 4.00. Kolejne wykonania testu przedzielone były 60-sekundową przerwą przeznaczaną na odpoczynek. Instrukcja poprzedzająca eksperyment informowała uczestników jedynie o konieczności trzykrotnego wykonania tego samego zadania. Pojawienie się Testu Zegarków w wersji 4.0. było więc dla uczestników zaskoczeniem. Przyjęte wskaźniki automatyzacji wykonania testu. W celu sprawdzenia potencjalnych korzyści i strat płynących z automatyzacji procesu detekcji sygnałów przyjęto cztery wskaźniki automatyzacji wykonania testu: (1)AUTO SPEED 1 liczba ikon przeanalizowanych w drugim wykonaniu Testu Zegarków (wskaźnik SPEED dla drugiego wykonania Testu Zegarków); (2)AUTO CORRECT 1 liczba błędów popełnionych w drugim wykonaniu Testu Zegarków (wskaźnik D dla drugiego wykonania Testu Zegarków); (3)AUTO SPEED 2 różnica w szybkości selekcji pomiędzy drugim a pierwszym wykonaniem Testu Zegarków (różnica we wskaźnikach SPEED dla dwóch pierwszych wykonań Testu Zegarków); (4)AUTO CORRECT 2 różnica w poprawności selekcji pomiędzy drugim a pierwszym wykonaniem Testu Zegarków (różnica we wskaźnikach D dla dwóch pierwszych wykonań Testu Zegarków). 3.4. Hipotezy Zakładano, iż presja czasowa, narzucona instrukcją Testu Zegarków, prowadzić będzie do efektu przetargu między szybkością a poprawnością wykonania zadania. Efekt ten powinien ujawnić się na każdym etapie eksperymentu, niezależnie od aktualnie wykonywanej wersji zadania. Pierwsza z zastosowanych manipulacji eksperymentalnych polegała na trzykrotnym powtórzeniu tej samej wersji Testu Zegarków. Zakładano bowiem, iż trzykrotne wykonanie zadania w identycznej postaci powinno prowadzić do zautomatyzowania procesu selekcji informacji. Automatyzacja powinna znaleźć odzwierciedlenie zarówno w skróceniu czasów wykonania, jak i we wzroście poprawności w kolejnych próbach. Spodziewano się także, iż bezpośrednią korzyścią
wynikającą ze zautomatyzowania procesu selekcji będzie obniżanie się w kolejnych próbach efektu przetargu między szybkością a poprawnością. Druga manipulacja eksperymentalna polegała na zmianie sygnału na jeden z bodźców szumowych w czwartym wykonaniu Testu Zegarków. Zakładano bowiem, iż w wyniku uprzedniej automatyzacji procesu detekcji sygnałów godzina 5.00 w próbach 1-3, w próbie czwartej po tej zmianie - dojdzie do znacznego pogorszenia wykonania Testu. Pogorszenie to będzie tym wyraźniejsze, im silniejszy był uprzedni proces automatyzacji. Efektem zmiany sygnałów powinno być zatem ponowne zwiększenie się siły przetargu pomiędzy szybkością a poprawnością. 4. Opis wyników Analizę statystyczną przeprowadzono przy użyciu pakietu statystycznego Statistica, z wykorzystaniem procedur statystyki opisowej oraz analizy wariancji (test F-Fischera). W pierwszej kolejności analizie poddano efekty automatyzacji oraz przetargu, zaś w dalszej wzajemne relacje pomiędzy tymi dwoma efektami. Efekt automatyzacji ujawnił się w zakresie wszystkich przyjętych wskaźników poziomu wykonania testu. Z próby na próbę wzrastała liczba bodźców analizowanych przez osoby badane (SPEED; F[2,258] = 80,52; p < 0,0001). Jednocześnie obniżała się ogólna liczba błędów (D; F [2,258] = 10,12; p < 0,0001) - w tym zarówno fałszywych alarmów (FA; F[2,258] = 11,76; p < 0,0001), w szczególności zaś ominięć (OM, F[2,258] = 5,77; p < 0,005). O silnej automatyzacji świadczył także spadek częstotliwości błędów (PROP; F[2,258]=12,57; p<0,0001). Podczas gdy w pierwszym wykonaniu testu osoby badane myliły się średnio co czwarty rząd ikon, w drugim - co piąty, to w ostatniej, trzeciej próbie - zaledwie co około siódmy rząd bodźców. Z kolei różnice w wartościach, jakie przyjmował wskaźnik β w kolejnych wykonaniach testu, wydają się świadczyć o coraz większej ostrożności i precyzji, z jaką w kolejnych próbach testowych dokonywano selekcji (β, F[2,258] = 12,58; p < 0,0001). Warto podkreślić, iż wszystkie różnice odnoszące się do zmiany poziomu wykonania zadania w kolejnych próbach okazały się istotne statystycznie co najmniej na poziomie p < 0,005. Szczegółowe dane ilustrujące ten efekt można znaleźć w tabeli 1. Tabela. 1. Efekt automatyzacji dla wszystkich wskaźników poziomu wykonania (* p < 0,0001; ** p < 0,005) Próba SPEED* OM** FA* D * PROP* β* 1 338,9 6,64 0,69 7,33 84,2 0,09 2 368,2 6,16 0,22 6,33 96,6 0,03 3 381,2 5,30 0,19 5,49 133,1 0,02
Spadek liczby fałszywych alarmów (FA) w trzeciej próbie, w porównaniu do wykonania drugiego mimo że zgodny z przewidywaniami - nie osiągnął jednak kryterium istotności statystycznej. Brak tego efektu był prawdopodobnie spowodowany zbyt małą wariancją w zakresie liczby popełnianych tego typu błędów. We wszystkich próbach średnia liczba fałszywych alarmów utrzymywała się na poziomie poniżej jednego fałszywego alarmu na cały test, zaś automatyzacja procesu selekcji dodatkowo zmniejszyła tę i tak nikłą wartość. Ze względu zatem na niewielką wariancję fałszywych alarmów w ogóle, spadek liczby fałszywych alarmów w proporcji do wszystkich popełnionych błędów był zbyt mały. W efekcie wartości wskaźnika β - opartego na proporcji błędów typu OM i FA - nie różniły się istotnie statystycznie pomiędzy drugim a trzecim wykonaniem testu. Równie powszechny jak efekt automatyzacji okazał się efekt przetargu między szybkością a poprawnością wykonania zadania. Na podstawie mediany parametru SPEED, w każdej próbie wyróżniono dwie grupy osób badanych: wolno i szybko dokonujących selekcji. We wszystkich próbach osoby przetwarzające informacje wolniej, popełniały mniej błędów w ogóle (D; p co najmniej 0,03), a w szczególności mniej ominięć (OM; p co najmniej 0,04). Innymi słowy, osoby szybko przetwarzające informacje płaciły za tempo pracy szczególnie dużą liczbą ominięć sygnałów. Natomiast ze względu na wspomnianą już niewielką wariancję błędów typu fałszywy alarm, nie zaobserwowano zależności pomiędzy tempem dokonywania selekcji a liczbą tego typu błędów. Szczegółowe dane ilustrujące efekt przetargu między szybkością a poprawnością w poszczególnych próbach zostały zamieszczone w tabeli 2. Tabela 2. Efekt przetargu między szybkością a poprawnością w kolejnych próbach Próba Wskaźnik SPEED SPEED F[1,128] P 1 2 3 4 niski wysoki OM 4,52 8,89 32,84 0,0001 D 5,29 9,49 27,88 0,0001 OM 5,19 7,04 8,31 0,005 D 5,48 7,18 6,65 0,01 OM 4,27 5,90 5,19 0,03 D 4,48 6,08 4,49 0,04 OM 4,63 6,66 9,54 0,003 D 5,14 6,85 6,55 0,02
Uzyskane wyniki wskazują zatem na ujawnienie się zarówno efektu automatyzacji procesu selekcji (w zakresie szybkości i poprawności), jak i efektu przetargu pomiędzy szybkością a poprawnością. W dalszej kolejności analizie poddano związki obu stwierdzonych efektów. Zgodnie z oczekiwaniami, w trzech kolejnych próbach opartych na tej samej wersji Testu Zegarków, proces automatyzacji czynności selekcji prowadził do redukcji wielkości efektu przetargu. Redukcja efektu przetargu widoczna była w odniesieniu do ogólnej liczby błędów (D), a zwłaszcza błędów typu ominięcie (OM). W kolejnych próbach zacierały się także różnice w wielkości efektu przetargu, w przypadku uczestników wolniej i szybciej przetwarzających informacje. Jednocześnie zmiana warunków zadania w czwartej próbie (zmiana wersji testu), która uniemożliwiła wykorzystanie zautomatyzowanych już procedur selekcji, spowodowała ponowny wzrost wielkości efektu przetargu w zakresie obu rozważanych wskaźników poziomu wykonania (D, OM). Wyniki świadczące o wyraźnym związku efektów automatyzacji i przetargu prześledzić można w tabeli 3. Tabela 3. Wielkość przetargu pomiędzy szybkością a poprawnością jako zależna od automatyzacji na przykładzie ogólnej liczby błędów D oraz błędów typu ominięcie (OM) Próba Wskaźnik SPEED SPEED Różnica F[1,128] P 1 2 3 4 niski wysoki D 5,29 9,49 4,20 27,88 0,0001 OM 4,52 8,89 4,37 32,84 0,0001 D 5,48 7,18 1,70 6,65 0,01 OM 5,19 7,04 1,85 8,31 0,005 D 4,48 6,08 1,60 4,49 0,04 OM 4,27 5,90 1,63 5,19 0,03 D 5,14 6,85 1,71 6,55 0,02 OM 4,63 6,66 2,03 9,54 0,003 Manipulacja polegająca na zmianie wersji testu doprowadziła do spadku efektywności selekcji informacji w próbie czwartej. Badani popełniali błędy w tej ostatniej próbie znacznie częściej niż w próbie trzeciej. Różnica ta wyniosła około 30 bodźców (PROP; F[1,128] = 7,89; p < 0,01). Jednocześnie nie zaobserwowano jednak istotnego statystycznie pogorszenia się badanych zarówno w zakresie szybkości, jak i poprawności mechanizmów selekcji informacji, jeśli powyższe wskaźniki poziomu wykonania testu rozważane były osobno. Warto podkreślić, iż opisywana manipulacja przyczyniła się także do zwiększenia udziału fałszywych alarmów w ogólnej liczbie
błędów (β; F[1,128] = 5,91; p < 0,02). W próbie czwartej wykonanie testu przez badanych można określić jako bardziej reaktywne w porównaniu do bardziej ostrożnego i wyważonego wykonania w próbie trzeciej. Szczegółowe wyniki dotyczące manipulacji wersją testu zamieszczone są w tabeli 4. Tabela 4. Efekt manipulacji wersją Testu Zegarków (* p < 0,01;** p < 0,05;*** NS) Próba wersja testu SPEED*** OM*** FA*** D *** PROP* β** 3 v5.0 381,2 5,30 0,19 5,49 133,1 0,02 4 v4.0 377,5 5,55 0,36 5,92 102,1 0,06 Ponadto, zgodnie z oczekiwaniami, silniejsza automatyzacja w początkowych próbach wykonania testu prowadziła do wyraźniejszego pogorszenia wydajności procesu selekcji w ostatniej próbie. W porównaniu do osób wolniej automatyzujących czynność selekcji, osoby wykazujące się bardziej zautomatyzowanymi mechanizmami selektywnej uwagi w zakresie szybkości już po drugiej próbie (AUTO SPEED), znacznie więcej traciły na zmianie warunków zadania. Negatywny transfer wprawy ujawnił się w ich przypadku w zakresie sumarycznej liczby błędów (D; F[1,128] = 10,59; p < 0,002). Ilustruje to ryc. 1. Podobnie większą liczbę błędów po zmianie warunków zadania odnotowano u tych osób badanych, u których obserwowano efektywniejszy proces automatyzacji w zakresie poprawności pomiędzy pierwszą a drugą próbą testową (AUTO CORRECT 2; D; F[1,128] = 4,18; p < 0,04). Podczas gdy osoby badane o mniej efektywnej automatyzacji potrafiły pomimo zmiany warunków testu podnieść jeszcze nieco poprawność poziomu wykonania zadania, to u badanych o bardziej efektywnej automatyzacji wystąpiło zdecydowane pogorszenie poprawności wykonania. Ilustruje to ryc. 1.
7.5 7.0 6.5 6.0 5.5 5.0 4.5 4.0 próba 3 próba 4 AUTO SPPED niski AUTO SPPED wysoki AUTO CORRECT 2 niski AUTO CORRECT 2 wysoki Ryc. 1. Test Zegarków wpływ zmiany warunków zadania (wersja 4.0 i 5.0) na poprawność wykonania zadania u osób o słabszej i o silniejszej automatyzacji procesu selekcji 5. Dyskusja wyników Wyniki eksperymentu potwierdziły niemal wcześniejsze oczekiwania. Uzyskano prawie wszystkie zakładane efekty główne. Efekt automatyzacji wystąpił zarówno w zakresie poprawności, jak i w zakresie szybkości. Był on obserwowany dla wszystkich przyjętych, empirycznych wskaźników poziomu wykonania testu. Pozytywne aspekty procesu nabywania wprawy (Ackerman 1988) i automatyzacji czynności (Shiffrin i Schneider 1977) są więc w prezentowanych badaniach dobrze udokumentowane. Podobnie, na podstawie wyników eksperymentu, dobrze widoczne są koszty procesu automatyzacji w postaci zjawiska transferu negatywnego. Na skutek manipulacji wersją testu, w próbie czwartej - w porównaniu do próby trzeciej - istotnie statystycznie zmniejszyła się efektywność funkcjonowania mechanizmów selekcyjnych. Pomimo niewielkiego spowolnienia tempa analizy informacji, proces selekcji okazał się bardziej impulsywny (mniejsza ostrożność detekcji; większy udział fałszywych alarmów w liczbie popełnianych błędów), a osoby badane zaczęły nieco częściej popełniać błędy. Analizy różnicowe wykazały z kolei, że osoby sprawniejsze w zakresie automatyzacji procesów selekcyjnych rzeczywiście traciły więcej na poprawności wykonania na skutek zmiany warunków selekcji. Brak niektórych efektów głównych wobec uzyskanych efektów różnicowych nie pozwala więc odrzucić hipotezy o negatywnym transferze
wprawy. Jednakże, na podstawie uzyskanych wyników, hipotezę negatywnych kosztów automatyzacji trzeba ograniczyć do zmian w zakresie poprawności i ogólnej efektywności hipotetycznego systemu selekcjonującego, jako że sztywności w zakresie szybkości selekcji nie udało się wykazać w analizie zarówno efektów głównych, jak i różnicowych. Potwierdziła się również hipoteza wynikająca z badań Woltza, Gardnera i Bella (2000). Negatywny transfer wprawy wydaje się mieć mniejszy wpływ na wykonywaną czynność poznawczą niż sama wprawa. Osoby badane, doświadczając negatywnego transferu, mimo wszystko wykonywały nową czynność lepiej niż osoby mające niewielką lub żadną wprawę w jej wykonywaniu. Wprawdzie w próbie czwartej poziom wykonania testu obniżał się, ale i tak był on wyższy niż poziom wykonania mierzony ogólną poprawnością i szybkością po próbie drugiej. Zgodzić się więc wypada z Woltzem i jego współpracownikami, iż efekt transferu negatywnego może często być maskowany przez dużą wprawę w zakresie czynności transferowanej. Tym większą zaletą przeprowadzonych badań jest to, iż efekty wprawy i negatywnego transferu udało się w nich wykazać łącznie. Efekt przetargu między szybkością a poprawnością był widoczny w każdej próbie wykonania testu. Osoby badane nie były w stanie jednocześnie uzyskiwać wysokich wyników przetwarzania zarówno w zakresie szybkości, jak i poprawności reakcji. W rezultacie albo pracowały szybko, ale wtedy popełniały wiele błędów, albo też poprawnie, ale kosztem znacznego spowolnienia przebiegu procesów poznawczych. Efekt przetargu pomiędzy szybkością a poprawnością został wywołany narzuceniem presji czasowej (Snodgrass, Luce i Galanter 1967). Potwierdziły się również spostrzeżenia badaczy dotyczące rodzaju kosztów związanych z przyspieszeniem przetwarzania informacji. Koszty te znajdowały odzwierciedlenie w zakresie sumarycznej liczby błędów (D; podobnie jak: Dickman i Meyer 1988; Larson i Saccuzzo 1986; Szymura i Nęcka 1998) oraz w zakresie błędów ominięcia (OM; podobnie jak: Chun i Wolfe 1996; Lobaugh, Cole i Rovet 1998; Zenger i Fahle 1997). Natomiast specyficznych kosztów w zakresie błędów typu fałszywy alarm (FA) nie stwierdzono. Zdecydowanie najważniejszym wynikiem przeprowadzonych badań jest jednak odkrycie wzajemnego powiązania wszystkich trzech wyżej omówionych efektów. Bez wątpienia efekt przetargu jest redukowany przez efekt automatyzacji. Na skutek nabywania wprawy różnice w zakresie poprawności między osobami szybko i wolno przetwarzającymi informacje ulegają zmniejszeniu. W przypadku ostatecznej automatyzacji wtórnej, nabytej dzięki wielokrotnemu powtarzaniu czynności, efekt przetargu w ogóle nie ma szansy wystąpić. Definicję procesów
automatycznych i kontrolowanych Shiffrina i Schneidera (1977) można więc uzupełnić proponując dodatkowym określeniem procesów kontrolowanych jako takich, w przypadku których stwierdza się efekt przetargu pomiędzy szybkością a poprawnością, zaś procesów automatycznych jako takich, w przypadku których rozważanego efektu stwierdzić niepodobna. Zgodnie z Shiffrinem i Schneiderem (1977), każdy proces można umieścić na dwubiegunowej dymensji procesy automatyczne - procesy kontrolowane. Zgodnie z wynikami prezentowanych badań każdy proces można umieścić na dwubiegunowej dymensji procesy podatne na efekt przetargu procesy niepodatne na ten efekt. Oba wymiary, jak się wydaje, są równoległe. Z kolei sztywność mentalna wytworzona w wyniku automatyzacji wydaje się wzmacniać efekt przetargu między szybkością a poprawnością. Efekt ten, zredukowany w trzech próbach automatyzacyjnych, ujawnił się bowiem z nową siłą na skutek zmiany warunków zadania i negatywnego transferu wprawy, jakiego doświadczyły osoby badane. Uzasadnione wydaje się więc ostateczne twierdzenie teoretyczne tej pracy: automatyzacja redukuje efekt przetargu, podczas gdy sztywność mentalna powstała na wskutek automatyzacji efekt ten wzmaga. Na zakończenie warto jeszcze dodać, iż nowo skonstruowany Test Zegarków okazał się dobrym narzędziem do pomiaru wybranych aspektów selektywnej uwagi. Możliwość pomiaru zarówno szybkości, jak i poprawności procesów detekcji prostych bodźców w stosunkowo krótkim czasie metodą papierową jest ważną zaletą skonstruowanego narzędzia. Wadą testu jest natomiast niemal całkowity brak efektu dystrakcji osoby badane nie popełniają w teście niemal w ogóle fałszywych alarmów. Aktualnie prowadzone w różnych ośrodkach (SWPS, UJ) prace nad modyfikacją testu zmierzają w stronę zmiany tej niekorzystnej charakterystyki. Przy zachowaniu podstawowej idei konstruowanego narzędzia zmieniony zostanie materiał, tak aby bodźce ważne i bodźce zakłócające podzielały znacznie większą liczbę cech wspólnych. Zgodnie z wynikami badań Duncana i Humphreysa (1989), manipulacja taka powinna zdecydowanie utrudnić procesy selekcji i wywołać znacznie większą liczbę fałszywych alarmów. Przykładem rozważanych bodźców są znaki drogowe. Test Znaków Drogowych miałby dodatkowo zaletę związaną z możliwością praktycznej aplikacji narzędzia do badania uwagi kierowców. 6. Bibliografia: Ackerman P.L. (1988). Determinants of individual differences during skill acquisition: Cognitive Abilities and information processing. Journal of Experimental Psychology: General, 117, 288-318.
Anderson J.R. (1982). Acquisition of Cognitive Skill. Psychological Review, 89(4), 369-408. Chun M. i Wolfe J. (1996). Just Say No: How Are Visual Searches Terminated When There Is No Target Present. Cognitive Psychology, 30, 39-78. Craik F.I.M. i Lockhart R.S. (1972). Levels of processing: A framework for memory research. Journal of Verbal Learning and Verbal Behavior, 11, 671-684. Czyżewska M. (1991). Uwaga, [w:] Z. Roman (red.), Uwaga i pamięć (s. 22-65). Warszawa: Wydawnictwo Uniwersytetu Warszawskiego. D Zamura M. (1991). Color in visual search. Vision Res., 31(6), 951-966. Dickman S.J. i Meyer D.E. (1988). Impulsivity and speed accuracy tradeoffs in information processing. Journal of Personality and Social Psychology, 54, 274-290. Duncan J. (1989). Boundary conditions on parallel processing in human vision. Perception, 18, 457-469. Duncan J. i Humphreys G.W. (1989). Visual search and stimulus similarity. Psychological Review, 96(3), 433-458. Green D. i Swets J. (1966). Signal detection theory and psychophysics. New York: Wiley. Hasher L. i Zacks R. (1979). Automatic and efortfull processes in memory. Journal of Experimental Psychology: General, 108, 356-388. Johnston W.A. (1978). The intrusiveness of familiar nontarget information. Memory and Cognition, 6, 38-42. Johnston W.A. i Dark V.J. (1982). In defense of intraperceptual theories of attention. Journal of Experimental Psychology. Human Perception and Performance, 8(3), 407-421. Johnston W.A. i Heinz S.P. (1978). Flexibility and capacity demands of attention. Journal of Experimental Psychology. General, 107(4), 420-435. Kolańczyk A. (1992). Uwaga w procesie przetwarzania informacji, [w:] M. Materska, i W. Tyszka (red.), Psychologia i poznanie (s. 78-98). Warszawa: Wydawnictwo naukowe PWN. Kolańczyk A. (w druku). Kiedy automatyczne procesy afektywne tracą autonomię. Łaskotanie świadomości. Larson G.E. i Saccuzzo D.P. (1986). Gender, neuroticism and speed-accuracy tradeoffs on choice reaction-time task. Personality and Individual Differences, 7, 919-921. Lobaugh N.J., Cole S. i Rovet J.F. (1998). Visual Search for Features and Conjunctions in Development. Canadian Journal of Experimental Psychology, 52, 4, 201-211.
Luchins A.S. (1942). Mechanization in problem solving: the effect of Einstellung. Psychological Monographs, 54, (cały nr 248). McElree B. i Dosher B.A. (1993). Serial Retrieval Processes in the Recovery of Order Information. Journal of Experimental Psychology: General, 122, 3, 291-315. McLeod P., Driver J. i Crisp J. (1988). Visual search for conjunction of movement and form is parallel. Nature, 332, 154-155. Meyer D.E., Irwin D.E., Osman A.M. i Koniuos J. (1988). The Dynamics of Cognition and Action. Mental Processes Inferred from Speed-Accuracy Decomposition. Psychological Review, 95, 2, 183-237. Nęcka E. (1987). Proces twórczy i jego ograniczenia. Kraków: Wydawnictwo UJ (wyd. 2.: 1995, Kraków: Impuls). Nęcka E. (1994). Inteligencja i procesy poznawcze. Kraków: Impuls. Posner M.I. i Mitchell R. (1967). Chronometric analysis of classification. Psychological Review, 74, 392-409. Posner M.I. (1982) Cumulative development of attentional theory. American Psychologist, 37, 2. Raufaste E., Eyrolle H. i Martiné C. (1998). Pertinence generation in radiological diagnosis: Spreading activation and the nature of expertise. Cognitive Science, 22, 517-546. Schneider W. i Shiffrin R.M. (1977). Controlled and Automatic Human Information Processing: I. Detection, Search, and Attention. Processing: I. Detection, Search, and Attention. Psychological Review, 84, 1-67. Schneider W., Dumais S.T. i Shiffrin R.M. (1984). Automatic and control processing and attention. W Parasuraman, R., Davies, D.R. (red.). Varieties of attention. Orlando: Academic Press. Shiffrin R.M. i Schneider W. (1977). Controlled and Automatic Human Information Processing: II. Perceptual Learning, Automatic Attending, and a General theory. Psychological Review, 84, 127-191. Snodgrass J.G., Luce R.D. i Galanter E. (1967). Some experiments on simple and choice reaction time. Journal of Experimental Psychology, 75, 1-17. Szymura B. i Nęcka E. (1998). Visual selective attention and personality: An experimental verification of three models of extraversion. Personality and Individual Differences, 24, 713-729. Treisman A.M. (1988). Features and objects: The fourteenth Bartlett memorial lecture. Quarterly Journal of Experimental Psychology, 40(2), 201-237.
Wolfe J. (1994). Guided Search 2.0: A revised model of visual search. Psychonomic Bulletin and Review, 1, 202-238. Woltz D.J., Bell B.G., Kyllonen P.C. i Gardner M.K. (1996). Memory for order of operations in the acquisition and transfer of sequential cognitive skills. Journal of Experimental Psychology: Learning, Memory, and Cognition, 22, 438-457. Woltz D.J., Gardner M.K. i Bell B.G. (2000). Negative Transfer Errors in Sequential Cognitive Skills. Strong-but-Wrong Sequence Application. Journal of Experimental Psychology: Learning, Memory and Cognition, 26, 3, 601-625. Zenger B. i Fahle M.(1997). Missed Targets Are More Frequent Than False Alarms. A Model for Error Rates in Visual Search. Journal of Experimental Psychology: Human Perception and Performance, 23, 6, 1783-1791.