I EKSPLORACJA DANYCH

Podobne dokumenty
Sztuczne sieci neuronowe w analizie procesów odlewniczych

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;

Zastosowania sieci neuronowych

Metody Sztucznej Inteligencji II

Uczenie sieci neuronowych i bayesowskich

Uczenie sieci typu MLP

8. Neuron z ciągłą funkcją aktywacji.

Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, Spis treści

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Lekcja 5: Sieć Kohonena i sieć ART

Oprogramowanie Systemów Obrazowania SIECI NEURONOWE

WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO. Stanisław Kowalik (Poland, Gliwice)

Podstawy sztucznej inteligencji

Inteligentne systemy przeciw atakom sieciowym

PROGNOZOWANIE OSIADAŃ POWIERZCHNI TERENU PRZY UŻYCIU SIECI NEURONOWYCH**

SZTUCZNA INTELIGENCJA

Temat: Sieci neuronowe oraz technologia CUDA

Aproksymacja funkcji a regresja symboliczna

Zastosowanie metod eksploracji danych Data Mining w badaniach ekonomicznych SAS Enterprise Miner. rok akademicki 2013/2014

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe.

Projekt Sieci neuronowe

4.1. Wprowadzenie Podstawowe definicje Algorytm określania wartości parametrów w regresji logistycznej...74

Optymalizacja ciągła

Podstawy Sztucznej Inteligencji (PSZT)

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.

Sztuczne sieci neuronowe (SNN)

Sztuczne sieci neuronowe

Testowanie modeli predykcyjnych

Uczenie sieci radialnych (RBF)

S O M SELF-ORGANIZING MAPS. Przemysław Szczepańczyk Łukasz Myszor

Wstęp do teorii sztucznej inteligencji Wykład II. Uczenie sztucznych neuronów.

Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I

w analizie wyników badań eksperymentalnych, w problemach modelowania zjawisk fizycznych, w analizie obserwacji statystycznych.

Prognozowanie kierunku ruchu indeksów giełdowych na podstawie danych historycznych.

wiedzy Sieci neuronowe

Agnieszka Nowak Brzezińska

Inteligentne systemy informacyjne

Systemy uczące się Lab 4

Sieci neuronowe jako sposób na optymalizacje podejmowanych decyzji. Tomasz Karczyoski Wydział W-08 IZ

Widzenie komputerowe

Sieci neuronowe w Statistica. Agnieszka Nowak - Brzezioska

Sieci neuronowe w Statistica

Spis treści. Przedmowa... XI. Rozdział 1. Pomiar: jednostki miar Rozdział 2. Pomiar: liczby i obliczenia liczbowe... 16

Elementy inteligencji obliczeniowej

Metody i techniki sztucznej inteligencji / Leszek Rutkowski. wyd. 2, 3 dodr. Warszawa, Spis treści

SIECI RBF (RADIAL BASIS FUNCTIONS)

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Sztuczne sieci neuronowe Ćwiczenia. Piotr Fulmański, Marta Grzanek

Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18

Temat: ANFIS + TS w zadaniach. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu

Wprowadzenie do Sieci Neuronowych Laboratorium 05 Algorytm wstecznej propagacji błędu

Zastosowania sieci neuronowych

Sztuczne Sieci Neuronowe. Wiktor Tracz Katedra Urządzania Lasu, Geomatyki i Ekonomiki Leśnictwa, Wydział Leśny SGGW

Algorytmy decyzyjne będące alternatywą dla sieci neuronowych

Sieć przesyłająca żetony CP (counter propagation)

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335

Automatyczna predykcja. Materiały/konsultacje. Co to jest uczenie maszynowe? Przykład 6/10/2013. Google Prediction API, maj 2010

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.

Sztuczna inteligencja

Sztuczne sieci neuronowe

ZACHODNIOPOMORSKI UNIWERSYTET TECHNOLOGICZNY W SZCZECINIE

MODELOWANIE RZECZYWISTOŚCI

1.7. Eksploracja danych: pogłębianie, przeszukiwanie i wyławianie

SAS wybrane elementy. DATA MINING Część III. Seweryn Kowalski 2006

METODY INŻYNIERII WIEDZY

Mechatronika i inteligentne systemy produkcyjne. Modelowanie systemów mechatronicznych Platformy przetwarzania danych

SIEĆ NEURONOWA JAKO NARZĘDZIE APROKSYMACJI I KLASYFIKACJI DANYCH. Jakub Karbowski Gimnazjum nr 17 w Krakowie

Metody sztucznej inteligencji Zadanie 3: (1) klasteryzacja samoorganizująca się mapa Kohonena, (2) aproksymacja sieć RBF.

METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING

Klasyfikatory: k-nn oraz naiwny Bayesa. Agnieszka Nowak Brzezińska Wykład IV

HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM

Elementy Sztucznej Inteligencji. Sztuczne sieci neuronowe cz. 2

Definicja perceptronu wielowarstwowego

BIOCYBERNETYKA SIECI NEURONOWE. Akademia Górniczo-Hutnicza. Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej.

Zastosowania sieci neuronowych - automatyka identyfikacja sterowanie

6. Perceptron Rosenblatta

Podstawy Sztucznej Inteligencji Sztuczne Sieci Neuronowe. Krzysztof Regulski, WIMiIP, KISiM, B5, pok. 408

Katedra Zarządzania i Informatyki Politechnika Śląska

PRÓBA ZASTOSOWANIA SIECI NEURONOWYCH DO PROGNOZOWANIA OSIADAŃ POWIERZCHNI TERENU POWSTAŁYCH NA SKUTEK EKSPLOATACJI GÓRNICZEJ**

Optymalizacja optymalizacji

Rozdział 1 Sztuczne sieci neuronowe. Materiały do zajęć dydaktycznych - na podstawie dokumentacji programu Matlab opracował Dariusz Grzesiak

Ontogeniczne sieci neuronowe. O sieciach zmieniających swoją strukturę

Modelowanie jako sposób opisu rzeczywistości. Katedra Mikroelektroniki i Technik Informatycznych Politechnika Łódzka

Rozpoznawanie obrazów

Metody systemowe i decyzyjne w informatyce

Metody Prognozowania

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Elementy kognitywistyki II: Sztuczna inteligencja. WYKŁAD X: Sztuczny neuron

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3

Algorytm. Krótka historia algorytmów

Wstęp do sieci neuronowych, wykład 9 Sieci rekurencyjne. Autoasocjator Hopfielda

ALGORYTM RANDOM FOREST

Transkrypt:

I EKSPLORACJA DANYCH Zadania eksploracji danych: przewidywanie Przewidywanie jest podobne do klasyfikacji i szacowania, z wyjątkiem faktu, że w przewidywaniu wynik dotyczy przyszłości. Typowe zadania przewidywania to: przewidywanie ceny akcji na giełdzie przewidywanie własności nowego tworzywa przewidywanie rozwoju sektora gospodarki

I EKSPLORACJA DANYCH Zadania eksploracji danych: przewidywanie Wszystkie metody i techniki wykorzystywane do klasyfikacji i szacowania mogą być również użyte, pod odpowiednimi warunkami, do przewidywania. Metody wykorzystywane do przewidywania obejmują: tradycyjne metody szacowania wartości punktu i przedziału ufności regresję liniową i korelację oraz regresję wielokrotną metody eksploracji danych, takie jak sieci neuronowe, drzewa decyzyjne i inne

VI EKSPLORACJA DANYCH Zadania eksploracji danych: klasyfikacja Algorytm klasyfikacji: algorytm k - najbliższych sąsiadów wybieramy nowy obiekt o wejściowym wektorze Y analizujemy k najbliższych punktowi Y punktów ze zbioru danych treningowych (uczących) przydzielamy ten obiekt do klasy, w której jest większość spośród tych k punktów

VI EKSPLORACJA DANYCH Zadania eksploracji danych: klasyfikacja Algorytm klasyfikacji: algorytm k - najbliższych sąsiadów Algorytm k najbliższych sąsiadów może być również stosowany do szacowania i przewidywania. Uśrednianie lokalnie ważone metoda szacuje zmienną celu jako średnią ważoną dla k najbliższych sąsiadów wg. wzoru: y nowy = Σ i w i y i Σ i w i gdzie w i = 1/ odległość 2

Sztuczne sieci neuronowe: informacje ogólne Sztuczna sieć neuronowa jest to złożona zależność matematyczna, której struktura naśladuje strukturę i przetwarzanie sygnałów, jakie mają miejsce w korze mózgowej ssaków, w tym ludzi Neuron (węzeł sieci) Synapsy zawierają (przekazują) wartości zmiennych sygnały oraz stałe modelu - wagi synaps. Synapsa (połączenie węzłów, także wejście i wyjście sieci) Neurony wykonują operacje (działania) matematyczne na tych wielkościach.

Sztuczne sieci neuronowe: informacje ogólne Zdolność do uczenia się i uogólniania nabytej wiedzy. Sztuczne sieci neuronowe pozwalają na znalezienie prawidłowości w warunkach dużej liczby zmiennych o różnym charakterze. Prawidłowości takie są często niewykrywalne przez zmysły naukowców i inne metody matematyczne. Sieć jest odporna na błędy w danych (zaszumienia) oraz błędy pojawiające się w niektórych wagach, czyli błędnie wyznaczonych niektórych stałych modelu. Szybkie przetwarzanie informacji, często możliwe w czasie rzeczywistym.

Sztuczne sieci neuronowe: informacje ogólne Sieci neuronowe należą do systemów uczących się. Wartości stałych (wag sieci) wyznaczane są na podstawie wyników doświadczeń (przykładów uczących) drogą kolejnych poprawek (korekt) tak, aby wyjścia (odpowiedzi sieci) zbliżały się do wartości rzeczywistych. Jest to tzw. uczenie nadzorowane (inaczej z nauczycielem), spotykane najczęściej. Przykład zależności opisywanej przez sieć: Y1 = f 1 (X1, X2, X3,...) Y2 = f 2 (X1, X2, X3,...) Współczynniki tych równań W (wagi synaps) są znajdowane (korygowane) w procesie uczenia na podstawie różnic pomiędzy wartościami przewidywanymi przez sieć Y, a uczącymi Z (znanymi, zaobserwowanymi): W = F {W, (Y Z)} X sygnały wejściowe (zmienne niezależne), Y sygnały wyjściowe (zmienne zależne)

Sztuczne sieci neuronowe: informacje ogólne Sieci neuronowe mogą realizować kilka rodzajów zadań. W modelowaniu procesów technologicznych (produkcyjnych), w tym metalurgicznych i odlewniczych wykorzystywane są: Regresja inaczej aproksymacja nieznanej funkcji wielu zmiennych (najczęściej), na podstawie znanych obserwacji doświadczalnych Predykcja, czyli przewidywanie przyszłych zachowań się systemu na podstawie ciągu wartości z przeszłości z ciągłą adaptacją wag sieci (rzadziej) Wykrywanie wzorców, umożliwiające grupowanie sygnałów wykazujących podobne cechy (sieci typu Kohonena, stosowane rzadko). Jest to uczenie nienadzorowane, nie wymagające zbioru uczącego typu: wejście zaobserwowane wyjście

Sztuczne sieci neuronowe: informacje ogólne Sieci neuronowe mogą posiadać różne architektury, czyli typy struktury oraz ich konkretne realizacje w ramach danego typu. Do najważniejszych należą: Sieć jednokierunkowa wielowarstwowa, zwana siecią MLP (od skrótu angielskiego), najczęściej wykorzystywana w realizacji zadań związanych z modelowaniem procesów technologicznych. Sieć rekurencyjna, charakteryzująca się występowaniem sprzężeń zwrotnych między elementami wejściowymi a wyjściowymi.

Sztuczne sieci neuronowe: sieć typu MLP Sieć jednokierunkowa czterowarstwowa realizująca aproksymację funkcji typu: Y1 = f 1 (X1, X2, X3,..., X10) Y2 = f 2 (X1, X2, X3,..., X10) Kolorem zielonym oznaczono warstwy ukryte sieci (w tym przypadku występują dwie) Kolorem niebieskim oznaczono warstwę wyjściową Kolor czerwony oznacza warstwę wejściową, w której neurony nie wykonują żadnych operacji matematycznych

Sztuczne sieci neuronowe: informacje ogólne x 2, w 2 x 1, w 1 y, (w) Neuron liniowy: n y = x w + i i i= 1 w 0 x n, w n Neuron nieliniowy: y n = f i= 1 x i w i + w 0 f oznacza tzw. funkcję aktywacji, najczęściej mającą kształt sigmoidalny, np. dany wzorem: f ( s) = [ 1+ exp( α s) ] 1 1 0,5 0-6 -4-2 0 2 4 6

Uczenie sieci neuronowych: istota problemu Uczenie sieci polega na rozwiązaniu zagadnienia optymalizacyjnego funkcji wielu zmiennych (równej liczbie wszystkich wag synaps plus wyrazów wolnych występujących w całej sieci). Dążymy do znalezienia takich wartości wag, aby wartość błędu średniokwadratowego E wszystkich odpowiedzi sieci, w stosunku do obserwacji doświadczalnych, była najmniejsza. E = 1 p 1 m p m ( d kj Y kj ) k = 1 j= 1 2 m - liczba wyjść sieci, p liczba prezentacji, czyli rekordów obserwacji doświadczalnych d wartości doświadczalne Y wartości otrzymywane z sieci

Uczenie sieci neuronowych: zasady i praktyka Zbiór uczący, podstawowy, wykorzystywany do korygowania wag sieci Zbiór weryfikujący (na ogół mniejszy) służący do bieżącego obliczania błędu dla innych danych w celu sprawdzenia zdolności sieci do uogólnienia. Korekty wag sieci przeprowadza się wielokrotnie, dla całego zbioru uczącego. Jeden cykl: obliczenie błędu modyfikacja wag nazywamy epoką. Koniec uczenia następuje najczęściej wówczas, gdy zaczyna rosnąć błąd dla danych weryfikujących. Ma to na celu niedopuszczenie do przeuczenia się sieci, czyli do nadmiernego dopasowania się do danych uczących bez zdolności do generalizacji przewidywań dla innych danych.

Sztuczne sieci neuronowe: metody uczenia Znanych jest wiele metod znajdowania minimum błędu sieci, które można podzielić na dwie grupy: Metody gradientowe (stosowane najczęściej) Losowo ustala się początkowy zbiór wartości wag, a następnie koryguje się ich wartości tak, aby błąd sieci stale ulegał zmniejszeniu. Prowadzi to często do znajdowania minimum lokalnego tego błędu. Metody poszukujące minimum globalnego błędu (stosowane rzadko) Obejmują metodę symulowanego wyżarzania

Uczenie nadzorowane sieci: metoda gradientowa Błąd sieci Wylosowany punk startowy Osiągnięte najbliższe minimum błędu Wartości wag sieci

Uczenie nadzorowane sieci: metoda gradientowa Znanych jest wiele metod gradientowych, z których metodą klasyczną i najczęściej stosowaną jest metoda propagacji wstecznej błędu. Rysunek przedstawia przykładowy przebieg korekt błędu sieci w kolejnych iteracjach. Dla tych samych danych wylosowanie innego punktu startowego może dać zupełnie inny kształt krzywych. Błąd Metoda propagacji wstecznej błędu Błąd średni Błąd maksymalny 1 0,9 0,8 0,7 0,6 0,5 0,4 0,3 0,2 0,1 0 Błąd minimalny Max. gradient błędu 0 100 200 300 Nr epoki 1 0,9 0,8 0,7 0,6 0,5 0,4 0,3 0,2 0,1 0 Max. gradient błędu

Uczenie nadzorowane sieci: metoda symulowanego wyżarzania Błąd sieci Losowania w pierwszym (szerszym) zakresie (wyższa temperatura) Losowania w następnym (węższym) zakresie (niższa temperatura) Wartości wag sieci Najlepszy wynik z pierwszych losowań (środek przedziału następnego losowania) Najlepszy wynik z następnych losowań

Uczenie nadzorowane sieci: metoda symulowanego wyżarzania Rysunek przedstawia przykładowy przebieg korekt błędu sieci w kolejnych losowaniach wartości wag, dla trzech kolejno zawężanych zakresów (temperatur). Metoda symulowanego wyżarzania może być stosowana jako samoistna, albo jako wstępna, dla ustalenia najlepszego punktu startowego do metody gradientowej. Błąd średniokwadratowy Metoda symulowanego wyżarzania Błąd Temperatura 0,9 0,8 0,7 0,6 0,5 0,4 0,3 0,2 0,1 0 0 200 400 Nr epoki iteracji (losowania wstrząsania wag) 6 5 4 3 2 1 0 Temperatura

Sztuczne sieci neuronowe: wstępna analiza danych Należy wytypować zmienne wejściowe i wyjściowe modelu, kierując się następującymi zasadami: Wytypowanie zmiennych wejściowych (niezależnych) należy poprzedzić analizą istotności ich znaczenia dla zmiennych wyjściowych (zależnych), z wykorzystaniem np. metod statystycznych z grupy analizy wariancji. Należy odrzucić te najmniej znaczące, co ułatwi uczenie sieci i analizę wyników. Ustalając liczbę wyjść (równą liczbie wielkości wynikowych modelu) należy zawsze rozważyć konstruowanie kilku sieci z pojedynczymi wyjściami, co daje zmniejszenie liczby poszukiwanych wag. Dla uzyskania wiarygodnych rezultatów liczebność zbioru uczącego powinna istotnie przewyższać liczbę poszukiwanych wag.

Sztuczne sieci neuronowe: zasady budowania MLP Liczba warstw ukrytych najczęściej wynosi 1, rzadziej 2, bardzo rzadko 3. Liczba neuronów w warstwie wyjściowej (równa liczbie wielkości wynikowych modelu) może być dowolna. Większe liczby neuronów w warstwach ukrytych, związane z większą liczbą poszukiwanych wag, dają dokładniejsze, bardziej elastyczne przewidywania modelu. Wymagają jednak większych zbiorów uczących lub mogą prowadzić do przeuczenia sieci (nadmiernego dopasowania do danych) oraz powodują wydłużenie czasu obliczeń. Dobrą praktyką jest wstępne ustalenie liczby neuronów w poszczególnych warstwach wg zasady postępu geometrycznego pomiędzy liczbą wejść a wyjść sieci.

Sztuczne sieci neuronowe: proces uczenia Różne architektury sieci i poszczególne uczenia tych samych sieci mogą prowadzić do różnych wyników. Należy zatem: przeprowadzić próby z różnymi wariantami sieci (liczbami warstw ukrytych poczynając od jednej spróbować stosować różne liczby neuronów w tych warstwach dla każdej konfiguracji wykonać po kilka lub kilkanaście uczeń. W procesie uczenia wykorzystuje się programy komputerowe, których wiele jest dostępnych na zasadzie shareware.

Sztuczne sieci neuronowe: wykorzystanie i analiza Jakość nauczonej sieci można ocenić wyliczając błąd średniokwadratowy dla zbioru testowego, nie wykorzystywanego w procesie uczenia, tj. niezależnego od zbioru uczącego i weryfikującego (służącego do ustalenia zakończenia procesu uczenia). Jeżeli stosowano różne architektury sieci i/lub wielokrotne uczenie, to w przypadku rozwiązywania zadań typu regresji: stosuje się uśrednianie przewidywanych przez sieci rezultatów, albo korzysta się z sieci o najmniejszym błędzie przewidywania.

Sztuczne sieci neuronowe: wykorzystanie i analiza Najprostszym sposobem wykorzystania nauczonej sieci jest jej odpytywanie, tj. obliczanie wartości wyjść (odpowiedzi) dla zadanych wejść. Ważnym rezultatem nauczonej sieci mogą być także wartości tzw. współczynników istotności wielkości wejściowych, pozwalające na wykrycie znaczenia poszczególnych parametrów dla modelowanego procesu. Są różne sposoby obliczania współczynników istotności.

Sztuczne sieci neuronowe: ogólne zastosowania przemysłowe Przewidywanie własności wyrobów na podstawie parametrów procesu technologicznego Zastąpienie symulacji numerycznej procesów fizycznych uogólnionymi przez sieć neuronową wynikami 'eksperymentów numerycznych' Opis własności materiałów (równania empiryczne) Projektowanie oparte na doświadczeniach zebranych w przemyśle, uogólnionych przez sieć neuronową Przewidywanie awarii urządzeń na podstawie sygnałów typu obciążenie siłowe, temperatura itp. Stosowanie sieci jako sterowników w automatyce

Sztuczne sieci neuronowe: zastosowanie w odlewnictwie Przewidywanie różnego typu awarii, zwłaszcza przy odlewaniu ciągłym Sterowanie procesami wytopu w żeliwiaku i piecu łukowym Gospodarka energetyczna w odlewni Projektowanie odlewów i układów zasilających dla odlewów Projektowanie odpowietrzeń w rdzennicach Sterowanie procesem przerobu masy formierskiej Przewidywanie własności odlewanych stopów Dobór parametrów odlewania ciśnieniowego

Porównanie własności i sposobu działania sztucznej sieci neuronowej i komputera von Neumanna Sieć neuronowa trenowana (uczona prezentowanymi przykładami) przez zmiany wartości wag synaps, progów i ilości połączeń między neuronami elementy pamięci i obliczeniowe są tymi samymi elementami obliczenia prowadzone są równolegle (zarówno dla sygnałów ciągłych jak i dyskretnych) i asynchronicznie odporna na pojawiające się uszkodzenia (lub fałszywe dane) ze względu na dużą liczbę poprawnych sygnałów podawanych w czasie uczenia samoorganizująca się w trakcie uczenia informacje przechowywane są w synapsach, a sieć ma zdolność do zmian (korekty) pod wpływem nowych danych przetwarzanie jest anarchiczne czas jednego cyklu, od którego zależy prędkości przetwarzania, jest rzędu 10-3 Komputer von Neumanna programowany, działa według napisanych instrukcji wykorzystujących operacje "jeśli - to" elementy pamięci i jednostka obliczeniowa są rozdzielone obliczenia prowadzone są synchronicznie (taktowane zegarem), seriami lub w sekwencjach, w postaci cyfrowej nie toleruje błędów zależny od oprogramowania informacje przechowywane są w określonych miejscach (adresowanych komórkach pamięci) i można je tylko zastąpić nowymi danymi przetwarzanie jest autokratyczne czas jednego cyklu, odpowiadający jednemu krokowi w programie przetworzonemu przez jednostkę centralną, jest rzędu 10-9