Najważniejszym krokiem w tworzeniu sztucznej sieci neuronowej jest określenie modelu neuronu. Matematyczny model neuronu będziemy nazywać neuronem formalnym.
W uproszczeniu neuron wykazuje dwa podstawowe stany: spoczynku i wzbudzenia. Aby wzbudzić neuron potrzeba pewnej ilości nagromadzonych w czasie sygnałów wejściowych.

Jednym z najważniejszych modeli neuronów jest neuron McCullocha-Pittsa(1943).
Stan takiego modelu jest opisany poniższymi równaniami:

\displaystyle{\sigma_i (t)=f[h_i(t)-T_i]}
\displaystyle{h_i=(t)\sum_{j=1}^{n}J_{ij}\sigma_{j}(t-1)}

gdzie: \sigma_i(t) jest stanem neuronu i-tego w czasie t.
f– jest funkcją aktywacji neuronu,
h_i(t) jest polem lokalnym działającym na neuron i w czasie t,
T_i progiem zadziałania i-tego neuronu
J_{ij} siłą połączenia synaptycznego między i-tym a j-tym neuronem.
\sigma_{j}(t-1) stanem j-tego neuronu w chwili wcześniejszej (t-1)/

Funkcja postaci Heaviside’a:
\displaystyle{f(x)= \left \{ {{0 \textrm{ dla } x\leq 0} \atop {1 \textrm{ dla }} x>0} \right.}

Powyższą funkcję będziemy oznaczać jako: \Theta
Powyższy neuron jest dwustanowy, przyjmuje wartości \begin{Bmatrix} 0,1\end{Bmatrix}, przy czym \sigma_i=0 będzie oznaczać neuron w stanie spoczynku
a \sigma_i=1, stan wzbudzony.

Z powyższego rysunku wynika, że neuron przechodzi w stan wzbudzony w chwili t, gdy pole h_i przekracza wartość progu T_i.
Wartość pola lokalnego jest wynikiem sumowań stanów wszystkich neuronów a wartość progu T_i jest parametrem charakteryzującym i-ty neuron.
Powyższy neuron “nie ma pamięci” – na jego stan wpływa tylko to co działo się w chwili t-1.

Można zastosować prostą transformację tak by neuron przyjmował wartości -1 i +1, co pozwala podobiznę do układu magnetycznego, gdzie są dwa przeciwne kierunki.
Owa transformacja wygląda tak:
\displaystyle{{S_i \equiv 2\sigma_i -1}}

Przykładem bardziej złożonego neuronu jest neuron Aihary:

\displaystyle{S_i(t+1)=f [\sum_{j=1}^{N}J_{ij}S_j} - \sum_{r=0}^{t}k^r S_i(t-r)-T_i]

gdzie f jest funkcją aktywacji która ma postać: \displaystyle{f(x)=\frac{1}{1+e^{-gx}}}, g jest parametrem wzmocnienia, k- czynnkiem tłumiącym a T_i-progiem.

Na bieżący stan neuronu S_i(t+1) wpływają jego porzednie stany z r poprzednich kroków czasowych. Wykładniczy czynnik k^r określa, że im wcześniejszy stan jest bardziej odległy od bieżącego stanu neuronu, tym wpływ jest mniejszy.

Neurony analogowe:

Dla tej grupy neuronów stak i..-tego neuronu jest określony aktywnością V_i. Zależy on od prądów indukowanych przez neurony, upływności przez oporność błony komórkowej i dopływu prądów od otoczenia I_i.

Stan ww neuronu opisują poniższe równania:

\displaystyle{C_i\frac{du_i}{dt}=\sum_{j\neq 1}^{N}\frac{J_{ij}f(u_i)-u_i}{R_i+I_i}}
\displaystyle{V_i=V_0 f(u_i)}

I-ty neuron charakteryzowany jest prze pojemność C_i, oporność błony R_i i funkcję aktywacji f.
Oczywiście sztuczne neurony są łączone w wielkie struktury które nazywamy sieciami neuronowymi, o których jeszcze się dowiecie z bloga w najbliższym czasie.

Czas na zastosowania:

-systemy rozpoznawania tekstu
-rozpoznawanie artykułów niebezpiecznych na lotniskach
-synteza mowy
-aproksymacja i prognozowanie danych wyjściowych na podstawie danych wejściowych
-kojarzenie i analiza danych
-prognozy giełdowe
-prognozy cen
-poszukiwania ropy naftowej

i wiele innych.

1 KOMENTARZ

ZOSTAW ODPOWIEDŹ

Please enter your comment!
Please enter your name here