Version 22 (modified by 6 years ago) ( diff ) | ,
---|
4.2. LSTM невронски мрежи
Референци?
Музиката е резултат на креативноста на човекот и неговото познавање за неа. Таа има сложена структура, односно контекст кој изразува чувства. За да може една машина како компјутер да создава дела со сложен контекст, кои ќе имаат некоја структура и смисла, потребна е меморија од минатото, односно да биде способен да памети долгорочни зависности. Ова е овозможено со создавањето на рекурентните невронски мрежи со долго-краткорочна меморија. Разликата помеѓу едноставна рекурентна невронска мрежа и рекурентна невронска мрежа со долго-краткорочна меморија е во бројот на слоеви, односно едноставната р.н.м. има еден слој, додека р.н.м. со д-к. меморија има четири интерактивни слоја.
Сл. 18. Ванила рекурентна н. мрежа наспроти рекурентна н. м. со долго-краткорочна меморија
LSTM невронските мрежи функционираат на следниот начин низ нивните четири слоја:
1. Слој - Порта за заборавање
Овој слој ни овозможува да одлучиме кои информации ќе ги ќе ги отфрлиме, односно ќе ги заборавиме за во следниот чекор. Математички тоа е дефинирано со равенката (1):
ft= σ (Wf [h(t-1) ,xt ]+ bf ) (1), која значи да погледнеме во претходниот влез (ht-1 и xt) и со помош на сигмоидна функција како резултат ќе добиеме бр. од 0 до 1 кој ни кажува колку да зачуваме во состојбата Ct-1 .
2. Слој – Порта за влез
Слојот порта за влез ни кажува кои информации ќе ги додадеме. Овој слој е дефиниран со две равенки, првата равенка (2) го опишува сигмоид слојот од портата за влез, односно одлучува која вредност ќе се надогради, додека втората равенка (3) e тангенс слојот од портата за влез, која креира нова можна вредност Ct.
it=σ (Wi [h(t-1) ,xt ]+ bi ) - равенка за сигмоид слој (2)
Ct=tanh(Wc [h(t-1) ,xt ]+ bc ) - равенка за тангенс слој (3)
3. Слој на комбинирање
Во овој слој се врши комбинирање на претходно опишаните два слоја, односно се помножува старата состојба Ct-1 со ft и се додава it * Ct - за да се додади новата кандидат вредност.
Математички изразено равенката на овој слој е: Ct= ft* Ct-1 + it * Ct
4. Слој за филтрирање/излез на состојбата на ќелијата
Тука се дефинира каков ќе биде излезот, а тоа го правиме со множење на двете функции сигмоид и тангенс, така што сигмуид функцијата ни кажува кој дел ќе оди на излез, а тангенс функцијата служи за да ја ограничи вредноста да биде помеѓу -1 и 1.
Равенката на сигмоид функцијата е: σt=σ (Wо [h(t-1) ,xt ]+ bо ) Равенката за излезната состојба е: ht= σt ×tanh(Ct )
Постојат и повеќе видови на р.н.м. со долго-краткорочна меморија, но не се потребни во рамките на овој труд и затоа нема да бидат дискутирани.
Attachments (5)
- diff-rnn-lstm.png (225.7 KB ) - added by 6 years ago.
- combine.png (132.6 KB ) - added by 6 years ago.
- input.png (122.3 KB ) - added by 6 years ago.
- forget.png (115.4 KB ) - added by 6 years ago.
- output.png (144.2 KB ) - added by 6 years ago.
Download all attachments as: .zip