Changes between Initial Version and Version 1 of AGMFM - 4.2. LSTM рекурентни невронски мрежи


Ignore:
Timestamp:
10/23/18 18:43:52 (6 years ago)
Author:
Monika Rizova
Comment:

Legend:

Unmodified
Added
Removed
Modified
  • AGMFM - 4.2. LSTM рекурентни невронски мрежи

    v1 v1  
     1**4.2. LSTM невронски мрежи**
     2
     3Музиката е резултат на креативноста на човекот и неговото познавање за неа. Таа има сложена
     4структура, односно контекст кој изразува чувства. За да може една машина како компјутер да создава дела со сложен контекст, кои ќе имаат некоја структура и смисла, потребна е меморија од минатото,
     5односно да биде способен да памети долгорочни зависности. Ова е овозможено со создавањето на рекурентните невронски мрежи со долго-краткорочна меморија, (на анг. Long-short term memory networks – LSTM networks).
     6Разликата помеѓу едноставна рекурентна невронска мрежа и рекурентна невронска мрежа со долго-краткорочна меморија е во бројот на слоеви, односно едноставната р.н.м. има еден слој, додека р.н.м. со д-к. меморија има четири интерактивни слоја.
     7 
     8Сл. 22. Ванила рекурентна н.  мрежа наспроти рекурентна н. м. со долго-краткорочна меморија
     9LSTM невронските мрежи функционираат на следниот начин низ нивните четири слоја:
     10
     111. Слој - Порта за заборавање
     12
     13[[Image()]]
     14 
     152. Слој – Порта за влез
     16
     17[[Image()]]
     18
     19i_t=σ (W_i [h_(t-1),x_t ]+ b_i )  - равенка за сигмоид слој
     20 
     21
     223. Слој на комбинирање
     23
     24Во овој слој се врши комбинирање на претходно опишаните два слоја, односно се помножува старата состојба Ct-1 со ft и се додава it * Ct  - за да се додади новата кандидат вредност.
     25
     26[[Image()]]
     27                                                         
     28Математички изразено равенката на овој слој е: C_t= f_t× C_(t-1)+ i_t×C_t
     29
     30
     314. Слој за филтрирање/излез на состојбата на ќелијата
     32
     33Тука се дефинира каков ќе биде излезот, а тоа го правиме со множење на двете функции сигмоид и тангенс, така што сигмуид функцијата ни кажува кој дел ќе оди на излез, а тангенс функцијата служи за да ја ограничи вредноста да биде помеѓу -1 и 1. 
     34
     35[[Image()]]
     36
     37Равенката на сигмоид функцијата е: σ_t=σ (W_о [h_(t-1),x_t ]+ b_о )
     38Равенката за излезната состојба е:   h_t= σ_t  ×tanh(C_t )
     39Постојат и повеќе видови на р.н.м. со долго-краткорочна меморија, но не се потребни во рамките на овој труд и затоа нема да бидат дискутирани.