Changes between Version 14 and Version 15 of AGMFM - 4.2. LSTM рекурентни невронски мрежи
- Timestamp:
- 11/16/18 07:28:03 (6 years ago)
Legend:
- Unmodified
- Added
- Removed
- Modified
-
AGMFM - 4.2. LSTM рекурентни невронски мрежи
v14 v15 33 33 Овој слој ни овозможува да одлучиме кои информации ќе ги ќе ги отфрлиме, односно ќе ги заборавиме за во следниот чекор. Математички тоа е дефинирано со равенката: 34 34 35 f,,t,,= σ (W,,f,, [h,,(t-1),, ,x,,t,, ]+ b,,f,, ), која значи да погледнеме во претходниот влез (h,,t-1,, и x,,t,,) и со помош на сигмоидна функција како резултат ќе добиеме бр. од 0 до 1 кој ни кажува колку да зачуваме во состојбата C t-1.35 f,,t,,= σ (W,,f,, [h,,(t-1),, ,x,,t,, ]+ b,,f,, ), која значи да погледнеме во претходниот влез (h,,t-1,, и x,,t,,) и со помош на сигмоидна функција како резултат ќе добиеме бр. од 0 до 1 кој ни кажува колку да зачуваме во состојбата C,,t-1,, . 36 36 37 37 … … 42 42 Слојот порта за влез ни кажува кои информации ќе ги додадеме. Овој слој е дефиниран со две равенки, првата равенка го опишува сигмоид слојот од портата за влез, односно одлучува која вредност ќе се надогради, додека втората равенка e тангенс слојот од портата за влез, која креира нова можна вредност Ct. 43 43 44 i_t=σ (W_i [h_(t-1),x_t ]+ b_i ) - равенка за сигмоид слој 45 C_t=tanh(W_c [h_(t-1),x_t ]+ b_c ) - равенка за тангенс слој 44 i,,t,,=σ (W,,i,, [h,,(t-1),, ,x,,t,, ]+ b,,i,, ) - равенка за сигмоид слој 45 46 C,,t,,=tanh(W,,c,, [h,,(t-1),, ,x,,t,, ]+ b,,c,, ) - равенка за тангенс слој 46 47 47 48