「.NET 開発基盤部会 Wiki」は、「Open棟梁Project」,「OSSコンソーシアム .NET開発基盤部会」によって運営されています。
目次 †
概要 †
(Long short-term memory: LSTM)
特徴 †
- シンプルなRNNのhtはコロコロ変わるので記憶力が弱いと言える。
(長文を読んで要約をするというようなタスクには記憶力が足りない)
- 長期的特徴と短期的特徴を学習することができる。欠点は計算量が多いこと。
- 長期依存が学習できない原因は勾配消失問題があり、
(遠くの層ほど勾配の大きさが小さくなってしまい、学習が進み難い)
- 過去10ステップ程しか記憶できなかったRNNに
過去1000ステップ以上の記憶を保持できる機能が追加されている。
構造 †
GRU (Gated Recurrent Unit) †
- LSTMの簡略版で、
- 長期的特徴と短期的特徴を学習する方法として、
- リセット・ゲートと更新ゲートを採用している。
- ゲートがリセット・ゲートと更新ゲートの2つ
- リセット・ゲート:前の情報をどれだけ捨てるかを決定する。
- 更新ゲート:今の情報をどれだけ取り込むかを決定する。
LSTM (Long short-term memory) †
- 追加のニューロン
- ゲートをコントロールするニューロン
- セルへの入力を求めるニューロン
- 追加のニューロンへもCEC(記憶セル)の値を入力
- 重み衝突(入力重み衝突、出力重み衝突)
3つのゲートを追加(Attention機構に近い)。
- 入力重み衝突:入力ゲート
- 出力重み衝突:出力ゲート
- 上記以外に、忘却ゲート
LSTMでできること †
≒ RNNでできること
詳細 †
GRUの仕組みと構造の説明 †
数式と構造 †
要素の説明 †
- 式の意味としては、
・RNNの式と同じだが活性化関数がSigmoid関数(σ)
・更に、重みはWhとWxではなくWzと、同じものを使っているぽい。
- ただし、htの式での使われ方の観点からは、
ht(出力)をht-1(前の情報)から~ht(今の情報)に、どの程度変化させるか?を決める。
- 式の意味としては、ztと同じで、
・RNNの式と同じだが活性化関数がSigmoid関数(σ)
・更に、重みはWhとWxではなくWrと、同じものを使っているぽい。
- ただし、~htの式での使われ方の観点からは、
ht-1(前の情報)をどの程度減衰させるかを決める。
- 式の意味としては、
・活性化関数含め、ほとんどRNNの式。
・ただし、rtによってht-1(前の情報)が減衰される機能が盛り込まれている。
- ただし、htの式での使われ方の観点からは、
ht(出力)を算出する際にht-1(前の情報)にブレンドする~ht(今の情報)。
- htは計算済みのht-1(前の情報)と~ht(今の情報)を、計算したztを使ってブレンドしている。
- ztが0に近いと、ht-1(前の情報)が強調される(文脈に変化がない場合)。
- ztが1に近いと、~ht(今の情報)が強調される(文脈に変化がある場合)。
- リセット・ゲート:過去の情報をどれだけ捨てるかを決定する。
- 入力と重みを使ってrtを計算する。
- \~htの計算の回路にrtを流す。
- 更新ゲート:過去の情報をどれだけ取り込むかを決定する。
- 入力と重みを使ってztを計算する。
- (前の情報を減衰する)rtを使って~ht(今の情報)の計算を行う。
- ht-1(前の情報)に~ht(今の情報)をどの程度ブレンドするかをztを使ってhtを計算する。
LSTMの仕組みと構造の説明 †
拡張形式 †