「.NET 開発基盤部会 Wiki」は、「Open棟梁Project」,「OSSコンソーシアム .NET開発基盤部会」によって運営されています。
目次 †
概要 †
(Long short-term memory: LSTM)
特徴 †
- シンプルなRNNのhtはコロコロ変わるので記憶力が弱いと言える。
(長文を読んで要約をするというようなタスクには記憶力が足りない)
- 長期的特徴と短期的特徴を学習することができる。欠点は計算量が多いこと。
構造 †
そもそもゲートとはなにか? †
- LSTMには回路中にゲートというモノが含まれる。
- コレはRNN系の回路で次にどの程度前の情報を渡すか?を制御する。
- 制御に使うベクトルをXゲート・ベクトルと呼ぶ。
- このベクトルの計算方法はどれもxとht-1の全結合を足してSigmoid関数(σ)にかけた0-1の値になる。
GRU (Gated Recurrent Unit) †
- LSTMの簡略版で、
- 長期的特徴と短期的特徴を学習する方法として、
- リセット・ゲートと更新ゲートを採用しており、
- どの程度を忘れるか制御して長期記憶を実現する。
- ゲートがリセット・ゲートと更新ゲートの2つ
- リセット・ゲート:前の情報をどれだけ捨てるかを決定する。
- 更新ゲート:今の情報をどれだけ取り込むかを決定する。
LSTM (Long short-term memory) †
- 追加のニューロン
- ゲートをコントロールするニューロン
- セルへの入力を求めるニューロン
- 追加のニューロンへもCEC(記憶セル)の値を入力
- 重み衝突(入力重み衝突、出力重み衝突)
3つのゲートを追加(Attention機構に近い)。
- 入力重み衝突:入力ゲート
- 出力重み衝突:出力ゲート
- 上記以外に、忘却ゲート
LSTMでできること †
≒ RNNでできること
詳細 †
GRUの仕組みと構造の説明 †
数式と構造 †
数式 | GRUセルの構造 |
|
|
※ 「*」はアダマール積と言う。 |
要素の説明 †
- 式の意味としては、
・RNNの式と同じだが活性化関数がSigmoid関数(σ)なので0-1の値
・更に、重みはWhとWxではなくWzと、同じものを使っているぽい。
- ただし、ht(出力)の式での使われ方の観点からは、
ht(出力)をht-1(前の情報)から~ht(今の情報)に、どの程度変化させるか?を決める。
- 式の意味としては、zt(更新ゲート・ベクトル)と同じで、
・RNNの式と同じだが活性化関数がSigmoid関数(σ)なので0-1の値
・更に、重みはWhとWxではなくWrと、同じものを使っているぽい。
- ただし、~htの式での使われ方の観点からは、ht-1(前の情報)をどの程度減衰させるかを決める。
- 式の意味としては、
・活性化関数含め、ほとんどRNNの式。
・ただし、rt(リセット・ゲート・ベクトル)によって
ht-1(前の情報)が減衰される機能が盛り込まれている。
- ただし、ht(出力)の式での使われ方の観点からは、
ht(出力)を算出する際にht-1(前の情報)にブレンドする~ht(今の情報)。
- ht(出力)は計算済みのht-1(前の情報)と~ht(今の情報)を、
計算したzt(更新ゲート・ベクトル)を使ってブレンドしている。
- ztが0に近いと、ht-1(前の情報)が強調される(文脈に変化がない場合)。
- ztが1に近いと、~ht(今の情報)が強調される(文脈に変化がある場合)。
- リセット・ゲート:過去の情報をどれだけ捨てるかを決定する。
- 入力と重みを使ってrt(リセット・ゲート・ベクトル)を計算する。
- \~ht(今の情報)の計算の回路にrt(リセット・ゲート・ベクトル)を流す。
- 更新ゲート:過去の情報をどれだけ取り込むかを決定する。
- 入力と重みを使ってzt(更新ゲート・ベクトル)を計算する。
- (前の情報を減衰する)rt(リセット・ゲート・ベクトル)を使って~ht(今の情報)の計算を行う。
- ht-1(前の情報)に~ht(今の情報)をどの程度ブレンドするかをzt(更新ゲート・ベクトル)を使ってht(出力)を計算する。
LSTMの仕組みと構造の説明 †
数式と構造 †
要素の説明 †
- 数式
Cは長期記憶(コンテキスト)、Hは短期記憶(...)
- 式の意味としては、GRUのzt(更新ゲート・ベクトル)、rt(リセット・ゲート・ベクトル)と同じ。
- ただし、Ct(長期記憶)の式での使われ方の観点からは、Ct(長期記憶)に、Ct-1(前長期記憶)を、どの程度含めるか?を決める。
- 式の意味としては、ft(忘却ゲート・ベクトル)と同じ。
- ただし、Ct(長期記憶)の式での使われ方の観点からは、~Ct(...)...
- 式の意味としては、ft(忘却ゲート・ベクトル)と同じ。
- ただし、ht(出力の短期記憶)の式での使われ方の観点からは、Ct(長期記憶)中の短期記憶を抜き出す。
- ht(出力の短期記憶)は、
- 計算済みのCt(長期記憶)と計算したot(出力ゲート・ベクトル)を使って
- Ct(長期記憶)中の短期記憶を抜き出したもの。
拡張形式 †