.NET 開発基盤部会 Wiki」は、「Open棟梁Project」,「OSSコンソーシアム .NET開発基盤部会」によって運営されています。

目次

概要

自己符号化器(AE:オートエンコーダ)、自己識別機とも呼ばれる。

歴史

特徴

教師あり、なし

入出力を一致させる。

特徴表現の獲得

隠れ層の次元を小さくして情報量を小さくした特徴表現を獲得する。
(入力の情報を圧縮される。→ 学習の結果、重みとして要約される。)

※ EncoderもDecoderもニューラルネットワーク

種類

様々な種類があるもよう。

できること

様々な用途で利用されている。

詳細

変分オートエンコーダ(VAE)

仕組み

潜在変数z

最適化

x をより良く表現する p(X) のパラメータを学習するには、周辺尤度 logp(X) の最大化を考える。

記号説明
X再構成されるデータ
p(X)再構成されるデータの確率分布
z潜在変数z
p(z)潜在変数zの確率分布
p(X|z)潜在変数zが与えられた時のxの確率分布(Decoder)
q(z|X)データXが与えられた時のzの確率分布(Encoder)

復元誤差

Decoderによる誤差

KLダイバージェンス

Encoderによる誤差

損失関数

復元誤差KLダイバージェンスの展開式を損失関数として利用することでVAEを最適化出来る

Transformer

RNN Encoder-DecoderのAttention機構と同じ目的を達成するが機構は異なる。

アーキテクチャ

パフォーマンス

RNN Encoder-Decoder(Sequence-to-Sequence)系よりも早くて精度が高い

タスクの概要と構造

オートエンコーダ

#ref(): File not found: "Transformer2.jpg" at page "自己符号化器(AE:オートエンコーダ)"

#ref(): File not found: "Transformer3.jpg" at page "自己符号化器(AE:オートエンコーダ)"

#ref(): File not found: "Transformer4.jpg" at page "自己符号化器(AE:オートエンコーダ)"

https://nlpillustration.tech/?p=2171

Transformer Block

Transformer ≒ Transformer Block

#ref(): File not found: "Transformer5.png" at page "自己符号化器(AE:オートエンコーダ)"

https://agirobots.com/multi-head-attention/

Multi-head Attention

Multi-head AttentionSingle-Head Attention

#ref(): File not found: "Transformer6.png" at page "自己符号化器(AE:オートエンコーダ)"

#ref(): File not found: "Transformer7.png" at page "自己符号化器(AE:オートエンコーダ)"

#ref(): File not found: "Transformer8.png" at page "自己符号化器(AE:オートエンコーダ)"

#ref(): File not found: "Transformer9.png" at page "自己符号化器(AE:オートエンコーダ)"

https://agirobots.com/multi-head-attention/

数式

参考

Qiita

YouTube?

AIcia Solid Project

AI教室 AIRS-Lab

https://www.youtube.com/playlist?list=PLcd5jOpoEDGBDqiRMS4eqkfBwl28ixRYc

AGIRobots

以下はブログ側


トップ   新規 一覧 単語検索 最終更新   ヘルプ   最終更新のRSS