.NET 開発基盤部会 Wiki」は、「Open棟梁Project」,「OSSコンソーシアム .NET開発基盤部会」によって運営されています。

目次

概要

自己符号化器(AE:オートエンコーダ)、自己識別機とも呼ばれる。

歴史

特徴

教師あり、なし

入出力を一致させる。

特徴表現の獲得

隠れ層の次元を小さくして情報量を小さくした特徴表現を獲得する。
(入力の情報を圧縮される。→ 学習の結果、重みとして要約される。)

※ EncoderもDecoderもニューラルネットワーク

種類

様々な種類があるもよう。

できること

様々な用途で利用されている。

自然言語処理

ロボティクス

異常検知

需要予測

詳細

変分オートエンコーダ(VAE)

仕組み

潜在変数z

最適化

x をより良く表現する p(X) のパラメータを学習するには、周辺尤度 logp(X) の最大化を考える。

記号説明
X再構成されるデータ
p(X)再構成されるデータの確率分布
z潜在変数z
p(z)潜在変数zの確率分布
p(X|z)潜在変数zが与えられた時のxの確率分布(Decoder)
q(z|X)データXが与えられた時のzの確率分布(Encoder)

復元誤差

Decoderによる誤差

KLダイバージェンス

Encoderによる誤差

損失関数

復元誤差KLダイバージェンスの展開式を損失関数として利用することでVAEを最適化出来る

Transformer

RNN Encoder-DecoderのAttention機構と同じ目的を達成するが機構は異なる。

アーキテクチャ

パフォーマンス

RNN Encoder-Decoder(Sequence-to-Sequence)系よりも早くて精度が高い

タスクの概要と構造

オートエンコーダ

#ref(): File not found: "Transformer2.jpg" at page "自己符号化器(AE:オートエンコーダ)"

#ref(): File not found: "Transformer3.jpg" at page "自己符号化器(AE:オートエンコーダ)"

#ref(): File not found: "Transformer4.jpg" at page "自己符号化器(AE:オートエンコーダ)"

https://nlpillustration.tech/?p=2171

Transformer Block

Transformer ≒ Transformer Block

#ref(): File not found: "Transformer5.png" at page "自己符号化器(AE:オートエンコーダ)"

#ref(): File not found: "Transformer51.png" at page "自己符号化器(AE:オートエンコーダ)"

https://agirobots.com/multi-head-attention/

Multi-head Attention

Single-Head AttentionMulti-head Attention

#ref(): File not found: "Transformer6.png" at page "自己符号化器(AE:オートエンコーダ)"

#ref(): File not found: "Transformer7.png" at page "自己符号化器(AE:オートエンコーダ)"

Multi-head Attention内部で行われる計算

#ref(): File not found: "Transformer8.png" at page "自己符号化器(AE:オートエンコーダ)"

#ref(): File not found: "Transformer9.png" at page "自己符号化器(AE:オートエンコーダ)"

① 行列をかける。Q = K = V = Xなのでそれぞれを変形させる。
・QWiqはh=8なのでXの次元を1/8にする。= Xのどの部分を処理するか?を変える。
・KWikは内積を取る前にXの角度を変える。= どの部分に注目するか?注目の仕方を変える。
・VWivは出力する前にXの角度を変える。= 出力の様子を調整する。
② Scaled Dot-Product Attentionを行う(後述)。
③ Concatで横に繋げる(1/hにしたものをh倍にする)。
④ 行列Woをかける。
https://agirobots.com/multi-head-attention/

数式のポイントとベクトルの内容

GPT-n

アーキテクチャ

エンコーダを持たず、Transformerのデコーダと似た構造を持つネットワーク

パフォーマンス

タスクの概要と構造

事前学習ファイン・チューニング

バージョン

BERT

アーキテクチャ

Transformerのエンコーダーを双方向多層に積み重ねたアーキテクチャ

パフォーマンス

上位の層では意味・文脈に関する抽象化された情報が獲得される事を期待。

タスクの概要と構造

マスクされた単語の前後のテキストを使って単語を予測する。

事前学習ファイン・チューニング

参考

Qiita

YouTube?

AIcia Solid Project

AI教室 AIRS-Lab

AGIRobots

以下はブログ側


トップ   新規 一覧 単語検索 最終更新   ヘルプ   最終更新のRSS