.NET 開発基盤部会 Wiki」は、「Open棟梁Project」,「OSSコンソーシアム .NET開発基盤部会」によって運営されています。

目次

概要

自己符号化器(AE:オートエンコーダ)、自己識別機とも呼ばれる。

歴史

特徴

教師あり、なし

入出力を一致させる。

特徴表現の獲得

隠れ層の次元を小さくして情報量を小さくした特徴表現を獲得する。
(入力の情報を圧縮される。→ 学習の結果、重みとして要約される。)

※ EncoderもDecoderもニューラルネットワーク

種類

様々な種類があるもよう。

できること

様々な用途で利用されている。

自然言語処理

ロボティクス

異常検知

需要予測

詳細

変分オートエンコーダ(VAE)

仕組み

潜在変数z

最適化

x をより良く表現する p(X) のパラメータを学習するには、周辺尤度 logp(X) の最大化を考える。

記号説明
X再構成されるデータ
p(X)再構成されるデータの確率分布
z潜在変数z
p(z)潜在変数zの確率分布
p(X|z)潜在変数zが与えられた時のxの確率分布(Decoder)
q(z|X)データXが与えられた時のzの確率分布(Encoder)

復元誤差

Decoderによる誤差

KLダイバージェンス

Encoderによる誤差

損失関数

復元誤差KLダイバージェンスの展開式を損失関数として利用することでVAEを最適化出来る

Transformer

RNN Encoder-DecoderのAttention機構と同じ目的を達成するが機構は異なる。

アーキテクチャ

パフォーマンス

RNN Encoder-Decoder(Sequence-to-Sequence)系よりも早くて精度が高い

タスクの概要と構造

オートエンコーダ

#ref(): File not found: "Transformer2.jpg" at page "自己符号化器(AE:オートエンコーダ)"

#ref(): File not found: "Transformer3.jpg" at page "自己符号化器(AE:オートエンコーダ)"

#ref(): File not found: "Transformer4.jpg" at page "自己符号化器(AE:オートエンコーダ)"

https://nlpillustration.tech/?p=2171

Transformer Block

Transformer ≒ Transformer Block

Multi-head Attention

Single-Head AttentionMulti-head Attention

#ref(): File not found: "Transformer6.png" at page "自己符号化器(AE:オートエンコーダ)"

#ref(): File not found: "Transformer7.png" at page "自己符号化器(AE:オートエンコーダ)"

Multi-head Attention内部で行われる計算

#ref(): File not found: "Transformer8.png" at page "自己符号化器(AE:オートエンコーダ)"

#ref(): File not found: "Transformer9.png" at page "自己符号化器(AE:オートエンコーダ)"

① 行列をかける。Q = K = V = Xなのでそれぞれを変形させる。
・QWiqはh=8なのでXの次元を1/8にする。= Xのどの部分を処理するか?を変える。
・KWikは内積を取る前にXの角度を変える。= どの部分に注目するか?注目の仕方を変える。
・VWivは出力する前にXの角度を変える。= 出力の様子を調整する。
② Scaled Dot-Product Attentionを行う(後述)。
③ Concatで横に繋げる(1/hにしたものをh倍にする)。
④ 行列Woをかける。
https://agirobots.com/multi-head-attention/

数式のポイントとベクトルの内容

GPT-n

アーキテクチャ

#ref(): File not found: "GPT1.png" at page "自己符号化器(AE:オートエンコーダ)"

https://www.youtube.com/@AIcia_Solid

パフォーマンス

タスクの概要と構造

事前学習ファイン・チューニング

BERT

GPT-nを少し改変しているので、高性能で汎用性が高く応用し易い。

アーキテクチャ

#ref(): File not found: "BERT.png" at page "自己符号化器(AE:オートエンコーダ)"

https://www.youtube.com/@AIcia_Solid

パフォーマンス

高性能で汎用性が高く応用し易い。

タスクの概要と構造

マスクされた単語の前後のテキストを使って単語を予測する。

事前学習ファイン・チューニング

基本的にGPTと事前学習とファイン・チューニングと同じ。

リソースと時間が必要なので学習済みモデル(汎用事前学習モデル)をGoogleが無償で公開

GPTのバージョン

2019年にGPT-2、2020年にGPT-3、202n年にGPT-3.5、202n年にGPT-4が発表

GPT-2

GPT-3

GPT-3.5

GPT-4

ChatGPT

2022年11月に公開される。

参考

ゼロつく2

Qiita

YouTube?

AIcia Solid Project

AI教室 AIRS-Lab

AGIRobots

以下はブログ側

Wikipedia

Transformer

GPT-n

BERT

https://ja.wikipedia.org/wiki/BERT_(%E8%A8%80%E8%AA%9E%E3%83%A2%E3%83%87%E3%83%AB)


トップ   新規 一覧 単語検索 最終更新   ヘルプ   最終更新のRSS