.NET 開発基盤部会 Wiki」は、「Open棟梁Project」,「OSSコンソーシアム .NET開発基盤部会」によって運営されています。

目次

概要

学習フェーズでは、信号は逆方向に伝播する。

学習はデータ駆動

機械学習

特徴量

特徴量選択

入力画像データから、本質的なデータを抽出できるように設計された変換器を指す。

機械学習

ベクトル化された画像データを機械学習のSVMやKNNなどの識別器で学習させる。

深層学習(deep learning)

深層学習(deep learning)においては、特徴量についても機会が学習する。

損失関数

2乗和誤差

ニューラルネットワークの出力と正解となる教師データの各要素の差の二乗の総和の2分の一。

交差エントロピー誤差

ミニバッチ学習

勾配法

勾配法では、(パラメタの微分を計算して得た)勾配の情報を使って進む方向を決める。

微分

ある瞬間の変化の量(=グラフの接線の傾き的な)。

df(x)  yの増量        f(x+h) - f(x)        f(x+h) - f(x)
── = ───  = lim  ──────  = lim  ──────
 dx    xの増量   h→0 (x+h) - (x)     h→0      h

解析的

式の展開によって微分を求める(誤差がない)。

     2
y = x
df(x)  yの増量        (x+h)^2 - x^2        (x^2+2hx+h^2) - (x^2)
── = ───  = lim  ──────  = lim  ──────────
 dx    xの増量   h→0 (x+h) - (x)     h→0           h
 dy         2hx+h^2
── = lim ──── = lim 2x+h  = 2x
 dx    h→0    h      h→0

数値微分

計算によって微分を求める(誤差がある)。

偏微分

勾配

勾配の示す方向は、各場所で関数の値を最も減らす方向。

勾配法

ニューラルネットワークに対する勾配

ニューラルネットワークの学習における勾配は、
重みパラメタに関する損失関数勾配となる。

学習アルゴリズムの実装

手順

前提

ステップ 1

ステップ 2

ステップ 3

重みパラメタを勾配の方向に微小量だけ更新する。

ステップ 4

ステップ 1, ステップ 2, ステップ 3を繰り返す。

2層ニューラルネットワークのクラス

ハイパーパラメータ

人間が手動で設定するパラメタ


トップ   新規 一覧 単語検索 最終更新   ヘルプ   最終更新のRSS