.NET 開発基盤部会 Wiki」は、「Open棟梁Project」,「OSSコンソーシアム .NET開発基盤部会」によって運営されています。

目次

概要

実施概要

試験対策

G検定と異なる点

認定プログラム

について思う事。

黒本

について

Python

について

数学には

ビビらなくて良い。

基礎

数式

知識 or 実装

注意事項

【応用数学】
 ◆線形代数
  ◇特異値分解
【機械学習】
 ◆機械学習の基礎
  ◇教師あり学習アルゴリズム
  ◇教師なし学習アルゴリズム
  ◇確率的勾配降下法
【深層学習】
 ◆順伝播型ネットワーク
  ◇アーキテクチャの設計
  ◇誤差逆伝搬法およびその他の微分アルゴリズム ※以下のみ
   ・全結合 MLP での誤差逆伝搬法
 ◆深層モデルのための最適化
  ◇基本的なアルゴリズム ※以下のみ
   ・ネステロフのモメンタム
 ◆畳み込みネットワーク
  ◇構造出力
  ◇データの種類
  ◇効率的な畳み込みアルゴリズム
 ◆回帰結合型ニューラルネットワークと再帰的ネットワーク
  ◇回帰結合型のニューラルネットワーク ※以下のみ
   ・教師強制と出力回帰のあるネットワーク
   ・有向グラフィカルモデルとしての回帰結合型のネットワーク
   ・RNNを使った文脈で条件付けされた系列モデリング
  ◇深層回帰結合型のネットワーク
  ◇再帰型ニューラルネットワーク
  ◇複数時間スケールのための Leaky ユニットとその他の手法 ※以下のみ
   ・時間方向にスキップ接続を追加
   ・接続の削除
 ◆深層学習の適応方法
  ◇画像認識
   ・VGG

※ 個人的には、以下の理由で数学的項目は今後も減って行くと思う。

詳細

数学的基礎

シラバスにはない。

方程式

線形代数

微分・積分

微分・偏微分

確率・統計

応用数学

特異値分解

線形代数からの唯一の項も削除されたので線形代数の出題はナシ。

確率統計・ベイズ則

一般的な確率分布

機械学習・情報理論

機械学習

機械学習の概観

機械学習の最適化

機械学習の最適化とは「経験損失最小化」で純粋な最適化とは異なる。

学習上の課題点

深層学習(DNN

深層学習(DNNCNNRNN)合わせて

活性化関数

損失関数(誤差関数)

cross_entropyの実装にパターンあるけどコレ同じなの?

誤差逆伝播法

バッチサイズの影響

適切なバッチサイズを選ぶことが、学習を上手く行うために必要になる。

※loss(損失)とacc(正解率)の進捗を確認する。

損失関数上の地形

重みの初期値戦略

過学習対策=汎化性能向上

Few / One / Zero-Shot

その他

深層学習(CNN

畳み込み

プーリング

データ集合の拡張

CNNにおける正規化

ライブラリ実装

深層学習(RNN

RNNの内容

長期依存性の課題

Sequence-to-Sequence

RNNの実装

双方向 RNN

Encoder-Decoder

ゲート付きRNN(LSTM)

ゲート付きRNN(GRU)

分野別

画像処理

言語処理

ベクトル化 NLPモデル

音声処理

開発・運用環境

MobileNet?

スマホ用CNNで、ボトルネックの畳み込みの分割で計算量を減らす。

モデルの軽量化

分散処理

GPU

Docker

対策

基礎数学

logの計算

logのグラフ

expのグラフ

√の分数

同じに見えない(笑)

2√2/3 = 4/3√2 = 4/√18

応用数学

逆行列

固有値

特異値

情報量

細工されたサイコロの出る目の確率分布表

確率変数 X123456
確率 P0.50.10.10.10.10.1
確率変数 Y(X1=X2)1
確率 P0.5*(0.5)=0.250.1*(0.1)=0.01
確率変数 Y(X1≠X2)0
確率 P0.5*(1-0.5)=0.250.1*(1-0.1)=0.09

a

確率変数 X123456
確率 P0.50.10.10.10.10.1
確率変数 Y0(X1≠X2)0.50.250.090.090.090.090.09
1(X1=X2)0.50.2500.100.100.100.100.1

※ ビットでの回答になる場合は、logの底は2となる。

分布の期待値(連続、離散)分散共分散関数

機械学習

数学

共通

回帰

分類

評価指標

主成分分析

クラスタリング

正則化

深層学習

逆伝播

学習アルゴリズム

出力の分布

過学習

評価

LIME, SHAP, CAM

CNN

RNN

深層学習応用

学習済モデル

言語処理

物体検知

GAN

Python

1e-7

ゼロ除算防止

予約語

関数

axis

内積

@、dot、matmul (違いは?)

アダマール積

演算子は「*」になる(RNN)。

k-means法

k = 4 #クラスタ数
n = 200 # データ数
data = np.random.randn(n, 2) # 200行2列
# 初期値の重心をdataの中からランダムに4 index選択。
centroids = data[np.random.choice(np.arange(n), size=(k,))]

逆伝播

# 設定
grads = {}
for idx in range(1, self.hidden_layer_num+2):
weight_decay_gradient = self.weight_decay_lambda * self.layers['Affine' + str(idx)].W
grads['W' + str(idx)] = self.layers['Affine' + str(idx)].dW + weight_decay_gradient
grads['b' + str(idx)] = self.layers['Affine' + str(idx)].db

学習アルゴリズム

CNN計算

その他

距離学習

参考

認定プログラム

金額が易いプログラムはそれなり。

認定プログラム事業者

AI研究所

...

書籍

ゼロつく

(ゼロから作るDeep Learning)

黒本

徹底攻略ディープラーニングE資格エンジニア問題集 第2版 - インプレスブックス
https://book.impress.co.jp/books/1120101184

YouTube?

Qiita

jun40vn

MeiyByeleth?

(E資格対策)

深層学習 Day n系


トップ   新規 一覧 単語検索 最終更新   ヘルプ   最終更新のRSS