.NET 開発基盤部会 Wiki」は、「Open棟梁Project」,「OSSコンソーシアム .NET開発基盤部会」によって運営されています。 散布図

目次

概要

詳細

インストレーション

機械学習・深層学習の特性上、インタラクティブな環境の方が習得が捗る。

基本操作

起動

初期化

データ読込

特徴量の選択とエンジニアリング

CRISP-DM上で利用

(データの取得・加工)

(ココはCRISP-DM上に定義なし)

データの理解

データの準備

モデリング

評価

各モデルのコードを参照。

展開

手順(モデリング)

単回帰分析

重回帰分析

多項式回帰分析

<元データ>
重回帰分析の改善として、
ボストン住宅価格データセット等を利用すると良い。

<単一変数での実装と比較>
x1_orgのみ使う(y=x^n的なn次関数)。

<複数変数での実装と比較>
x1のみ多項式で、x2_orgを追加。

<全体を通した評価>

正則化回帰分析

各種法の学習・推論・評価

単純パーセプトロン線形分類器

サポートベクターマシン分類器

※ カーネル法で以下のテストデータを使うと、
  決定境界の非線形性が顕著に可視化される。

# XORのデータの作成
np.random.seed(0)
X_xor = np.random.randn(200, 2)
y_xor = np.logical_xor(X_xor[:, 0] > 0, X_xor[:, 1] > 0)
y_xor = np.where(y_xor, 1, -1)
# データの散布
plt.scatter(X_xor[y_xor == 1, 0], X_xor[y_xor == 1, 1], c='b', marker='x', label='1')
plt.scatter(X_xor[y_xor == -1, 0], X_xor[y_xor == -1, 1], c='r', marker='s', label='-1')
plt.xlim([-3, 3])
plt.ylim([-3, 3])
plt.legend(loc='best') # 右上に凡例を出力
plt.show()

ロジスティック回帰分析

クラスタ分析

決定木分析

※ 各特徴量の重要度を出力
(ランダムフォレストの方が信頼性の高い)

主成分分析

自然言語処理

ロジスティック回帰分類機を使った感情分析>
レビューを入力として肯定的・否定的を判別する教師あり学習を行う。

<LDAトピックモデル(文書のクラスタリング)>
話題分析、リコメンド、類似文章検索、機械翻訳などで利用できる。

深層学習

TensorFlow・Keras

手順(性能)

交差検証法

グリッドサーチ

サポートベクターマシン分類器の例でテストすると良い。

特徴選択と特徴抽出

特徴量を使用して精度を比較する。

※ このケースは低次元なので、特徴選択した x_std の方が精度が良い。

テストデータの作成

回帰データセット

分類データセット生成

関数で近似できるデータセット

参考

scikit-learn

TensorFlow・Keras


トップ   新規 一覧 単語検索 最終更新   ヘルプ   最終更新のRSS