.NET 開発基盤部会 Wiki」は、「Open棟梁Project」,「OSSコンソーシアム .NET開発基盤部会」によって運営されています。

目次

概要

(何気に、以下の概要の文字列は生成AIで生成していたりする笑)

なぜ「イキナリLLM」なのか?

このコンテンツの対象者

学習の目標と流れ

詳細

LLMの基礎理解

以下をLLMに聞いてみてください(笑)

LLMとは何か?

注目の理由は?

実例で解説

環境構築編

Python環境

Pythonのインストール方法と基本的な動作確認を解説。

PKGMGRと仮想環境

「PKGMGR」と「仮想環境」の使用方法を学び、プロジェクト毎に独立した環境を構築、LLM関連パッケージを安全にインストール。

Notebook環境

Jupyter系やGoogle Colabのセットアップ。PythonのREPL(対話型シェル)以上のインタラクティブ体験を説明。

IDE環境

より本格的な開発向けに、IDEのセットアップ。将来的なスケールアップに備える

基本ツール編

前提

Ollama

ローカルでLLMを動かすための軽量ツール、プライバシーやコストを意識した活用法を学ぶ。

OpenAI API

OpenAI API(ChatGPTの基盤)を使ったLLM活用の入門。

LlamaIndex

LlamaIndex を使いRAGを作成。

※ 実装レベルの参考はコチラ

LangChain

Gradio

LangFlow

LangFlowを使い基本的なチュートリアルを実行。

LLMエージェント

エージェント概要

エージェントとは何か、LLMとの違いを理解し、次のプログラミングに意欲を持つ。

ほぼバズワードのMCP

マルチ・エージェント

エージェント・フレームワーク

エージェントを動かす簡単なコード実装・実行し、感覚をつかむ。

GPUオフロード環境編

Google Colaboratory

Hugging Face

項目SpacesInference Endpoints
主目的デモ・プロトタイプ・インタラクティブな体験共有本番運用向けの安定したAPI提供
UIの有無ほぼ必ずWeb UIがある(Gradio / Streamlit / Dockerなど)基本的にUIなし、純粋なREST API
誰に向いているか研究/デモ/ポートフォリオ/ハッカソン/プロトタイプ本番バックエンド・企業利用
使いやすさ★★★★★(数クリックで公開可能)★★★☆☆(設定項目が多いがドキュメントは充実)
カスタマイズ性高い(Pythonコードほぼ自由)制限あり(Transformers / TGI / TEI ベース)
スケーラビリティ普通〜弱め(無料枠はスリープ)強い(オートスケール&ゼロスケール)
セキュリティPublic / Private / SecretPublic / Protected / Private(VPC対応も可)
スリープ/ゼロスケール無料枠は数十分〜数時間でスリープゼロスケール対応
GPU利用可能(有料枠でA100/H100なども)可能(幅広いGPU/CPUインスタンス選択可)
課金体系のイメージ無料枠あり・常時稼働は時間課金ゼロスケールで実質従量課金
2026年現在の価格目安無料〜数ドル/時(GPU)$0.03〜数十ドル/時(インスタンスによる)

Modal (.com)他

サーバーレス/オンデマンドGPUプラットフォーム

項目ReplicateModalRunPod?
ターゲットHF Spacesからの移行、コミュニティモデル利用者Pythonista、複雑な前/後処理、バッチとにかく安くGPUを使いたい
主な強み最も簡単・豊富なコミュニティモデルの公開(cogベース)Pythonだけで完結、開発者体験最高最安値クラス + GPU種類最多、ServerlessとPodsの両方
デプロイのしやすさ数行でAPI化Python SDK、@app.functionデコレータ、CLIテンプレート豊富だが設定多め
コールドスタート時間数秒-10秒台(人気モデルはほぼゼロ)-数秒FlashBoot?で<200ms-数秒
GPU種類中(T4/A100/H100中心)中〜多(T4〜H100/H200)最多(RTX 4090〜H100/H200/MI300X/AMDなど)
価格帯の目安(A100 40GB 1枚/時)$3.5〜5.0前後$2.5〜4.0前後$1.9〜2.7前後(最安クラス)
課金単位秒単位 / 入力トークン単位のモデルもあり秒単位(scale-to-zero完全対応)秒単位(Serverless) / 分単位(Pods)
UI / 管理画面非常に洗練(モデルページがそのままAPI)CLI/SDK中心(Webダッシュボードは補助的)Webコンソール充実(Pods管理しやすい)
スケーリング自動(非常に優秀)自動(数千並列も余裕)自動(Serverless) / 手動(Pods)
カスタムコード自由度中(cog.yamlで指定)ほぼ何でもPythonで書けるDockerコンテナ持ち込み自由
典型的なユースケースStable Diffusion WebUI系API、Llama.cpp系チャットAPI、Webサイト裏RAG、バッチ推論、データ前処理LoRA/QLORA fine-tuning、大量並列推論、コスト最優先

※ cogはMLモデルを本番環境に対応した標準的なコンテナにパッケージ化するためのOSSツール

LLMファインチューニング編

ファインチューニング概要

ファインチューニングの基本概念と必要性を解説。
ファインチューニングの目的とプロセスを直感的に理解。

ファインチューニング・プログラミング

実際にファインチューニングを実践、簡単なファインチューニングを自分で実行し、業務特化のモデルを試作。

全体の補足と提案


トップ   新規 一覧 単語検索 最終更新   ヘルプ   最終更新のRSS