「.NET 開発基盤部会 Wiki」は、「Open棟梁Project」,「OSSコンソーシアム .NET開発基盤部会」によって運営されています。
(何気に、以下の概要の文字列は生成AIで生成していたりする笑)
以下をLLMに聞いてみてください(笑)
Pythonのインストール方法と基本的な動作確認を解説。
「PKGMGR」と「仮想環境」の使用方法を学び、プロジェクト毎に独立した環境を構築、LLM関連パッケージを安全にインストール。
Jupyter系やGoogle Colabのセットアップ。PythonのREPL(対話型シェル)以上のインタラクティブ体験を説明。
より本格的な開発向けに、IDEのセットアップ。将来的なスケールアップに備える
# LLM系 OPENAI_API_KEY=sk-proj-... # Proxy環境下で使用する場合は HTTP_PROXY=" http://<USERID>:<PASSWORD>@<HOSTNAME>:<PORTNUMBER>" HTTPS_PROXY=" http://<USERID>:<PASSWORD>@<HOSTNAME>:<PORTNUMBER>" REQUESTS_CA_BUNDLE=combined-ca-bundle.pem # ...
!pip install python-dotenv※ JupyterLabのPythonセルからシェルを実行する場合、「!」を付与する。
from dotenv import load_dotenv import os # .env ファイルをロード load_dotenv() ※ カレント・ディレクトリからルートに遡ってはじめに見つかった「.env」ファイルを適用する。
ローカルでLLMを動かすための軽量ツール、プライバシーやコストを意識した活用法を学ぶ。
OpenAI API(ChatGPTの基盤)を使ったLLM活用の入門。
LlamaIndex を使いRAGを作成。
※ 実装レベルの参考はコチラ
pip freeze > requirements.txt
pip uninstall -r <(pip freeze) -y
pip install -r requirements.txt
!pip install gradio
LangFlowを使い基本的なチュートリアルを実行。
エージェントとは何か、LLMとの違いを理解し、次のプログラミングに意欲を持つ。
エージェントを動かす簡単なコード実装・実行し、感覚をつかむ。
| 項目 | Spaces | Inference Endpoints |
| 主目的 | デモ・プロトタイプ・インタラクティブな体験共有 | 本番運用向けの安定したAPI提供 |
| UIの有無 | ほぼ必ずWeb UIがある(Gradio / Streamlit / Dockerなど) | 基本的にUIなし、純粋なREST API |
| 誰に向いているか | 研究/デモ/ポートフォリオ/ハッカソン/プロトタイプ | 本番バックエンド・企業利用 |
| 使いやすさ | ★★★★★(数クリックで公開可能) | ★★★☆☆(設定項目が多いがドキュメントは充実) |
| カスタマイズ性 | 高い(Pythonコードほぼ自由) | 制限あり(Transformers / TGI / TEI ベース) |
| スケーラビリティ | 普通〜弱め(無料枠はスリープ) | 強い(オートスケール&ゼロスケール) |
| セキュリティ | Public / Private / Secret | Public / Protected / Private(VPC対応も可) |
| スリープ/ゼロスケール | 無料枠は数十分〜数時間でスリープ | ゼロスケール対応 |
| GPU利用 | 可能(有料枠でA100/H100なども) | 可能(幅広いGPU/CPUインスタンス選択可) |
| 課金体系のイメージ | 無料枠あり・常時稼働は時間課金 | ゼロスケールで実質従量課金 |
| 2026年現在の価格目安 | 無料〜数ドル/時(GPU) | $0.03〜数十ドル/時(インスタンスによる) |
サーバーレス/オンデマンドGPUプラットフォーム
| 項目 | Replicate | Modal | RunPod? |
| ターゲット | HF Spacesからの移行、コミュニティモデル利用者 | Pythonista、複雑な前/後処理、バッチ | とにかく安くGPUを使いたい |
| 主な強み | 最も簡単・豊富なコミュニティモデルの公開(cogベース) | Pythonだけで完結、開発者体験最高 | 最安値クラス + GPU種類最多、ServerlessとPodsの両方 |
| デプロイのしやすさ | 数行でAPI化 | Python SDK、@app.functionデコレータ、CLI | テンプレート豊富だが設定多め |
| コールドスタート時間 | 数秒-10秒台(人気モデルはほぼゼロ) | -数秒 | FlashBoot?で<200ms-数秒 |
| GPU種類 | 中(T4/A100/H100中心) | 中〜多(T4〜H100/H200) | 最多(RTX 4090〜H100/H200/MI300X/AMDなど) |
| 価格帯の目安(A100 40GB 1枚/時) | $3.5〜5.0前後 | $2.5〜4.0前後 | $1.9〜2.7前後(最安クラス) |
| 課金単位 | 秒単位 / 入力トークン単位のモデルもあり | 秒単位(scale-to-zero完全対応) | 秒単位(Serverless) / 分単位(Pods) |
| UI / 管理画面 | 非常に洗練(モデルページがそのままAPI) | CLI/SDK中心(Webダッシュボードは補助的) | Webコンソール充実(Pods管理しやすい) |
| スケーリング | 自動(非常に優秀) | 自動(数千並列も余裕) | 自動(Serverless) / 手動(Pods) |
| カスタムコード自由度 | 中(cog.yamlで指定) | ほぼ何でもPythonで書ける | Dockerコンテナ持ち込み自由 |
| 典型的なユースケース | Stable Diffusion WebUI系API、Llama.cpp系チャットAPI、Webサイト裏 | RAG、バッチ推論、データ前処理 | LoRA/QLORA fine-tuning、大量並列推論、コスト最優先 |
※ cogはMLモデルを本番環境に対応した標準的なコンテナにパッケージ化するためのOSSツール
ファインチューニングの基本概念と必要性を解説。
ファインチューニングの目的とプロセスを直感的に理解。
実際にファインチューニングを実践、簡単なファインチューニングを自分で実行し、業務特化のモデルを試作。
全体の補足と提案