.NET 開発基盤部会 Wiki」は、「Open棟梁Project」,「OSSコンソーシアム .NET開発基盤部会」によって運営されています。

目次

概要

OSS(オープンソース)のLLMは、ローカルマシンやオンプレミス環境で動作可能なものが多く、
クラウドサービスに依存せずに利用でき、機密情報を扱うクローズドな環境でも安全に導入できる。

詳細

注意点

ライセンスの確認

OSSのライセンス

コミュニティの活発度

コミュニティの活動状況を確認。

ベンチマークと評価

性能とスケーラビリティ

ハルシネーション・バイアスなど

メンテナンスとサポート

OSS LLMのメンテナンス体制とサポート体制を確認。

カスタマイズの容易さ

データ保護

モデルのトレーニングや推論に使用するデータの保護を確認。

モデル

Llama

Gemma

Phi-3

Mixtral

Falcon

アブダビのTechnology Innovation Institute(TII)によって開発

BLOOM

BigScience?という協力的AI研究ワークショップによって開発

EleutherAI

草の根の非営利の人工知能研究グループによって開発

Qwen2

CodeGen?

Salesforceが提供するLLM

Databricks

AI/BI系のプラットフォームベンダで、色々なOSSをホストしている。

周辺SDK的な

フレームワーク

ローコード

フロントアプリ作成(データパイプラインの構築と管理)をサポートするローコード・ツール

検環

Ollama

Open WebUI

Pythonで実装されており、モデル設定のURLからサーバサイドで実行されている事が解る。

インストール

動作確認

Streamlit

StreamlitはPythonアプリ(CLI)を迅速にWeb化するツール。
標準I/Oへ書き込むのではなくAPIを使用して専用のStreamへの書き込む。

インストール

動作確認

Chainlit

インストール

動作確認

VM費用見積もり

稼働時間

5(営業日/週) * 4(週/月)* 3(時間/日)= 60(時間/月)で見積もり

※ 1か月フル稼働は730時間なので30/730=0.04ヵ月分(つまり、以下の「/月」は、=0.04ヵ月分)

VMサイズ

付帯費用

Azureバッション2万/月

実費総額

コレはミニマム環境なので、予算としては、5万/月ほどあると良さそう。

研究

ローカルRAG

LlamaIndexを使うか、NoSQLの機能を使用する(古くはElasticsearchなどあるが、ベクトル検索、グラフ検索に対応した新しいものが出てきている)。

ファイン・チューニング?

LLMの新規作成時にタスクへ適応させるためのFT(GPT-nBERT)ではなく、作成後のLLMの精度を上げるために行われるFTについて言及

参考

Ollama

Ubuntu

Windows

LLM

Llama、Gemma、phiなどがある。

Python Library

Ollama

OpenAI

フレームワーク

LangChain

LlamaIndex

AutoGen

UI

Open WebUI

Ollama-ui

Streamlit

ローコード

LangFlow

FlowiseAI

Dify

...

ファイン・チューニング

LoRA

VM費用見積もり


トップ   新規 一覧 単語検索 最終更新   ヘルプ   最終更新のRSS