「.NET 開発基盤部会 Wiki」は、「Open棟梁Project」,「OSSコンソーシアム .NET開発基盤部会」によって運営されています。
Google Colab(oratory)
KVSっぽく定義をして、次のコードで Python の秘密鍵にアクセス
from google.colab import userdata
userdata.get('secretName')
セッションが切れると、ローカルファイルが保証されないので重要
使い方は、各種Notebook系ツールと同じ。
ColabでのA100は廉価
| プラン | 月額(税込) | 使用可能なGPU | 備考 |
| 無料版 | 0円 | T4 など(不定) | A100は使えない |
| Pro | 約1,180円(100CU) | A100に当たることもある | 混雑時は制限あり |
| Pro+ | 約5,200円(500CU) | A100の優先枠あり | 比較的安定して使える |
| Pay As You Go | 100CU購入(1,000円から) | A100, L4など | 使用時間に応じ柔軟に使いたい場合 |
| Enterprise | 要問い合わせ | H100, A100など高性能GPU優先 | SLA、専用リソース、管理機能あり |
※ CU(コンピューティングユニット):リソースを利用する際に消費される単位で90日間有効
※ Pay As You Go は、Pro/Pro+ に比べて A100 の優先度が低いことある(特に混雑時)。
性能順
CU消費量:A100 ≒ 15/時間、L4 ≒ 5/時間、T4 ≒ 2/時間)、A100は500CUで33時間、T4は100CUで50時間
右上の接続情報からも確認できるが、以下でも確認できる。
gpu_info = !nvidia-smi
gpu_info = '\n'.join(gpu_info)
if gpu_info.find('failed') >= 0:
print('Not connected to a GPU')
else:
print(gpu_info)
Fri Oct 10 09:48:23 2025 +-----------------------------------------------------------------------------------------+ | NVIDIA-SMI 550.54.15 Driver Version: 550.54.15 CUDA Version: 12.4 | |-----------------------------------------+------------------------+----------------------+ | GPU Name Persistence-M | Bus-Id Disp.A | Volatile Uncorr. ECC | | Fan Temp Perf Pwr:Usage/Cap | Memory-Usage | GPU-Util Compute M. | | | | MIG M. | |=========================================+========================+======================| | 0 NVIDIA A100-SXM4-40GB Off | 00000000:00:04.0 Off | 0 | | N/A 35C P0 42W / 400W | 0MiB / 40960MiB | 0% Default | | | | Disabled | +-----------------------------------------+------------------------+----------------------+ +-----------------------------------------------------------------------------------------+ | Processes: | | GPU GI CI PID Type Process name GPU Memory | | ID ID Usage | |=========================================================================================| | No running processes found | +-----------------------------------------------------------------------------------------+
from psutil import virtual_memory
ram_gb = virtual_memory().total / 1e9
print('Your runtime has {:.1f} gigabytes of available RAM\n'.format(ram_gb))
if ram_gb < 20:
print('Not using a high-RAM runtime')
else:
print('You are using a high-RAM runtime!')Your runtime has 89.6 gigabytes of available RAM You are using a high-RAM runtime!
import torch
if torch.cuda.is_available():
for i in range(torch.cuda.device_count()):
print(f"GPU {i}: {torch.cuda.get_device_name(i)}")
print(f" Total memory: {torch.cuda.get_device_properties(i).total_memory / 1e9:.1f} GB")
else:
print("No GPU available")GPU 0: NVIDIA A100-SXM4-40GB Total memory: 42.5 GB