「.NET 開発基盤部会 Wiki」は、「Open棟梁Project」,「OSSコンソーシアム .NET開発基盤部会」によって運営されています。
目次 †
概要 †
試験対策専用問題を一覧
詳細 †
開発 †
失敗モデルへの5つの対応 †
OpenAI論文「人工知能セイフティにおける具体的問題」。
- 負の副作用を回避する。
- 報酬ハッキングを避ける。
- スケーラブルな監督の実施。
- 安全な探査(ロボット掃除機がおかしい時など)
- 分配的シフトに対するロバスト性(ロボット掃除機が学習したのとは異なる環境に置かれた場合等)
AI開発原則 †
- 公平性
AI システムはすべての人を公平に扱う必要があります
- 信頼性と安全性
AI システムは信頼でき安全に実行する必要があります
- プライバシーとセキュリティ
AI システムは安全であり、プライバシーを尊重する必要があります
- 包括性
AI システムはあらゆる人に力を与え、人々を結びつける必要があります
- 透明性
AI システムは理解しやすい必要があります
- 説明責任
AI システムにはアカウンタビリティ(説明責任)が必要です
参考:https://learn.microsoft.com/ja-jp/training/modules/responsible-ai-principles/4-guiding-principles
法律関係 †
著作権 †
AIの生成物の生成過程に人間の創作的寄与があれば認められる。
学習データの著作権 †
ネット情報を学習データとして活用する場合、
- EUの場合、著作権侵害には当たる。
- 日本の場合、営利・非営利問わず著作権侵害には当たらない。
AIの生成物の特許 †
蒸留モデルと特許 †
- 独占権の権利行使
- 相対的独占権(著作権):「内容同一」+「依拠」が必要
- 絶対的独占権(特許権):「内容同一」でありさえすれば権利行使が可能
総務省のリスク †
- AI自体
- 回答の精度
- ブラック・ボックス
- AIエンジン毎の特性
- データのバイアス
- AI利用
- AI利用:犯罪に利用される問題
- 社会的負のインパクト:人の職を奪う問題
- 法律・社会のあり方:AIに責任を問えない問題
組織など †
OpenAI †
- 営利法人OpenAI LPとその親会社である非営利法人OpenAI Inc. からなるAI研究所
- 2015年末にサム・アルトマン、イーロン・マスクらによってサンフランシスコで設立
- DALL-E、DALL-E 2、GPT-3、ChatGPTなどのアプリケーションを発表している。
- 技術的目標
- 自身の進歩を測定する
- 家庭向けロボットを作る
- 有益な自然言語理解を持つエージェントを作る
- シングル・エージェントを用いて多様なゲームを解く
AAAI †
- 全米人工知能学会
- 倫理的・法律的課題の議論
- 米国における中長期展望と官民における取り組み
Presidential Panel on Long-Term AI Futures: 2008-2009 Study
AI100 †
- One Hundred Year Study on Artificial Intelligence
- スタンフォード大学の人工知能に関する 100 年研究
IEEE †
「倫理的AI」の設計に関するレポートを発表している。
参考 †