【Vol.84】AI(人工知能)のガバナンス~何を制御すべきか~
I.はじめに
企業はAI を単に利用するだけでも自主規制(ガバナンス・リスク管理)が求められる。
Ⅱ.各国政府の取組みの変遷
新技術への「懸念」を受けた各国取組みはロボット規制の検討から始まる。深層学習の登場を受けて自主規制(AI 原則)を開始し、生成AI の登場を受けて自主規制の深化や法的規制の導入に転じた。
Ⅲ.米国の動向
大統領府「連邦政府によるAI 利用原則」、NIST「AI リスク管理フレームワーク」、大統領府「AI 版権利章典」、大統領府「安全でセキュアで信頼できるAI」について概観する。
Ⅳ.欧州連合の動向
欧州議会「ロボット憲章」、欧州倫理グループ「AI・ロボット・自律システムに関する声明」、欧州委員会「信頼できるAI のための倫理ガイドライン」について概観する。
Ⅴ.日本の動向
総務省「AI 研究開発原則」、総務省「AI 利活用原則」、内閣府「人間中心のAI 社会原則」について概観する。
Ⅵ.国際機関の動向
G7 「AI 開発組織向け指導指針」、 OECD 「信頼できるAI のための責任あるスチュワードシップ原則」、UNESCO「AI 倫理勧告」、IDCPPC「AI 開発に関する指導原則」、GPA「AI システムに関するリスク管理フレームワーク」について概観する。
Ⅶ.AI 原則で使われる概念の整理
AI 原則に掲げる60 余りの概念は「価値/行動」、「個人/社会/技術」、「既存課題/新規課題」という評価軸で分類すると全体像を理解し易い。幅広い「懸念」をもたらすAI の「特異性」は自律・進化・汎用というキーワードで紐解くことができる。
Ⅷ.おわりに
企業(単なる利用者を含む)はAI に係る自主規制(ガバナンス・リスク管理)を求められ、その際に参照する各国政府AI 原則を体系的に理解するためには上記のような分類方法が参考になる。
PDF:1MB
PDF書類をご覧いただくには、Adobe Readerが必要です。
右のアイコンをクリックしAcrobet(R) Readerをダウンロードしてください。