AIガバナンス協会は、2025年4月11日、「行政の進化と革新のための生成AIの調達・利活用に係るガイドライン(案)」に関するパブリックコメント募集において、意見を提出しました。
【提出意見】
提出した意見(全体)はこちら
【提出意見の概要】
AIガバナンス協会(AIGA)は、AIの活用による様々な業務の効率化・高度化が重要となる中、「行政の進化と革新のための生成AIの調達・利活用に係るガイドライン(案)」(以下、「本GL案」)の取りまとめが行われ、行政におけるAI活用の環境整備が進むことを歓迎します。
AIGAでは、本GL案が行政はもちろん、民間のAIガバナンス実践においても広く参照される可能性があることを見据え、AI活用の推進によるイノベーション創出と、一方での適切なリスク管理を両立する観点から、関連する国際的な動向(例: 米国における、連邦政府機関のAI利用に関する覚書(M-25-21)の策定)も踏まえて意見提出を行います。特に重要と考える視点は以下の4点です。
まず、リスクベースアプローチの徹底です。国際的な議論動向を見ても、ハイリスクとみなされるAIユースケースとそうでないユースケースにおいて、対応策に差を設ける制度的な措置が進んでいます。本GL案においては、高リスクAIと低リスクAIの間での明示的な差異は先進的AI利活用アドバイザリーボードへの報告の有無のみとなっていますが、具体的に適用するチェックリストのレベル等にも差を設け、相対的に低リスクなユースケースについては過度に保守的にならず積極活用できる環境を整備することが望ましいと考えます。
2点目は、バリューチェーンにおける役割分担/コントローラビリティを踏まえた要件の設定です。複雑化しているAIのバリューチェーンにおいては、直接ソフトウェア等を納品するベンダーだけにコントロールできない要素(例: 基盤モデルの仕様)や、従来のソフトウェアと比較して担保が難しい要素(例: 出力の機序の説明可能性)も存在しています。行政サービスにおける最終的なアカウンタビリティに必要な範囲でどのような要件を課すべきかについて、技術的な動向を踏まえた議論と運用が求められます。
3点目は、技術中立性の原則に立った継続的なリスク管理です。各種ガイドライン等においても示されている通り、AIモデルは開発後も継続的にその性能や挙動を変化させていくため、運用中まで含めた継続的なリスク管理が不可欠です。そしてその実現の方法には、単に人力でAIを監視するといったことだけではなく、技術的なテスティングやガードレールといった技術の導入などの選択肢も存在します。行政サービスの効率化・高度化を推進する観点では、本GL案において、必要なリスク管理のゴールが示された上で、こうした多様な手法が運用において認められることが重要であると考えます。
最後に、プロセス全体を通じての透明性向上です。まず本GL案自体については、技術や政策環境の変化が激しいことを踏まえ、継続的なアップデートを行うことが必要であり、そのためには、民間企業や関連団体、また現場のユーザ(政府職員や市民)からのフィードバックを収集するチャネルを設けることが重要です。また、本GL案のスコープを外れますが、行政サービスにおいてAIを活用していることやそのメリット・リスクに関するユーザへの丁寧な説明、また政府のAIの活用状況自体の可視化といった点も、海外のプラクティス等も参照しながら進めていくことが望ましいと考えます。
以上のような点も踏まえ、行政における健全なAI活用が一層推進されていくことを強く期待するとともに、AIGAとしても政府の取組に積極的に協力していきたいと考えます。
【関連ページ】
「行政の進化と革新のための生成AIの調達・利活用に係るガイドライン(案)」に対する意見募集について