AIの活用が進むなか、セキュリティの確保は大前提である。G7広島サミットで「広島AIプロセス」が創設された後、英米両国政府は「セキュアAIシステム開発ガイドライン」の作成を主導し、日本政府も2023年11月、これに参画した。同ガイドラインは、「セキュアバイデザイン」(注1)の観点から、セキュアなAIシステムの開発における国際指針として策定され、「広島AIプロセス」を補完する文書と位置付けられる。
プロバイダーやユーザーを問わず、産業界にも影響を及ぼす事案であることから、経団連は1月29日、東京・大手町の経団連会館でデジタルエコノミー推進委員会企画部会(浦川伸一部会長)を開催した。内閣サイバーセキュリティセンター(NISC)の垣見直彦参事官、村田健太郎参事官、山口勇参事官から説明を聴くとともに、意見交換した。説明の概要は次のとおり。
■ 国際的な動向(セキュアバイデザイン・セキュアバイデフォルト原則)
米国の国家サイバーセキュリティ戦略(23年3月公表)は、政府やテック企業、重要インフラ事業者など、能力のある行動主体がデジタルシステムの保護に大きな責任を負うべきと強調している。23年4月、米国のほか、英国やオーストラリア、カナダ、ニュージーランド、ドイツ、オランダも参画し、ソフトウエア作成業者と顧客に対する提言を盛り込んだ「セキュアバイデザイン・セキュアバイデフォルトに関する文書」への共同署名が行われた。
23年10月に日本も改訂版の署名に加わった(12月21日号既報)。関連する国際的な動きを3点紹介する。
1.セキュアAIシステム開発ガイドライン
サイバーセキュリティはAIシステムの前提条件である。AIを使用するプロバイダー向け指針である「セキュアAIシステム開発ガイドライン」は、権限のない第三者に機密データを漏らすことなく動作するAIシステムの構築を支援するとともに、(1)設計(2)開発(3)導入(4)運用とメンテナンス――という4分野がセキュアなものとなるように、おのおのの行動を規定している。
2.AIセーフティ・インスティテュートの創設
23年11月に英国で開催されたAI安全性サミット等を契機に、AIの安全性を確保する観点から、英国、米国はAIセーフティ・インスティテュートを創設した。同機関は、AIの安全性の評価に関する基準や手法の策定等を担う。
日本でも同様に、内閣府をはじめ関係省庁、関係機関の協力のもと、情報処理推進機構(IPA)にAIセーフティ・インスティテュートが設立された。諸外国の機関とも連携し、業務を実施していく。
3.AIシステム使用に関するガイダンス
24年1月、オーストラリアのサイバーセキュリティセンター(ACSC)から打診を受け、NISCとして10カ国(注2)と共に「AIシステム使用に関するガイダンス」への署名に参加した。「セキュアAIシステム開発ガイドライン」が「開発」に関する文書であるのに対し、「AIシステム使用に関するガイダンス」は専らAIシステムの「使用」に関する文書として整理されている。
同ガイダンスでは、AIシステムに対する六つの脅威として、(1)データポイズニング(2)インプット改ざん攻撃(3)生成AIハルシネーション(注3)(4)プライバシー・知的財産に関する懸念(5)モデル窃取攻撃・学習データ漏えい(6)匿名化データの再特定――を列挙している。これに対し、「サイバーセキュリティ枠組みの実施」をはじめとする12の緩和策を掲げ、注意喚起を行っている。
(注1)IT製品(特にソフトウエア)が、設計段階から安全性を確保されていること
(注2)オーストラリア、米国、英国、カナダ、ニュージーランド、ドイツ、ノルウェー、イスラエル、シンガポール、スウェーデン
(注3)AIが偏ったデータや誤った情報を学習することで、事実に基づかない情報を生成すること
【産業技術本部】