「AIのセキュリティリスク」とは? 安全にAIを設計・開発・運用するために

(※本記事は国立研究開発法人産業技術総合研究所の「産総研マガジン」に2024年6月5日付で掲載された記事の一部を、許可を得て掲載しています)

AIのセキュリティリスクとは?

AIのセキュリティリスクは、AIシステムが攻撃を受けることによって生じるリスクと、AIシステムが悪用・誤用されることによって生じるリスクの大きく2つに分けられます。特に近年の生成AIは、自然言語を入力して使うことができ、分野に限定されない汎用性があるため、誤動作や偏りの原因を突き止めたり、修復したりすることがますます難しくなっています。画像や音声を合成する性能も高く、悪意を持った人に利用されると、詐欺やなりすまし、捏造などもしやすくなっています。こうしたことからAIに関連するセキュリティリスクは従来よりもはるかに大きくなっており、これに対して人や社会を守るセキュリティの重要性も高まっています。


AIのセキュリティリスクには、AIからの機密情報の漏えい、ディープフェイク技術による偽動画の作成、生体情報の偽造による生体認証システムのすり抜け、物体検知AIを誤動作させる攻撃による衝突事故など、さまざまなものがあります。これらのリスクを減らすには、まずあり得るリスクを知り、それを回避・軽減するための品質マネジメントが欠かせません。そのためには、AIの品質評価技術や品質向上技術とともに、ガイドラインや標準規格が重要になります。今回はデジタルアーキテクチャ研究センターなどでAIの品質やセキュリティの研究開発に取り組む4人の研究者に、AIを利用することの課題とリスク、それに対して産総研が取り組んでいる研究やプロジェクトについて聞きました。

飛躍的に性能が向上した生成AIの課題

AIのセキュリティは今、極めて重要なテーマとなっています。特に、近年では生成AIの性能が急速に向上したことで、世界的にもセキュリティ面が注目され、国際的なルールづくりが進行しています。

AIは60年以上前から研究されてきましたが、特に2010年代頃から、ビッグデータの収集や処理が容易になり、ディープラーニング(深層学習)の技術が広がり、大規模言語モデルを使った自然言語処理技術により、ChatGPTなどの各種生成AIも広まっています。多くの技術革新によってその性能は飛躍的に発展しました。

その結果、今日の生成AIでは、人々が日常的に使用する言語をそのまま入力して利用できますし、画像や音声、動画なども扱えます。また、特定分野に限定されず、あらゆる知見を取り込んだ基盤モデルが作れるようになり、広範な用途に対応できるようになりました。本物と区別がつかない高精度の画像や音声を合成できるようになり、AIが豊かな表現力を持つようになったことも大きな特徴です。

このように、自然言語で利用可能なインターフェース、ユーザーや分野に左右されない汎用性、豊かな表現力といった生成AIの長所は、セキュリティの面から見れば、リスクの増大と対策の複雑化につながっています。

攻撃されるリスク、悪用・誤用されるリスクの2つがある

AIのセキュリティリスクについては、大きく次の2種類に分類できます。

(記事の続きはこちらから。産総研マガジン「AIのセキュリティリスクとは?」)

産総研
産総研マガジン