序文
生成AIモデルが昨今非常に話題になっており、アプリケーションに組み込まれる/連携する時代になりました。
この生成AIモデルを悪用した新しいハッキング方法が確立されつつあるようです。
アメリカの研究者が「Morris II」というマルウェアを用いて生成AI搭載アプリへ攻撃することに成功したそうです。
参考:
https://www.wired.com/story/here-come-the-ai-worms/
https://www.itmedia.co.jp/news/articles/2404/05/news049.html#l_tm1636144_sl04041_2_w490.jpg
ChatGPTやGeminiなどの文章生成AIで拡散するマルウェア Morris II を研究者が発表
ユーザー操作を必要としない「ゼロクリック型の攻撃」とのことで、とても怖いですね。
生成AIへの脅威にはどういったものがあるのか気になったので調査してみました。
生成AIモデルとは
生成AIモデルとは、人工知能技術の一種で、自然な文章/画像/音声などを生成することができるモデルです。
大量の学習データを利用し情報を生成するため、様々な分野で活用されています。
事例:ディープフェイクに騙され38億円送金
以下の記事によると、とある企業の財務担当者がAIにお金を騙し取られるという事件があったそうです。
その際、ビデオ通話の映像と音声はAIを利用して合成・複製されたものであるとのこと。
記事:https://metaversesouken.com/ai/generative_ai/incident/#38
対策としてはC2PAという電子署名に関する規格が注目されているようです。
記事:https://cloud.watch.impress.co.jp/docs/column/infostand/1504129.html
事例:敵対的攻撃(Adversarial Attack)を駆使し、AIモデルに誤った判断をさせる
以下の記事によると、AIへの入力データにノイズを注入することで誤判定させる攻撃があるそうです。
記事:https://qiita.com/m__k/items/a34ed060a64ab30c7d04
例えば、見た目はアヒルの画像なのにAIは馬と誤認識するなど。
対策としては「攻撃者にモデルを渡さない」「モデルへのアクセスに認証を設ける」などが推奨されています。
記事:https://www.skillupai.com/blog/tech/adversarial-attacks/#no4
まとめ
生成AIが広まるにつれて、セキュリティリスクも高まっているのですね。
生成AIをシステムに組み込む際にはしっかりと脅威分析をし、対策を検討する必要があると思います。
参考リンク
https://www.wired.com/story/here-come-the-ai-worms/
https://www.itmedia.co.jp/news/articles/2404/05/news049.html#l_tm1636144_sl04041_2_w490.jpg
https://rocket-boys.co.jp/genai-malware-morris2/
https://pc.watch.impress.co.jp/docs/news/1573981.html
https://metaversesouken.com/ai/generative_ai/incident/#38
https://cloud.watch.impress.co.jp/docs/column/infostand/1504129.html
https://qiita.com/m__k/items/a34ed060a64ab30c7d04
https://www.skillupai.com/blog/tech/adversarial-attacks/#no4
関連記事
![](https://www.nomishinblog.online/wp-content/uploads/2024/04/chatbot-3589528_1280-160x160.jpg)
[…] 生成AIモデルのセキュリティリスクと対策 https://www.nomishinblog.online/%e7%94%9f%e6%88%90ai%e3%83%a2%e3%83%87%e3%83%ab%e3%81%ae%e3%82%bb%e3%82%ad%e3%83%a5%e3%83%aa%e3%83%86%e3%82%a3%e3%83%aa%e3%82%b9%e3%82%af%e3%81%a8%e5%af%be%e7%ad%96/ […]