医療画像への「敵対的攻撃」とは?ディープラーニングにおける不安点【AI×医療】(論文解説)

   
★AIDB会員限定Discordを開設いたしました! ログインの上、マイページをご覧ください。

★企業と人材のマッチングサービスを準備中です。アンケートのご協力をお願いいたします!↓

医療CNNの弱点とは?

畳み込みニューラルネットワーク(CNN)は医療分野で多く用いられています。例えば、内視鏡の画像をもとにその人の病気を診断するシステムなどに使われています。しかし、CNNは敵対的攻撃によって脆弱になる可能性があります。敵対的攻撃は、モデルが正しく判定を行えなくなるような要素を生成し、正常な動作をさせなくしてしまうものです。

もし患者の症状を判定するシステムに、悪意を持った人間が敵対的攻撃をしかけたとしたら、診断結果が正確性を持たなくなってしまい、健康被害が出てしまう恐れがあります。一方、CT画像や内視鏡画像など、医療画像といっても様々なものがあり、一つ一つに敵対的サンプルを生成するのは膨大な時間がかかります。そのため、様々な医療画像について、一貫した敵対的生成ネットワークを作る必要があります。


AIDBの全記事が読み放題のプレミアム会員登録はこちらから↓

さまざまな医療画像において、一貫した敵対的生成ネットワークを作らなければならないという課題に対して、どのような研究が行われているのでしょうか。Gege Qiら研究者の発表を紹介します。

結論として研究者らは、敵対的サンプルを生成する項と安定化する項を用いることによって、さまざまな医療用画像に対する敵対的攻撃システムを構築しました。

▼論文情報

著者:Gege Qi, Lijun Gong, Yibing Song, Kai Ma, Yefeng Zheng
タイトル:Stabilized Medical Image Attacks”
URL:DOI

医療用画像に対する敵対的攻撃システム

まずはGege Qiらの研究におけるミッション・手法・結果をまとめました。

本記事を読むにはAIDBのアカウントが必要です。


※ログイン/初回登録後、下記ボタンを押してください。







■サポートのお願い
AIDBを便利だと思っていただけた方に、任意の金額でサポートしていただけますと幸いです。






業界/カテゴリー

PAGE TOP