医療画像への「敵対的攻撃」とは?ディープラーニングにおける不安点【AI×医療】(論文解説)

   

医療CNNの弱点とは?

畳み込みニューラルネットワーク(CNN)は医療分野で多く用いられています。例えば、内視鏡の画像をもとにその人の病気を診断するシステムなどに使われています。しかし、CNNは敵対的攻撃によって脆弱になる可能性があります。敵対的攻撃は、モデルが正しく判定を行えなくなるような要素を生成し、正常な動作をさせなくしてしまうものです。

もし患者の症状を判定するシステムに、悪意を持った人間が敵対的攻撃をしかけたとしたら、診断結果が正確性を持たなくなってしまい、健康被害が出てしまう恐れがあります。一方、CT画像や内視鏡画像など、医療画像といっても様々なものがあり、一つ一つに敵対的サンプルを生成するのは膨大な時間がかかります。そのため、様々な医療画像について、一貫した敵対的生成ネットワークを作る必要があります。

重要なお知らせ:AI分野のお仕事マッチングサービス「AIDB HR」を開始しました!登録後はオファーを受け取るだけのシンプルなサービスです!現在、期間限定で、ギフト券が必ずもらえる新規登録キャンペーンも行っています。



さまざまな医療画像において、一貫した敵対的生成ネットワークを作らなければならないという課題に対して、どのような研究が行われているのでしょうか。Gege Qiら研究者の発表を紹介します。

結論として研究者らは、敵対的サンプルを生成する項と安定化する項を用いることによって、さまざまな医療用画像に対する敵対的攻撃システムを構築しました。

▼論文情報

著者:Gege Qi, Lijun Gong, Yibing Song, Kai Ma, Yefeng Zheng
タイトル:Stabilized Medical Image Attacks”
URL:DOI

医療用画像に対する敵対的攻撃システム

まずはGege Qiらの研究におけるミッション・手法・結果をまとめました。

当サイトの利用にはAIDBのアカウントが必要です。
また記事の購読には、アカウント作成後の決済が必要です。



※ログイン/初回登録後、下記ボタンを押してください。

AIDBとは
プレミアム会員(記事の購読)について


■サポートのお願い
AIDBを便利だと思っていただけた方に、任意の金額でサポートしていただけますと幸いです。






PAGE TOP