この記事では、スマートフォンの音声通話を加速度センサーから盗聴する技術についての研究を紹介します。米ペンシルバニア州立大の研究グループが実証実験をもとにリスクを警告しています。
セキュリティの穴をつくAIの悪用事例
AIが普及するにつれ、AIを悪用したハッキング等の脅威が現実のものになりつつあります。この新しいリスクを知り、対策を考えていく必要があります。記事の前段として、AIの悪用事例を挙げます。
事例1 ChatGPTを用いたマルウェア生成
最近世間を賑わせているChatGPTですが、ハッカー達による悪用が水面下で進んでいるようです。
2022年12月、ハッカー達のネット上の溜まり場に、ChatGPT – Benefits of Malware(マルウェアにおける利点)というスレッドが立ち上がりました。このスレッドでは、ChatGPTを用いてマルウェアを再現する実験がおこなわれています。
実験のうちいくつかでは、ChatGPTによるコード生成が成功し、マルウェアとして機能するプログラムが出来ています。
事例2 ディープフェイクによる政治経済撹乱
AIの得意技である「画像生成」「音声合成」を悪用する「ディープフェイク」は、いくつかの事件を起こしています。
例えば、マレーシアの政治家のプライベートを撮影したとするディープフェイク動画が公開され、汚職疑惑での調査が要求されました。その結果、政権が不安定化しました。
また、イギリスのとあるエネルギー会社は、CEOの声を真似たディープフェイク音声に騙され、約20万ポンド(約2700万円)が犯罪者の口座に送金されてしまいました。
内蔵センサーで通話盗聴 米ペンシルバニア州立大がリスク報告
また記事の購読には、アカウント作成後の決済が必要です。
※ログイン/初回登録後、下記ボタンを押してください。
AIDBとは
プレミアム会員(記事の購読)について
■サポートのお願い
AIDBを便利だと思っていただけた方に、任意の金額でサポートしていただけますと幸いです。