不安定性により訓練が困難なGAN
近年注目を集めている敵対的生成ネットワーク(GAN)は、様々なタスクにおいて大きな成功を収めています。その一方で、ネットワークを訓練する際にはその不安定性によって研究者を苦しめてきました。
GANの訓練を行うために様々な正則化の手法を導入したり、より良い損失関数を提案したり、ネットワークの構造そのものを改善したりすることが研究対象になってきました。
様々なGANに関する常識が問われ研究対象となってきましたが、畳み込みニューラルネットワーク(CNN)を用いるという常識を問う研究はほとんどなされていません。
重要なお知らせ:AI分野のお仕事マッチングサービス「AIDB HR」を開始しました!登録後はオファーを受け取るだけのシンプルなサービスです!現在、期間限定で、ギフト券が必ずもらえる新規登録キャンペーンも行っています。
CNNをGANの基盤アーキテクチャに用いるという常識に対して、実際にどんな研究が行われているのでしょうか。アメリカにあるテキサス大学オースティン校のYifan Jiangらの研究を紹介します。
研究者らは、自然言語処理で広く使われているトランスフォーマーアーキテクチャをGANに適用することで、これまでの常識に囚われないGANの設計を試みました。
CNNをベースにしないGANの構築
まずはYifan Jiangらの研究におけるミッション・手法・結果をまとめました。
また記事の購読には、アカウント作成後の決済が必要です。
※ログイン/初回登録後、下記ボタンを押してください。
AIDBとは
プレミアム会員(記事の購読)について
■サポートのお願い
AIDBを便利だと思っていただけた方に、任意の金額でサポートしていただけますと幸いです。