Google、多言語にTransformerを適用した自然言語処理モデル発表【GitHub】

   
★AIDB会員限定Discordを開設いたしました! ログインの上、マイページをご覧ください。

★企業と人材のマッチングサービスを準備中です。アンケートのご協力をお願いいたします!↓

関連記事:医療の用語に対応した自然言語処理パッケージ「MedCAT」登場!【GitHub】

多言語に対応した最先端の自然言語処理モデルが登場しました!


AIDBの全記事が読み放題のプレミアム会員登録はこちらから↓

背景

自然言語処理(NLP)モデルの「Text-to-Text Transfer Transformer」(T5)は、統一されたテキストからテキストへの変換形式とスケールを利用して、様々な英語NLPタスクにおいて最先端の結果を達成しています。しかし、T5を含む最近の言語モデルの多くは英語のテキストのみで事前に訓練されており、世界人口の約80%が英語を話さないことを考えると、これでは使用が著しく制限されてしまいます。

Google ResearchのLinting Xueらは、 T5を多言語に対応させたモデルであるmT5を提案しています。

テクノロジー

本記事を読むにはAIDBのアカウントが必要です。
アカウントの作成は無料ですが、記事の閲覧は有料の場合があります。



※ログイン/初回登録後、下記ボタンを押してください。







■サポートのお願い
AIDBを便利だと思っていただけた方に、任意の金額でサポートしていただけますと幸いです。






ロッテノ

投稿者の過去記事

SE2年目に突入。大学では機械工学を専攻していました。製造・工業分野などのAIの活用を深堀して、分かりやすい表現で執筆していきます。

業界/カテゴリー

PAGE TOP