LLMが自分で「より賢いLLMの作り方」を発見するSelf-Developingフレームワーク(NEC 石橋陽一氏)

本記事は、研究者が自ら著書の論文を解説す...
Read More

LLMに対するオープンソース安全性評価ツールの比較

本記事では、LLMの安全性を自動的にチェ...
Read More

開発企業や言語ごとに異なるLLMのイデオロギー、価値観や態度

本記事では、最新の研究から明らかになった...
Read More

コンテキスト内で重要な情報同士が離れすぎるとLLMの性能は大幅に下がる

本記事では、LLMの長文理解における「情...
Read More

o1モデルが人間のように6つの思考パターンを使い分けているとの実験結果

本記事では、AIの性能向上における「推論...
Read More

オープンソース

IBMから日本語対応の商用可能オープンソースLLM「GRANITE 3.0」公開 8Bから
オープンソースモデルでも力を合わせればGPT-4oに匹敵することを示す「Mixture-of-Agents(MoA)」アーキテクチャ
Apple開発のオープンソースLLM「OpenELM」
強くて軽いモデルPhi-3の評価結果 Microsoftの論文(テクニカルレポート)より
GPT-4レベルの質問応答タスク性能をオープンソースモデルのLlama 2で実現する「ChatQA」NVIDIAが開発
最高水準のオープンソースLLM『Mixtral 8x7B』は内部で専門家が切り替わる高効率モデル
1.1Bパラメータの小さなモデルを巨大データ(約3兆トークン)で訓練したモデル『TinyLlama』が、比較的優秀な性能を発揮
「ChatGPTの1周年を記念して」、オープンソースLLMがChatGPTにどこまで追いついているか体系的調査報告
PAGE TOP