o1モデルが人間のように6つの思考パターンを使い分けているとの実験結果

本記事では、AIの性能向上における「推論...
Read More

IBMから日本語対応の商用可能オープンソースLLM「GRANITE 3.0」公開 8Bから

本記事では、IBMが新たに開発した軽量な...
Read More

計画のステップが増えるほど、LLMは最初の目標を見失っていく傾向がある

本記事では、LLMを活用したエージェント...
Read More

LLMの推論能力は単純に文脈を繰り返すだけでも大幅に向上 最大で30%改善

本記事では、LLMの多段階推論能力を向上...
Read More

オープンソース

IBMから日本語対応の商用可能オープンソースLLM「GRANITE 3.0」公開 8Bから
オープンソースモデルでも力を合わせればGPT-4oに匹敵することを示す「Mixture-of-Agents(MoA)」アーキテクチャ
Apple開発のオープンソースLLM「OpenELM」
強くて軽いモデルPhi-3の評価結果 Microsoftの論文(テクニカルレポート)より
GPT-4レベルの質問応答タスク性能をオープンソースモデルのLlama 2で実現する「ChatQA」NVIDIAが開発
最高水準のオープンソースLLM『Mixtral 8x7B』は内部で専門家が切り替わる高効率モデル
1.1Bパラメータの小さなモデルを巨大データ(約3兆トークン)で訓練したモデル『TinyLlama』が、比較的優秀な性能を発揮
「ChatGPTの1周年を記念して」、オープンソースLLMがChatGPTにどこまで追いついているか体系的調査報告
PAGE TOP