ロングコンテキストLLM台頭の今もRAGを使用する理由

この記事では、LLMが長い文章を理解でき...
Read More

ドキュメントを細かく切って質問に変換 企業向けRAGのテクニック

企業がRAGを行う上での参考になるテクニ...
Read More

LLMが「文化的な背景」を考慮した回答を行うようにする方法

この記事では、LLMが文化的な背景に沿っ...
Read More

人間を討論で言い負かすディベート上手なLLMの実装

本記事では、LLMを活用してディベートに...
Read More

モデルとデータの大規模化で変化するLLMのハルシネーション Google DeepMindの研究

まるで人間のように文章を作ることができる...
Read More

論文

GPT-4レベルの質問応答タスク性能をオープンソースモデルのLlama 2で実現する「ChatQA」NVIDIAが開発
既存のLLMを融合させて強力なモデルを作る手法「知識融合」
LLMに自分自身の内部動作を説明させる手法『Patchscopes(パッチスコープ)』Googleが開発
GPT-4のコード生成能力を飛躍的に向上させるプロンプトフレームワーク『AlphaCodium』
Metaなどの研究者らが、LLMが自分自身に報酬を与える「自己報酬言語モデル」を開発
外部からの攻撃で一度でも欺瞞を学んだLLMは現在の技術では完全回復が難しい
プロンプトの小さな違いがLLMにもたらすバタフライ効果を調査した結果
最高水準のオープンソースLLM『Mixtral 8x7B』は内部で専門家が切り替わる高効率モデル

業界/カテゴリー

PAGE TOP