次回の更新記事:LLM同士による人工言語コミュニケーションで発見され…(公開予定日:2024年12月16日)

LLMを利用した「自動データクリーニング」方法

本記事では、データ活用の現場で大きな壁と...
Read More

研究活動におけるLLMの「使われ方」や「好まれ方」に関する実態調査の結果

本記事では、816名の研究者を対象とした...
Read More

LLMの開発トレンドに新たに見出された『密度化の法則』および『能力密度』の概念

本記事では、LLMにおける新しい評価指標...
Read More

LLMにおける事実性の評価&向上に役立つデータセットの作り方

本記事では、LLMが抱える「ハルシネーシ...
Read More

OpenAI o1モデルファミリー登場 その特徴の全貌

この記事では、OpenAIがついにo1モ...
Read More

RAG

長文コンテキスト処理はRAGを進化させるのか?最新モデル20種類での実験結果
画像も文字も表も全部まとめて理解するRAGシステムの提案 Bloombergなど
「HTMLをそのままLLMに入力してはどうか」という新しいアプローチ
ロングコンテキストLLMでも、情報の数は「多ければ多いほど良い」わけではない
ハーバード大学とGoogleの研究者ら、LLMチャットボットを総合的に評価するデータセットの作り方を報告(作成されたデータセットも公開)
ロングコンテキストLLM台頭の今もRAGを使用する理由
RAGの検索データにおける「ノイズ(事実とは異なる情報など)」には有益なノイズと有害なノイズがある
RAGの検索精度を実務レベルに高めるには、「情報ごとに ”質問文” を作りデータベースに入れる」のが効果的との報告
PAGE TOP