RAGの失敗パターン7選

研究者らは、RAGの7つの失敗パターンを...
Read More

ChatGPTの「初頭効果」について

カリフォルニア大学などの研究者らは、Ch...
Read More

Googleが開発した「LLMに長文を高精度で読解させる方法論」と実行プロンプト

LLMが一度に処理できる文章の長さには限...
Read More

マルチモーダルLLMにおけるハルシネーション(幻覚)の原因と対策

テキストだけでなく画像や動画などの視覚情...
Read More

Apple開発のオープンソースLLM「OpenELM」

Appleが公開した最新のオープンソース...
Read More

量子化はLLMの性能にどう影響を与えるか?モデルが持つ「自信」の観点から説明

LLMは多大な計算コストとメモリーを必要...
Read More

論文

LLMに敢えて間違わせてルールを覚えさせるプロンプト手法 Google DeepMindなどが考案
ファインチューニングデータが十分に大きい場合、タスク性能向上に追加の事前学習は不要の可能性 Googleなどによるスケーリング則の実験から
GPT-4にRAG(検索拡張生成)を適用するケーススタディ 臨床問題で人間の医師よりも高い精度を達成
複数LLMに議論させ、「回答に自信がないときは発言を控えさせ」て応答品質を向上する方法
LLMの検索結果をさらに正確にする手法『CRAG』(Corrective Retrieval Augmented Generation:修正型の検索拡張生成)
LLMを軽くする効果的な剪定手法『SliceGPT』
LLMに「自信の度合いに応じて説明のニュアンスを変更させる」ことがユーザーの誤解を回避する
ファインチューニングとRAGを比較実験した結果 LLMに外部知識を取り入れる手法としての違い

業界/カテゴリー

PAGE TOP