反復学習でCoTによる推論性能を向上させる手法 Metaとニューヨーク大学による研究

LLMは論理的な推論をする能力が限られて...
Read More

RAGの失敗パターン7選

研究者らは、RAGの7つの失敗パターンを...
Read More

ChatGPTの「初頭効果」について

カリフォルニア大学などの研究者らは、Ch...
Read More

Googleが開発した「LLMに長文を高精度で読解させる方法論」と実行プロンプト

LLMが一度に処理できる文章の長さには限...
Read More

マルチモーダルLLMにおけるハルシネーション(幻覚)の原因と対策

テキストだけでなく画像や動画などの視覚情...
Read More

Apple開発のオープンソースLLM「OpenELM」

Appleが公開した最新のオープンソース...
Read More

プロンプト

スタンフォード大学の研究者ら、GPT-4oとGemini1.5 Proで「マルチモーダルモデルにおける『Many-Shot』の効果」を検証
ChatGPTの「初頭効果」について
LLMのプロンプトに数百から数千の例を含める超長尺のコンテキスト内学習(In-context learning)とファインチューニングの性能比較
LLMに対して、「人間には意味が分からない滅茶苦茶な文」でプロンプトを送る手法『LM Babel』
LLMでWikipediaのような文書を作成する方法「STORM」スタンフォード大学研究者ら開発
プロンプトでLLMにRPAワークフローを自動生成させる手法「FlowMind」JPモルガン考案
LLMにおける、長いコンテキストから欲しい情報を見つけ出す「needle-in-a-haystack(干し草の中の針)」テスト結果とプロンプト例
プロンプトに例を多く載せるほど、どんなタスクでも性能が上がるのか?DeepMindによる『Many-shot Learning』の実験結果

業界/カテゴリー

PAGE TOP