LLMによる目標達成と正直さのジレンマ

本記事では、カーネギーメロン大学などの研...
Read More

単純に生成回数を増やすとLLMの性能が大幅に向上する「推論時のスケーリング則」

この記事では、LLMの性能を向上させる新...
Read More

Self-Reflection(自己反省)がLLMのパフォーマンスに与える影響を網羅的に調査

この記事では、LLMが自分自身の行動を反...
Read More

LLMの推論能力を戦略的に向上させる新しいプロンプト手法『SCoT』

この記事では、LLMの推論能力を向上させ...
Read More

ロングコンテキストLLM台頭の今もRAGを使用する理由

この記事では、LLMが長い文章を理解でき...
Read More

論文

RAGの失敗パターン7選と教訓9箇条
ChatGPTの「初頭効果」について
認知症の早期介入にLLMチャットボットが役に立つ ハーバードなどが検証
LLMエージェントが実行可能なPythonコードを生成するフレームワーク『CodeAct』
Googleが開発した「LLMに長文を高精度で読解させる方法論」と実行プロンプト
マルチモーダルLLMにおける幻覚(ハルシネーション)の原因と対策 クリエイティブでの活用も推奨 AWSなどが網羅的に調査
LLMのプロンプトに数百から数千の例を含める超長尺のコンテキスト内学習(In-context learning)とファインチューニングの性能比較
Apple開発のオープンソースLLM「OpenELM」

業界/カテゴリー

PAGE TOP