LLMの推論能力は単純に文脈を繰り返すだけでも大幅に向上 最大で30%改善

本記事では、LLMの多段階推論能力を向上...
Read More

高解像度な深度マップを高速生成するモデル『Depth Pro』Appleが公開

本記事では、1枚の画像から高精度な奥行き...
Read More

100万体のLLMエージェントによるシミュレーションを実験できる環境が登場

本記事では、LLMを活用した大規模マルチ...
Read More

「o1」は従来のモデルとは明確に異なり「珍しいタイプの問題」にも強い

本記事では、OpenAIが開発した新しい...
Read More

LLM

「シリコンの群衆」LLM集団(12体)は人間にどれほど近づくか
「ポジティブ思考」プロンプトでLLMの性能向上 さらに自動最適化プロンプトが上をいくが、奇妙な現象も
「人間の自然言語を超えて」LLMにタスク実行時の思考を非自然言語フォーマットで行わせるプロンプト手法『AutoForm(オートフォーム)』
RAGにおいて取得された情報と事前知識が矛盾しても、情報に説得力があるときLLMは受け入れる
LLMに無礼なプロンプトを使用すると性能が低下するリスクの報告 一部、直感に反する複雑な結果も
GPT-4やGeminiなどさまざまなLLMで、プロンプトの入力が長くなるにつれて推論性能に顕著な低下が見られる
LLMの「心の理論」能力を詳しく調べるためのベンチマーク『OpenToM』 GPT-4など複数モデルの評価結果
GPT-4などに対してプロンプトのみから「新しい言葉の概念」を学習させるためのフレームワーク『FOCUS』
PAGE TOP