『LLM-as-a-judge』のさまざまな応用と分野の展望

AI分野では、テキストの品質評価が大きな...
Read More

LLMを「評価者」として活用する『LLM-as-a-judge』の基本

本記事では、新たな評価手法として注目され...
Read More

Gemini-1.5-proやGPT-4o-miniなどの性能を上回るLLaVA-o1(11Bパラメータ)

本記事では、視覚と言語を組み合わせたマル...
Read More

LLMによるバグ全自動修正に成功するケースと失敗するケースの違い

本記事では、LLMによるバグ修正に関する...
Read More

LLMが長々と説明するときは自信がない傾向にある 14個のモデルで検証

本記事では、LLMが「答えに自信がない時...
Read More

LLM

「o1-preview」は自己評価メカニズムを持つ 計画立案中に自分の行動をチェックして修正 
ロングコンテキストLLMでも、情報の数は「多ければ多いほど良い」わけではない
OpenAIのo1-previewモデル、Kaggleのグランドマスター基準を上回るデータ分析性能を発揮
LLMの推論能力は単純に文脈を繰り返すだけでも大幅に向上 最大で30%改善
「あなたは〇〇です」などのペルソナ設定を与えても、事実に基づく質問への回答精度は向上しないとの主張
複雑なプログラミングタスクに特化したベンチマーク『BigCodeBench』登場 最新モデルでも60%
ハーバード大学とGoogleの研究者ら、LLMチャットボットを総合的に評価するデータセットの作り方を報告(作成されたデータセットも公開)
100万体のLLMエージェントによるシミュレーションを実験できる環境が登場
PAGE TOP