LLMの推論能力は単純に文脈を繰り返すだけでも大幅に向上 最大で30%改善

本記事では、LLMの多段階推論能力を向上...
Read More

高解像度な深度マップを高速生成するモデル『Depth Pro』Appleが公開

本記事では、1枚の画像から高精度な奥行き...
Read More

100万体のLLMエージェントによるシミュレーションを実験できる環境が登場

本記事では、LLMを活用した大規模マルチ...
Read More

「o1」は従来のモデルとは明確に異なり「珍しいタイプの問題」にも強い

本記事では、OpenAIが開発した新しい...
Read More

ファインチューニング

ロングコンテキストLLMでも、情報の数は「多ければ多いほど良い」わけではない
LLMに専門的なドメイン知識を学ばせるのに有効な「読解タスクテキストに変換する」テクニック
ファインチューニングがLLMの幻覚(ハルシネーション)に与える影響 Googleなどによる検証結果
LLMのプロンプトに数百から数千の例を含める超長尺のコンテキスト内学習(In-context learning)とファインチューニングの性能比較
スクショからHTMLとCSSのコードをLLMが生成する『Design2Code』タスク、プロンプト手法やファインチューニングで高い性能を確認
大規模言語モデル(LLM)のこれまでとこれから③ -使用法・拡張法、データセット編-
ファインチューニングデータが十分に大きい場合、タスク性能向上に追加の事前学習は不要の可能性 Googleなどによるスケーリング則の実験から
ファインチューニングとRAGを比較実験した結果 LLMに外部知識を取り入れる手法としての違い
PAGE TOP