LLMが長々と説明するときは自信がない傾向にある 14個のモデルで検証

本記事では、LLMが「答えに自信がない時...
Read More

LLMプロジェクト開発に必要な新しい概念「AgentOps」とは

本記事では、LLMエージェントを安全に開...
Read More

画像も文字も表も全部まとめて理解するRAGシステムの提案 Bloombergなど

本記事では、複数の文書やページから図や表...
Read More

LLMにおける長文処理能力の進化を調査 Claude 3.5は情報の流れを追跡するスキルに長ける

本記事では、LLMの長文処理能力について...
Read More

「HTMLをそのままLLMに入力してはどうか」という新しいアプローチ

本記事では、LLMの精度向上のために用い...
Read More

LLMの機能別「領域」はまるで脳のようであるとの仮説

本記事では、LLMの内部で発見された驚く...
Read More

ファインチューニング

ロングコンテキストLLMでも、情報の数は「多ければ多いほど良い」わけではない
LLMに専門的なドメイン知識を学ばせるのに有効な「読解タスクテキストに変換する」テクニック
ファインチューニングがLLMの幻覚(ハルシネーション)に与える影響 Googleなどによる検証結果
LLMのプロンプトに数百から数千の例を含める超長尺のコンテキスト内学習(In-context learning)とファインチューニングの性能比較
スクショからHTMLとCSSのコードをLLMが生成する『Design2Code』タスク、プロンプト手法やファインチューニングで高い性能を確認
大規模言語モデル(LLM)のこれまでとこれから③ -使用法・拡張法、データセット編-
ファインチューニングデータが十分に大きい場合、タスク性能向上に追加の事前学習は不要の可能性 Googleなどによるスケーリング則の実験から
ファインチューニングとRAGを比較実験した結果 LLMに外部知識を取り入れる手法としての違い
PAGE TOP