次回の更新記事:標準作業手順書(SOP)をもとにLLMエージェントシス…(公開予定日:2025年03月31日)

ファインチューニング

多様なキャラクターを柔軟に演じることのできるLLMの作り方
LLMを活用した「Text to CAD」 テキスト指示から高品質な3Dモデルを作成する
単一のLLMから2つのエージェントを作成し自分(たち)で改善させる手法が有効
LLMによるニュース報道の広がり分析を活用した株価変動予測手法
ロングコンテキストLLMでも、情報の数は「多ければ多いほど良い」わけではない
LLMに専門的なドメイン知識を学ばせるのに有効な「読解タスクテキストに変換する」テクニック
ファインチューニングがLLMの幻覚(ハルシネーション)に与える影響 Googleなどによる検証結果
LLMのプロンプトに数百から数千の例を含める超長尺のコンテキスト内学習(In-context learning)とファインチューニングの性能比較
スクショからHTMLとCSSのコードをLLMが生成する『Design2Code』タスク、プロンプト手法やファインチューニングで高い性能を確認
大規模言語モデル(LLM)のこれまでとこれから③ -使用法・拡張法、データセット編-
ファインチューニングデータが十分に大きい場合、タスク性能向上に追加の事前学習は不要の可能性 Googleなどによるスケーリング則の実験から
ファインチューニングとRAGを比較実験した結果 LLMに外部知識を取り入れる手法としての違い
GPT-4レベルの質問応答タスク性能をオープンソースモデルのLlama 2で実現する「ChatQA」NVIDIAが開発
LLMに「自分自身との対戦」で能力を向上させる手法『Self-Play Fine-Tuning(SPIN)』
人間のカリキュラム教育のような学習でLLMの性能は向上するとの報告

プロフィールを登録すると
仕事のオファーが届きます

プロフィール登録
PAGE TOP