Loading [MathJax]/extensions/tex2jax.js
次回の更新記事:LLMに対するプロンプトインジェクションを防ぐ4つの…(公開予定日:2025年04月03日)

プロンプト

GPT-4やGeminiなどさまざまなLLMで、プロンプトの入力が長くなるにつれて推論性能に顕著な低下が見られる
GPT-4などに対してプロンプトのみから「新しい言葉の概念」を学習させるためのフレームワーク『FOCUS』
LLMの思考の流れに沿ってプロンプトを与えるか否かで30%以上精度が変化する DeepMindが報告
大規模言語モデル(LLM)のこれまでとこれから③ -使用法・拡張法、データセット編-
LLMにタスクに応じた推論プロセスを自ら考えるようにするプロンプト手法『SELF-DISCOVER』Google DeepMindなどが開発
LLMに敢えて間違わせてルールを覚えさせるプロンプト手法 Google DeepMindなどが考案
LLMに「自信の度合いに応じて説明のニュアンスを変更させる」ことがユーザーの誤解を回避する
GPT-4のコード生成能力を飛躍的に向上させるプロンプトフレームワーク『AlphaCodium』
プロンプトの小さな違いがLLMにもたらすバタフライ効果を調査した結果
CoTの推論ステップ数がLLMの推論能力に及ぼす影響を詳細に検証した結果
プロンプトの原則26ヶ条をまとめた報告
わずか2行のプロンプトでも実効性のある新しいアライメント手法『URIAL』
LLMへの入力プロンプトを「意味を保持したまま」高度に圧縮する技術『LLMLingua』
基盤モデル(GPT-4)はプロンプトの工夫で専門特化モデルに匹敵するほど性能が向上することが「医学分野」で示唆される
プロンプトを調整しないLLMのプロンプトエンジニアリング新手法『ControlPE』

プロフィールを登録すると
仕事のオファーが届きます

プロフィール登録
PAGE TOP