Search for:
menu
menu
論文
AIDBとは
アカウント作成
ログイン
ホーム
過去の記事一覧
次回の更新記事:
推論時のトークン数を80%以上削減しながら出力精度を…
(公開予定日:2025年03月17日)
記事スタイル
2024/2/19
LLM
サーベイ
ベンチマーク
有料記事
論文
大規模言語モデル(LLM)のこれまでとこれから④ -ベンチマーク別の優秀なモデルと将来展望編-
大規模言語モデル(LLM)のこれまでとこれから④ -ベンチマーク別の優秀なモデルと将来展望編-
2024/2/16
LLM
RAG
サーベイ
ファインチューニング
プロンプト
有料記事
論文
大規模言語モデル(LLM)のこれまでとこれから③ -使用法・拡張法、データセット編-
大規模言語モデル(LLM)のこれまでとこれから③ -使用法・拡張法、データセット編-
2024/2/15
LLM
サーベイ
有料記事
論文
大規模言語モデル(LLM)のこれまでとこれから② -モデル構築編-
大規模言語モデル(LLM)のこれまでとこれから② -モデル構築編-
2024/2/14
LLM
サーベイ
有料記事
論文
大規模言語モデル(LLM)のこれまでとこれから① -代表的なモデル編-
大規模言語モデル(LLM)のこれまでとこれから① -代表的なモデル編-
2024/2/13
LLM
プロンプト
有料記事
論文
LLMにタスクに応じた推論プロセスを自ら考えるようにするプロンプト手法『SELF-DISCOVER』Google DeepMindなどが開発
LLMにタスクに応じた推論プロセスを自ら考えるようにするプロンプト手法『SELF-DISCOVER』Google DeepMindなどが開発
2024/2/12
LLM
プロンプト
有料記事
論文
LLMに敢えて間違わせてルールを覚えさせるプロンプト手法 Google DeepMindなどが考案
LLMに敢えて間違わせてルールを覚えさせるプロンプト手法 Google DeepMindなどが考案
2024/2/9
LLM
ファインチューニング
有料記事
論文
ファインチューニングデータが十分に大きい場合、タスク性能向上に追加の事前学習は不要の可能性 Googleなどによるスケーリング則の実験から
ファインチューニングデータが十分に大きい場合、タスク性能向上に追加の事前学習は不要の可能性 Googleなどによるスケーリング則の実験から
2024/2/8
RAG
医療・ヘルスケア
有料記事
論文
GPT-4にRAG(検索拡張生成)を適用するケーススタディ 臨床問題で人間の医師よりも高い精度を達成
GPT-4にRAG(検索拡張生成)を適用するケーススタディ 臨床問題で人間の医師よりも高い精度を達成
2024/2/7
LLM
有料記事
論文
ナレッジグラフ(知識グラフ)とLLMを掛け合わせる方法のロードマップ
ナレッジグラフ(知識グラフ)とLLMを掛け合わせる方法のロードマップ
2024/2/6
LLM
有料記事
論文
複数LLMに議論させ、「回答に自信がないときは発言を控えさせ」て応答品質を向上する方法
複数LLMに議論させ、「回答に自信がないときは発言を控えさせ」て応答品質を向上する方法
<
1
…
26
27
28
29
30
…
166
>
直近1ヶ月で読まれている記事
LLM専用の「新しい言葉」を導入 Google DeepMind
LLMを擬人化することに対する見解
LLMの定理証明力を2倍に向上させる「予想と証明を繰り返させる」手法 限られたデータの中で
LLMはシステムプロンプトをどれほど守れるか
「職業別にみるLLM活用の現状と今後」Anthropicが大規模調査
プロフィールを登録すると
仕事のオファーが届きます
プロフィール登録
PAGE TOP
Copyright ©
AIDB
All rights reserved.