次回の更新記事:機能実装やテスト生成まで実務で使えるLLMを見極める…(公開予定日:2025年12月19日)
📢 メンテナンスのお知らせ:12/27(土) 13:00〜14:00 にサイトリニューアルのためメンテナンスを実施します。

記事スタイル

GPT-4などに対してプロンプトのみから「新しい言葉の概念」を学習させるためのフレームワーク『FOCUS』
深層ニューラルネットワークの学習プロセスを運動方程式で表すことに成功 研究者本人が解説(NEC宮川大輝氏)
小さなLLMを多数組み合わせることで、単一の巨大モデルに匹敵する可能性
ユーザーの指示が曖昧なとき、LLM側が確認を行うエージェントアーキテクチャ『Mistral-Interact』
LLMの思考の流れに沿ってプロンプトを与えるか否かで30%以上精度が変化する DeepMindが報告
大規模言語モデル(LLM)のこれまでとこれから④ -ベンチマーク別の優秀なモデルと将来展望編-
大規模言語モデル(LLM)のこれまでとこれから③ -使用法・拡張法、データセット編-
大規模言語モデル(LLM)のこれまでとこれから② -モデル構築編-
大規模言語モデル(LLM)のこれまでとこれから① -代表的なモデル編-
LLMにタスクに応じた推論プロセスを自ら考えるようにさせるプロンプト手法『SELF-DISCOVER』Google DeepMindなどが開発
LLMに敢えて間違わせてルールを覚えさせるプロンプト手法 Google DeepMindなどが考案
ファインチューニングデータが十分に大きい場合、タスク性能向上に追加の事前学習は不要の可能性 Googleなどによるスケーリング則の実験から
GPT-4にRAG(検索拡張生成)を適用するケーススタディ 臨床問題で人間の医師よりも高い精度を達成
ナレッジグラフ(知識グラフ)とLLMを掛け合わせる方法のロードマップ
複数LLMに議論させ、「回答に自信がないときは発言を控えさせ」て応答品質を向上する方法

プロフィールを登録すると
仕事のオファーが届きます

プロフィール登録
PAGE TOP