次回の更新記事:小説のネタバレを避ける会話エージェント(公開予定日:2025年12月20日)
📢 メンテナンスのお知らせ:12/27(土) 13:00〜14:00 にサイトリニューアルのためメンテナンスを実施します。

記事スタイル

複数LLMに議論させ、「回答に自信がないときは発言を控えさせ」て応答品質を向上する方法
LLMの検索結果をさらに正確にする手法『CRAG』(Corrective Retrieval Augmented Generation:修正型の検索拡張生成)
LLMを軽くする効果的な剪定手法『SliceGPT』
RAGシステムに「無関係な」文書を混ぜたほうがLLMの出力精度が上がる可能性が示唆された
LLMに「自信の度合いに応じて説明のニュアンスを変更させる」ことがユーザーの誤解を回避する
ファインチューニングとRAGを比較実験した結果 LLMに外部知識を取り入れる手法としての違い
マルチモーダルLLMの技術や開発トレンド、26種類のモデル例を網羅的にまとめた報告
人間の集団が持つアイデアはAIによって多様性が向上することが研究で示唆されています。
GPT-4レベルの質問応答タスク性能をオープンソースモデルのLlama 2で実現する「ChatQA」NVIDIAが開発
既存のLLMを融合させて強力なモデルを作る手法「知識融合」
LLMに自分自身の内部動作を説明させる手法
GPT-4のコード生成能力を飛躍的に向上させるプロンプトフレームワーク『AlphaCodium』
Metaなどの研究者らが、LLMが自分自身に報酬を与える「自己報酬言語モデル」を開発
数学オリンピックの金メダリストと似たレベルで幾何学問題を解くAIシステムをDeepMindが開発したことがNatureで報告されています。
外部からの攻撃で一度でも欺瞞を学んだLLMは現在の技術では完全回復が難しい

プロフィールを登録すると
仕事のオファーが届きます

プロフィール登録
PAGE TOP