次回の更新記事:小説のネタバレを避ける会話エージェント(公開予定日:2025年12月20日)
📢 メンテナンスのお知らせ:12/27(土) 13:00〜14:00 にサイトリニューアルのためメンテナンスを実施します。

記事スタイル

プロンプトの小さな違いがLLMにもたらすバタフライ効果を調査した結果
最高水準のオープンソースLLM『Mixtral 8x7B』は内部で専門家が切り替わる高効率モデル
CoTの推論ステップ数がLLMの推論能力に及ぼす影響を詳細に検証した結果
Googleなどが開発、LLMに表データ(.csvなど)の情報を深く理解させるためのフレームワーク『Chain of Table』
LLMの知識を狙い撃ちして変更・修正する「知識編集(Knowledge Editing)」
LLMに「自分自身との対戦」で能力を向上させる手法『Self-Play Fine-Tuning(SPIN)』
1.1Bパラメータの小さなモデルを巨大データ(約3兆トークン)で訓練したモデル『TinyLlama』が、比較的優秀な性能を発揮
JPモルガンの研究者らは、企業のドキュメントをLLMで読み込むモデル『DocLLM』を発表しました。
LLMが「教えてはいけない事実」を抑制するパーツが明らかに Llama-2を1057個に分解
LLMにおける情報抽出(文章から必要な事柄を読み取る)タスクについての調査
LLMの内部状態を観察することで「出力がハルシネーションか否かを判別する」手法『LLMファクトスコープ』
Geminiの「常識を推論する能力」を網羅的に調査した結果 間違えやすいタイプの問題も明らかに
人間のカリキュラム教育のような学習でLLMの性能は向上するとの報告
AGIを見据えて専門家レベルの問題を集めたベンチマーク「MMMU」、GPT-4VやGemini Ultraでも正解率6割未満
視覚・テキスト・音声そして行動データを処理するマルチモーダルLLM「Unified-IO 2」を開発したと報告されています。

プロフィールを登録すると
仕事のオファーが届きます

プロフィール登録
PAGE TOP