AIDB
menu
AIDBとは
AI用語集
AI問題集
文献調査サービス
アカウント作成
ログイン
サイトQ&A
ホーム
ファインチューニング
コンテンツ検索
Search for:
LLM
エージェント
論文
Claude 3.5 Computer Useのケーススタディ集 示唆される「GUIエージェントの夜明け」
By AIDB Research
/ 2024/11/21
本記事では、PCの画面を見て操作できる「...
Read More
LLM
論文
LLMが長々と説明するときは自信がない傾向にある 14個のモデルで検証
By AIDB Research
/ 2024/11/20
本記事では、LLMが「答えに自信がない時...
Read More
LLM
エージェント
論文
LLMプロジェクト開発に必要な新しい概念「AgentOps」とは
By AIDB Research
/ 2024/11/19
本記事では、LLMエージェントを安全に開...
Read More
LLM
オープンソース
論文
オープンソースのコード生成LLMが商用LLMに追いつく Qwen2.5-Coderの能力値全容
By AIDB Research
/ 2024/11/18
本記事では、コード生成に特化したLLM「...
Read More
LLM
RAG
論文
画像も文字も表も全部まとめて理解するRAGシステムの提案 Bloombergなど
By AIDB Research
/ 2024/11/15
本記事では、複数の文書やページから図や表...
Read More
LLM
オープンソース
論文
Llama 3.1シリーズ、8ビット量子化で半分以下のサイズでも性能をほぼ完全維持、実験で確認
By AIDB Research
/ 2024/11/14
本記事では、LLMの推論コストを削減する...
Read More
LLM
論文
LLMにおける長文処理能力の進化を調査 Claude 3.5は情報の流れを追跡するスキルに長ける
By AIDB Research
/ 2024/11/13
本記事では、LLMの長文処理能力について...
Read More
LLM
エージェント
論文
上司役のLLMが部下LLMたちに的確に仕事を振り分ける『Magentic-One』マイクロソフトが開発
By AIDB Research
/ 2024/11/12
本記事では、マイクロソフトが開発したマル...
Read More
LLM
RAG
論文
「HTMLをそのままLLMに入力してはどうか」という新しいアプローチ
By AIDB Research
/ 2024/11/11
本記事では、LLMの精度向上のために用い...
Read More
LLM
論文
LLMの機能別「領域」はまるで脳のようであるとの仮説
By AIDB Research
/ 2024/11/08
本記事では、LLMの内部で発見された驚く...
Read More
ファインチューニング
2024/10/17
LLM
RAG
ファインチューニング
論文
長文脈
ロングコンテキストLLMでも、情報の数は「多ければ多いほど良い」わけではない
ロングコンテキストLLMでも、情報の数は「多ければ多いほど良い」わけではない
2024/7/31
LLM
ファインチューニング
論文
LLMに専門的なドメイン知識を学ばせるのに有効な「読解タスクテキストに変換する」テクニック
LLMに専門的なドメイン知識を学ばせるのに有効な「読解タスクテキストに変換する」テクニック
2024/5/22
LLM
ハルシネーション
ファインチューニング
論文
ファインチューニングがLLMの幻覚(ハルシネーション)に与える影響 Googleなどによる検証結果
ファインチューニングがLLMの幻覚(ハルシネーション)に与える影響 Googleなどによる検証結果
2024/5/8
LLM
ファインチューニング
プロンプト
論文
長文脈
LLMのプロンプトに数百から数千の例を含める超長尺のコンテキスト内学習(In-context learning)とファインチューニングの性能比較
LLMのプロンプトに数百から数千の例を含める超長尺のコンテキスト内学習(In-context learning)とファインチューニングの性能比較
2024/3/7
LLM
ファインチューニング
プロンプト
製造・デザイン
論文
スクショからHTMLとCSSのコードをLLMが生成する『Design2Code』タスク、プロンプト手法やファインチューニングで高い性能を確認
スクショからHTMLとCSSのコードをLLMが生成する『Design2Code』タスク、プロンプト手法やファインチューニングで高い性能を確認
2024/2/16
LLM
RAG
ファインチューニング
プロンプト
論文
大規模言語モデル(LLM)のこれまでとこれから③ -使用法・拡張法、データセット編-
大規模言語モデル(LLM)のこれまでとこれから③ -使用法・拡張法、データセット編-
2024/2/9
LLM
ファインチューニング
論文
ファインチューニングデータが十分に大きい場合、タスク性能向上に追加の事前学習は不要の可能性 Googleなどによるスケーリング則の実験から
ファインチューニングデータが十分に大きい場合、タスク性能向上に追加の事前学習は不要の可能性 Googleなどによるスケーリング則の実験から
2024/1/30
LLM
RAG
ファインチューニング
論文
ファインチューニングとRAGを比較実験した結果 LLMに外部知識を取り入れる手法としての違い
ファインチューニングとRAGを比較実験した結果 LLMに外部知識を取り入れる手法としての違い
1
2
>
コンテンツ検索
検索:
34866
直近1ヶ月で読まれている記事
「HTMLをそのままLLMに入力してはどうか」という新しいアプローチ
LLMが自分で「より賢いLLMの作り方」を発見するSelf-Developingフレームワーク(NEC 石橋陽一氏)
上司役のLLMが部下LLMたちに的確に仕事を振り分ける『Magentic-One』マイクロソフトが開発
Llama 3.1シリーズ、8ビット量子化で半分以下のサイズでも性能をほぼ完全維持、実験で確認
o1モデルが人間のように6つの思考パターンを使い分けているとの実験結果
PAGE TOP
Copyright ©
AIDB
All rights reserved.