AIDB
menu
AIDBとは
AI用語集
AI問題集
文献調査サービス
アカウント作成
ログイン
サイトQ&A
ホーム
ファインチューニング
コンテンツ検索
Search for:
LLM
論文
「o1-preview」は自己評価メカニズムを持つ 計画立案中に自分の行動をチェックして修正
By AIDB Research
/ 2024/10/18
本記事では、OpenAIの最新モデル「o...
Read More
LLM
RAG
ファインチューニング
論文
ロングコンテキストLLMでも、情報の数は「多ければ多いほど良い」わけではない
By AIDB Research
/ 2024/10/17
本記事では、長い文脈を扱えるLLMをRA...
Read More
LLM
エージェント
論文
OpenAIのo1-previewモデル、Kaggleのグランドマスター基準を上回るデータ分析性能を発揮
By AIDB Research
/ 2024/10/16
本記事では、OpenAIが開発した「機械...
Read More
LLM
プロンプト
論文
LLMの推論能力は単純に文脈を繰り返すだけでも大幅に向上 最大で30%改善
By AIDB Research
/ 2024/10/15
本記事では、LLMの多段階推論能力を向上...
Read More
LLM
プロンプト
論文
「あなたは〇〇です」などのペルソナ設定を与えても、事実に基づく質問への回答精度は向上しないとの主張
By AIDB Research
/ 2024/10/11
本記事では、LLMのシステムプロンプトに...
Read More
LLM
論文
複雑なプログラミングタスクに特化したベンチマーク『BigCodeBench』登場 最新モデルでも60%
By AIDB Research
/ 2024/10/10
本記事では、LLMのプログラミング能力を...
Read More
画像生成
画像認識
論文
高解像度な深度マップを高速生成するモデル『Depth Pro』Appleが公開
By AIDB Research
/ 2024/10/09
本記事では、1枚の画像から高精度な奥行き...
Read More
LLM
RAG
論文
ハーバード大学とGoogleの研究者ら、LLMチャットボットを総合的に評価するデータセットの作り方を報告(作成されたデータセットも公開)
By AIDB Research
/ 2024/10/08
本記事では、RAGシステムの性能を総合的...
Read More
LLM
エージェント
論文
100万体のLLMエージェントによるシミュレーションを実験できる環境が登場
By AIDB Research
/ 2024/10/07
本記事では、LLMを活用した大規模マルチ...
Read More
LLM
論文
「o1」は従来のモデルとは明確に異なり「珍しいタイプの問題」にも強い
By AIDB Research
/ 2024/10/04
本記事では、OpenAIが開発した新しい...
Read More
ファインチューニング
2024/10/17
LLM
RAG
ファインチューニング
論文
ロングコンテキストLLMでも、情報の数は「多ければ多いほど良い」わけではない
ロングコンテキストLLMでも、情報の数は「多ければ多いほど良い」わけではない
2024/7/31
LLM
ファインチューニング
論文
LLMに専門的なドメイン知識を学ばせるのに有効な「読解タスクテキストに変換する」テクニック
LLMに専門的なドメイン知識を学ばせるのに有効な「読解タスクテキストに変換する」テクニック
2024/5/22
LLM
ファインチューニング
論文
ファインチューニングがLLMの幻覚(ハルシネーション)に与える影響 Googleなどによる検証結果
ファインチューニングがLLMの幻覚(ハルシネーション)に与える影響 Googleなどによる検証結果
2024/5/8
LLM
ファインチューニング
プロンプト
論文
LLMのプロンプトに数百から数千の例を含める超長尺のコンテキスト内学習(In-context learning)とファインチューニングの性能比較
LLMのプロンプトに数百から数千の例を含める超長尺のコンテキスト内学習(In-context learning)とファインチューニングの性能比較
2024/3/7
LLM
ファインチューニング
プロンプト
製造・デザイン
論文
スクショからHTMLとCSSのコードをLLMが生成する『Design2Code』タスク、プロンプト手法やファインチューニングで高い性能を確認
スクショからHTMLとCSSのコードをLLMが生成する『Design2Code』タスク、プロンプト手法やファインチューニングで高い性能を確認
2024/2/16
LLM
RAG
ファインチューニング
プロンプト
論文
大規模言語モデル(LLM)のこれまでとこれから③ -使用法・拡張法、データセット編-
大規模言語モデル(LLM)のこれまでとこれから③ -使用法・拡張法、データセット編-
2024/2/9
LLM
ファインチューニング
論文
ファインチューニングデータが十分に大きい場合、タスク性能向上に追加の事前学習は不要の可能性 Googleなどによるスケーリング則の実験から
ファインチューニングデータが十分に大きい場合、タスク性能向上に追加の事前学習は不要の可能性 Googleなどによるスケーリング則の実験から
2024/1/30
LLM
RAG
ファインチューニング
論文
ファインチューニングとRAGを比較実験した結果 LLMに外部知識を取り入れる手法としての違い
ファインチューニングとRAGを比較実験した結果 LLMに外部知識を取り入れる手法としての違い
1
2
>
コンテンツ検索
検索:
22866
直近1ヶ月で読まれている記事
専門家が作成したプロンプトと同等以上の性能を達成する自動プロンプト生成手法『Minstriel』
RAG-LLMシステムへのユーザークエリは4つのレベルに分類できる 最も複雑なのは「隠れた根拠からの推論が必要なクエリ」Microsoftによる研究
OpenAIの新しいモデルo1、従来のLLMと比べて「計画能力」で圧倒的な性能向上
OpenAIのo1-previewモデル、Kaggleのグランドマスター基準を上回るデータ分析性能を発揮
CoT(思考の連鎖)は数学や論理で劇的に性能を向上させる一方、常識や知識のタスクでほとんど効果がない
PAGE TOP
Copyright ©
AIDB
All rights reserved.