AIDB
menu
AIDBとは
AI用語集
AI問題集
文献調査サービス
アカウント作成
ログイン
サイトQ&A
ホーム
オープンソース
コンテンツ検索
Search for:
LLM
プロンプト
論文
LLMには正解例だけでなく、「よくある間違い例」と理由も一緒に教えるのが有効
By AIDB Research
/ 2024/10/25
本記事では、LLMの思考プロセスに関する...
Read More
LLM
o1
論文
o1モデルが人間のように6つの思考パターンを使い分けているとの実験結果
By AIDB Research
/ 2024/10/24
本記事では、AIの性能向上における「推論...
Read More
LLM
オープンソース
論文
IBMから日本語対応の商用可能オープンソースLLM「GRANITE 3.0」公開 8Bから
By AIDB Research
/ 2024/10/23
本記事では、IBMが新たに開発した軽量な...
Read More
LLM
エージェント
論文
計画のステップが増えるほど、LLMは最初の目標を見失っていく傾向がある
By AIDB Research
/ 2024/10/22
本記事では、LLMを活用したエージェント...
Read More
LLM
ベンチマーク
論文
500以上の実世界のマルチモーダルタスクを含む、過去最大規模の評価ベンチマーク『MEGA-BENCH』登場
By AIDB Research
/ 2024/10/21
本記事では、マルチモーダルAIモデルの能...
Read More
LLM
o1
論文
「o1-preview」は自己評価メカニズムを持つ 計画立案中に自分の行動をチェックして修正
By AIDB Research
/ 2024/10/18
本記事では、OpenAIの最新モデル「o...
Read More
LLM
RAG
ファインチューニング
論文
長文脈
ロングコンテキストLLMでも、情報の数は「多ければ多いほど良い」わけではない
By AIDB Research
/ 2024/10/17
本記事では、長い文脈を扱えるLLMをRA...
Read More
LLM
o1
エージェント
論文
OpenAIのo1-previewモデル、Kaggleのグランドマスター基準を上回るデータ分析性能を発揮
By AIDB Research
/ 2024/10/16
本記事では、OpenAIが開発した「機械...
Read More
LLM
プロンプト
論文
LLMの推論能力は単純に文脈を繰り返すだけでも大幅に向上 最大で30%改善
By AIDB Research
/ 2024/10/15
本記事では、LLMの多段階推論能力を向上...
Read More
LLM
プロンプト
論文
「あなたは〇〇です」などのペルソナ設定を与えても、事実に基づく質問への回答精度は向上しないとの主張
By AIDB Research
/ 2024/10/11
本記事では、LLMのシステムプロンプトに...
Read More
オープンソース
2024/10/23
LLM
オープンソース
論文
IBMから日本語対応の商用可能オープンソースLLM「GRANITE 3.0」公開 8Bから
IBMから日本語対応の商用可能オープンソースLLM「GRANITE 3.0」公開 8Bから
2024/6/21
LLM
エージェント
オープンソース
論文
オープンソースモデルでも力を合わせればGPT-4oに匹敵することを示す「Mixture-of-Agents(MoA)」アーキテクチャ
オープンソースモデルでも力を合わせればGPT-4oに匹敵することを示す「Mixture-of-Agents(MoA)」アーキテクチャ
2024/5/7
LLM
オープンソース
論文
Apple開発のオープンソースLLM「OpenELM」
Apple開発のオープンソースLLM「OpenELM」
2024/4/24
LLM
オープンソース
論文
強くて軽いモデルPhi-3の評価結果 Microsoftの論文(テクニカルレポート)より
強くて軽いモデルPhi-3の評価結果 Microsoftの論文(テクニカルレポート)より
2024/1/25
LLM
オープンソース
ファインチューニング
論文
GPT-4レベルの質問応答タスク性能をオープンソースモデルのLlama 2で実現する「ChatQA」NVIDIAが開発
GPT-4レベルの質問応答タスク性能をオープンソースモデルのLlama 2で実現する「ChatQA」NVIDIAが開発
2024/1/16
LLM
オープンソース
論文
最高水準のオープンソースLLM『Mixtral 8x7B』は内部で専門家が切り替わる高効率モデル
最高水準のオープンソースLLM『Mixtral 8x7B』は内部で専門家が切り替わる高効率モデル
2024/1/9
LLM
オープンソース
論文
1.1Bパラメータの小さなモデルを巨大データ(約3兆トークン)で訓練したモデル『TinyLlama』が、比較的優秀な性能を発揮
1.1Bパラメータの小さなモデルを巨大データ(約3兆トークン)で訓練したモデル『TinyLlama』が、比較的優秀な性能を発揮
2023/12/1
LLM
オープンソース
論文
「ChatGPTの1周年を記念して」、オープンソースLLMがChatGPTにどこまで追いついているか体系的調査報告
「ChatGPTの1周年を記念して」、オープンソースLLMがChatGPTにどこまで追いついているか体系的調査報告
1
2
>
コンテンツ検索
検索:
93648
直近1ヶ月で読まれている記事
専門家が作成したプロンプトと同等以上の性能を達成する自動プロンプト生成手法『Minstriel』
RAG-LLMシステムへのユーザークエリは4つのレベルに分類できる 最も複雑なのは「隠れた根拠からの推論が必要なクエリ」Microsoftによる研究
OpenAIのo1-previewモデル、Kaggleのグランドマスター基準を上回るデータ分析性能を発揮
LLMの論理的推論能力をステップバイステップ以上に向上させる手法『Logic-of-Thought』プロンプティング(テンプレートつき)
CoT(思考の連鎖)は数学や論理で劇的に性能を向上させる一方、常識や知識のタスクでほとんど効果がない
PAGE TOP
Copyright ©
AIDB
All rights reserved.