AIDB
menu
AIDBとは
AI用語集
AI問題集
文献調査サービス
アカウント作成
ログイン
サイトQ&A
ホーム
オープンソース
コンテンツ検索
Search for:
LLM
ハルシネーション
論文
LLMの「知っているのに嘘をつく」幻覚と「知らないから間違える」幻覚の違い
By AIDB Research
/ 2024/11/06
本記事では、LLMが示す「幻覚(ハルシネ...
Read More
LLM
ベンチマーク
論文
OpenAIが新しくLLMの事実性評価ベンチマーク『SimpleQA』をリリース 実用に役立つ知見も得られる
By AIDB Research
/ 2024/11/05
本記事では、OpenAIが新しく開発した...
Read More
LLM
論文
LLMが自分で「より賢いLLMの作り方」を発見するSelf-Developingフレームワーク(NEC 石橋陽一氏)
By AIDB Research
/ 2024/11/04
本記事は、研究者が自ら著書の論文を解説す...
Read More
LLM
セキュリティ
論文
LLMに対するオープンソース安全性評価ツールの比較
By AIDB Research
/ 2024/11/01
本記事では、LLMの安全性を自動的にチェ...
Read More
LLM
エンタメ・アート
画像生成
論文
プレイヤーの行動に応じてゲームを自動生成する技術 Googleなどが開発
By AIDB Research
/ 2024/10/31
本記事では、Googleが開発したゲーム...
Read More
LLM
ハルシネーション
プロンプト
論文
手の込んだ手法よりシンプルな手法の方がLLMは幻覚を起こしにくい 問題に応じて戦略を変える必要性
By AIDB Research
/ 2024/10/30
本記事では、LLMにおける「ハルシネーシ...
Read More
LLM
政治・社会
論文
開発企業や言語ごとに異なるLLMのイデオロギー、価値観や態度
By AIDB Research
/ 2024/10/29
本記事では、最新の研究から明らかになった...
Read More
LLM
プロンプト
論文
コンテキスト内で重要な情報同士が離れすぎるとLLMの性能は大幅に下がる
By AIDB Research
/ 2024/10/28
本記事では、LLMの長文理解における「情...
Read More
LLM
プロンプト
論文
LLMには正解例だけでなく、「よくある間違い例」と理由も一緒に教えるのが有効
By AIDB Research
/ 2024/10/25
本記事では、LLMの思考プロセスに関する...
Read More
LLM
o1
論文
o1モデルが人間のように6つの思考パターンを使い分けているとの実験結果
By AIDB Research
/ 2024/10/24
本記事では、AIの性能向上における「推論...
Read More
オープンソース
2024/10/23
LLM
オープンソース
論文
IBMから日本語対応の商用可能オープンソースLLM「GRANITE 3.0」公開 8Bから
IBMから日本語対応の商用可能オープンソースLLM「GRANITE 3.0」公開 8Bから
2024/6/21
LLM
エージェント
オープンソース
論文
オープンソースモデルでも力を合わせればGPT-4oに匹敵することを示す「Mixture-of-Agents(MoA)」アーキテクチャ
オープンソースモデルでも力を合わせればGPT-4oに匹敵することを示す「Mixture-of-Agents(MoA)」アーキテクチャ
2024/5/7
LLM
オープンソース
論文
Apple開発のオープンソースLLM「OpenELM」
Apple開発のオープンソースLLM「OpenELM」
2024/4/24
LLM
オープンソース
論文
強くて軽いモデルPhi-3の評価結果 Microsoftの論文(テクニカルレポート)より
強くて軽いモデルPhi-3の評価結果 Microsoftの論文(テクニカルレポート)より
2024/1/25
LLM
オープンソース
ファインチューニング
論文
GPT-4レベルの質問応答タスク性能をオープンソースモデルのLlama 2で実現する「ChatQA」NVIDIAが開発
GPT-4レベルの質問応答タスク性能をオープンソースモデルのLlama 2で実現する「ChatQA」NVIDIAが開発
2024/1/16
LLM
オープンソース
論文
最高水準のオープンソースLLM『Mixtral 8x7B』は内部で専門家が切り替わる高効率モデル
最高水準のオープンソースLLM『Mixtral 8x7B』は内部で専門家が切り替わる高効率モデル
2024/1/9
LLM
オープンソース
論文
1.1Bパラメータの小さなモデルを巨大データ(約3兆トークン)で訓練したモデル『TinyLlama』が、比較的優秀な性能を発揮
1.1Bパラメータの小さなモデルを巨大データ(約3兆トークン)で訓練したモデル『TinyLlama』が、比較的優秀な性能を発揮
2023/12/1
LLM
オープンソース
論文
「ChatGPTの1周年を記念して」、オープンソースLLMがChatGPTにどこまで追いついているか体系的調査報告
「ChatGPTの1周年を記念して」、オープンソースLLMがChatGPTにどこまで追いついているか体系的調査報告
1
2
>
コンテンツ検索
検索:
45392
直近1ヶ月で読まれている記事
LLMが自分で「より賢いLLMの作り方」を発見するSelf-Developingフレームワーク(NEC 石橋陽一氏)
OpenAIのo1-previewモデル、Kaggleのグランドマスター基準を上回るデータ分析性能を発揮
LLMの推論能力は単純に文脈を繰り返すだけでも大幅に向上 最大で30%改善
o1モデルが人間のように6つの思考パターンを使い分けているとの実験結果
ロングコンテキストLLMでも、情報の数は「多ければ多いほど良い」わけではない
PAGE TOP
Copyright ©
AIDB
All rights reserved.