最新の記事:科学研究の自動化だけでなく人間と協働する「コパイ…

LLMエージェントによって自然言語をゲーム理論モデルに変換する方法

本記事では、人間が思いついたゲーム理論的...
Read More

産業界における生成AIガイドラインを網羅したデータセット登場

本記事では、企業における大規模言語モデル...
Read More

LLMは個人の金銭管理を適切にサポートできるのか?

本記事では、LLMを利用した個人財務サポ...
Read More

スマートフォンで取れる日常のセンサーデータをLLMで分析し、生活を自然言語で記録する

本記事では、スマートフォンに標準的に搭載...
Read More

OpenAIが提唱する「AIエージェントの管理法」

本記事では、高度な自律性を持つシステムの...
Read More

LLMにおける創造性の実現と研究アイデアの生成

本記事では、異なる分野の知識を組み合わせ...
Read More

ブラウザでLLMをローカル展開する手法

本記事では、ブラウザ内での大規模言語モデ...
Read More

ファインチューニング

LLMによるニュース報道の広がり分析を活用した株価変動予測手法
ロングコンテキストLLMでも、情報の数は「多ければ多いほど良い」わけではない
LLMに専門的なドメイン知識を学ばせるのに有効な「読解タスクテキストに変換する」テクニック
ファインチューニングがLLMの幻覚(ハルシネーション)に与える影響 Googleなどによる検証結果
LLMのプロンプトに数百から数千の例を含める超長尺のコンテキスト内学習(In-context learning)とファインチューニングの性能比較
スクショからHTMLとCSSのコードをLLMが生成する『Design2Code』タスク、プロンプト手法やファインチューニングで高い性能を確認
大規模言語モデル(LLM)のこれまでとこれから③ -使用法・拡張法、データセット編-
ファインチューニングデータが十分に大きい場合、タスク性能向上に追加の事前学習は不要の可能性 Googleなどによるスケーリング則の実験から
PAGE TOP