お問い合わせはこちら

業界/カテゴリー

おすすめ企画

日本ディープラーニング協会

Googleが開発した「LLMに長文を高精度で読解させる方法論」と実行プロンプト

LLMが一度に処理できる文章の長さには限...
Read More

マルチモーダルLLMにおけるハルシネーション(幻覚)の原因と対策

テキストだけでなく画像や動画などの視覚情...
Read More

Apple開発のオープンソースLLM「OpenELM」

Appleが公開した最新のオープンソース...
Read More

量子化はLLMの性能にどう影響を与えるか?モデルが持つ「自信」の観点から説明

LLMは多大な計算コストとメモリーを必要...
Read More

LLMでWikipediaのような文書を作成する方法「STORM」スタンフォード大学研究者ら開発

スタンフォード大学の研究グループが提案し...
Read More

大規模言語モデル(LLM)のこれまでとこれから③ -使用法・拡張法、データセット編-
大規模言語モデル(LLM)のこれまでとこれから② -モデル構築編-
大規模言語モデル(LLM)のこれまでとこれから① -代表的なモデル編-
LLMにタスクに応じた推論プロセスを自ら考えるようにするプロンプト手法『SELF-DISCOVER』Google DeepMindなどが開発
LLMに敢えて間違わせてルールを覚えさせるプロンプト手法 Google DeepMindなどが考案
ファインチューニングデータが十分に大きい場合、タスク性能向上に追加の事前学習は不要の可能性 Googleなどによるスケーリング則の実験から
GPT-4にRAG(検索拡張生成)を適用するケーススタディ 臨床問題で人間の医師よりも高い精度を達成
ナレッジグラフ(知識グラフ)とLLMを掛け合わせる方法のロードマップ

お問い合わせはこちら

業界/カテゴリー

おすすめ企画

日本ディープラーニング協会

PAGE TOP