次回の更新記事:「データは多ければ良い」は本当か?データを減らし…(公開予定日:2025年11月12日)

記事スタイル

文脈内学習は「少数事例からの単純な学習だけでなく、言語モデルが持つ幅広い適応能力」
LLM同士による人工言語コミュニケーションで発見された「言語構造の創発」
LLMを利用した「自動データクリーニング」方法
科学者はLLMをどう使っているのか、何を好むのか
LLMの開発トレンドに新たに見出された『密度化の法則』および『能力密度』の概念
LLMにおける事実性の評価&向上に役立つデータセットの作り方
OpenAI o1モデルファミリー登場 その特徴の全貌
実在する人間1052人の態度と行動をAIでモデル化 インタビューベースのエージェントが人間の回答を85%再現
テキストだけでなく画像・動画生成もこなすAmazon Novaモデルファミリー 高性能で高速
実際の企業データからなるtext-to-SQLベンチマーク「Spider 2.0」と専門エージェント『Spider-Agent』
時系列データをグラフにしてLLMに見せると文字だけより最大120%性能向上 トークンも節約
長文コンテキスト処理はRAGを進化させるのか?最新モデル20種類での実験結果
『LLM-as-a-judge』のさまざまな応用と分野の展望
LLMを「評価者」として活用する『LLM-as-a-judge』の基本
OpenAIのo1モデルへの対抗馬 アリババが独自の推論モデル「Marco-o1」を開発 オープンソースで公開

プロフィールを登録すると
仕事のオファーが届きます

プロフィール登録
PAGE TOP