AIDB Daily Papers
日本の司法試験における大規模言語モデルの自由記述式法律推論能力を専門家が評価
※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。
ポイント
- 日本の司法試験の自由記述式問題における大規模言語モデルの法律推論能力を評価する初のデータセットと評価手法を開発しました。
- 既存研究では未開拓であった日本の法制度下でのLLMの自由記述式法律推論能力を、法律専門家による手動評価を通じて明らかにしました。
- LLMは法的問題の特定や構造化された法的議論の構築に課題があり、先行事例や法律に基づかない内容を生成するハルシネーションも確認されました。
Abstract
Large language models (LLMs) have shown strong performance on legal benchmarks, including multiple-choice components of bar exams. However, their capacity for generating open-ended legal reasoning in realistic scenarios remains insufficiently explored. Notably, to our best knowledge, there are no prior studies or datasets addressing this issue in the Japanese context. This study presents the first dataset designed to evaluate the open-ended legal reasoning performance of LLMs within the Japanese jurisdiction. The dataset is based on the writing component of the Japanese bar examination, which requires examinees to identify multiple legal issues from long narratives and to construct structured legal arguments in free text format. Our key contribution is the manual evaluation of LLMs' generated responses by legal experts, which reveals limitations and challenges in legal reasoning. Moreover, we conducted a manual analysis of hallucinations to characterize when and how the models introduce content not supported by precedent or law. Our real exam questions, model-generated responses, and expert evaluations reveal the milestones of current LLMs in the Japanese legal domain. Our dataset and relevant resources will be available online.
Paper AI Chat
この論文のPDF全文を対象にAIに質問できます。
質問の例: