| 体系的番号 |
JPMJBY24A6 |
研究代表者 |
磯沼 大 東北大学, 言語AI研究センター, 特任助教(研究)
|
| 研究期間 (年度) |
2025 – 2029 (予定)
|
| 概要 | 現在の大規模言語モデル(LLM)開発は、学習データの量を増やせば増やすほどよいという量的なルール(scaling law)が支配的であり、学習データの中身に関する質的な理解が不足しています。本研究では、LLMの知的能力を引き出す学習データは何か、LLMはどのような順序でそれらを学習するのか、何故それらの学習データにより知的能力が得られるのかを明らかにし、LLMの知的能力発現過程の解明を目指します。
|