大規模言語モデルにおける長文脈処理能力の自律的獲得
| 体系的番号 |
JPMJAX25CN |
研究代表者 |
Ma Youmi 東京科学大学, 情報理工学院, 助教
|
| 研究期間 (年度) |
2025 – 2027
|
| 概要 | 大規模言語モデル(LLM)には、処理する系列・文脈が長くなるにつれて性能が低下するという限界がある。本研究では、この限界を克服するため、モデル自身が短文脈処理における中間表現や出力結果を手かがりに、自律的に長文脈処理能力を獲得・高度化する方法を創出する。これにより、長い文脈に対しても正確に処理できるLLMを実現するのとともに、LLMが文脈を処理するメカニズムの解明に挑戦する。
|
| 研究領域 | 次世代AIを築く数理・情報科学の革新 |