1. 前のページに戻る

大規模言語モデルにおける長文脈処理能力の自律的獲得

研究課題

戦略的な研究開発の推進 戦略的創造研究推進事業 ACT-X

体系的番号 JPMJAX25CN

研究代表者

Ma Youmi  東京科学大学, 情報理工学院, 助教

研究期間 (年度) 2025 – 2027
概要大規模言語モデル(LLM)には、処理する系列・文脈が長くなるにつれて性能が低下するという限界がある。本研究では、この限界を克服するため、モデル自身が短文脈処理における中間表現や出力結果を手かがりに、自律的に長文脈処理能力を獲得・高度化する方法を創出する。これにより、長い文脈に対しても正確に処理できるLLMを実現するのとともに、LLMが文脈を処理するメカニズムの解明に挑戦する。
研究領域次世代AIを築く数理・情報科学の革新

URL: 

JSTプロジェクトデータベース掲載開始日: 2026-01-14   JSTプロジェクトデータベース最終更新日: 2026-01-15  

サービス概要 よくある質問 利用規約

Powered by NII jst