- Самые ожидаемые игры 2026 года
- Лучшие игры 2025 года: выбор читателей и редакции
- Обзор ноутбука TECNO MEGABOOK S14 (S14MM): OLED с HDR как новая норма
- Итоги 2025 года: носимые устройства
- Итоги 2025 года: игровые видеокарты
- Итоги 2025 года: смартфоны
- Итоги 2025 года: почему память стала роскошью и что будет дальше
- Лучшие ИИ-сервисы и приложения 2025 года: боты одолевают
- Итоги 2025-го: ИИ-лихорадка, рыночные войны, конец эпохи Windows 10 и ещё 12 главных событий года
- Итоги 2025 года: компьютер месяца
- Итоги 2025 года: интернет-индустрия
- Итоги 2025 года: процессоры для ПК
- Итоги 2025 года: программное обеспечение
Учёные из Массачусетского технологического института (MIT) элегантно решили одну из главных проблем ИИ — ограничения контекстного окна. Обычно LLM оперирует сотней-другой тысяч токенов, что не позволяет полноценно работать с многотомными архивами. Новая рекурсивная модель лишена этого недостатка, используя вместо памяти систему навигации по контексту.
Самые ожидаемые игры 2026 года
Лучшие игры 2025 года: выбор читателей и редакции
Обзор ноутбука TECNO MEGABOOK S14 (S14MM): OLED с HDR как новая норма
Итоги 2025 года: носимые устройства
Итоги 2025 года: игровые видеокарты
Итоги 2025 года: смартфоны
Итоги 2025 года: почему память стала роскошью и что будет дальше
Лучшие ИИ-сервисы и приложения 2025 года: боты одолевают
Итоги 2025-го: ИИ-лихорадка, рыночные войны, конец эпохи Windows 10 и ещё 12 главных событий года
Итоги 2025 года: компьютер месяца
Итоги 2025 года: интернет-индустрия
Итоги 2025 года: процессоры для ПК
Итоги 2025 года: программное обеспечение
Новый подход реализован в архитектуре «рекурсивной языковой модели» (Recursive Language Models, RLM). Традиционные большие языковые модели удерживают всю необходимую информацию внутри так называемого контекстного окна с довольно жёстким и ограниченным числом токенов и быстро теряют точность выводов, когда объём входных данных превышает этот лимит. Модель RLM предлагает иной подход: она не пытается запомнить исходные данные целиком, а рассматривает их как внешнее пространство, по которому можно перемещаться и из которого можно извлекать релевантные фрагменты по мере необходимости. Навигация заменяет память.
Ключевое отличие RLM от LLM заключается в том, что механизм обращения к информации становится динамическим и рекурсивным (с вложениями, как в случае древовидной структуры папок файловой системы). Модель анализирует запрос, формирует поисковое действие, получает необходимые сегменты данных и повторяет процесс до достижения заданной глубины понимания. В результате архитектура способна работать с массивами информации, превышающими традиционную вместимость контекстного окна в десятки и сотни раз, без непомерного увеличения вычислительных ресурсов.
Предлагаемая технология открывает новые возможности для сфер, требующих работы с объёмными документами или сложными структурированными данными. Например, в юридической практике ИИ сможет анализировать полные архивы дел, а не только отдельные фрагменты; в программировании — воспринимать большие объёмы кода; в аналитике — сочетать и сопоставлять множество научных публикаций без предварительной обработки. Способность модели работать с масштабными наборами данных снижает риски искажений фактов и ошибок, связанных с «потерей» контекста из-за того, что он на каком-то этапе выпал из памяти модели.
Специалисты MIT предоставили как полноценную библиотеку, реализующую принципы RLM, так и минимальный эталонный код, что упростит знакомство с технологией для всех заинтересованных лиц и ускорит её внедрение. Некоторые компании уже начали адаптировать архитектуру под свои продукты, что лишний раз подтвердило применимость RLM за пределами лабораторий. Таким образом, модели Recursive Language Models могут стать значимым этапом в эволюции нейросетевых архитектур, поскольку предлагают не увеличение объёма памяти модели, а качественно новый способ работы с большими массивами информации.
