Учени от сингапурската компания Sapient разработиха иновативен модел на изкуствен интелект, наречен Йерархичен модел за разсъждения (HRM), вдъхновен от човешкия мозък. За разлика от традиционните големи езикови модели (LLM) като ChatGPT, HRM използва йерархична и многомащабна обработка, за да постигне впечатляващи резултати в сложни задачи с минимални ресурси. Според проучване, публикувано на 26 юни 2025 г. в базата данни arXiv (все още без рецензия), HRM разполага с едва 27 милиона параметъра и изисква само 1000 примера за обучение, в сравнение с милиарди или трилиони параметри на модерните LLM, като предполагаемия GPT-5 с 3–5 трилиона параметъра.
Превъзходство в ARC-AGI бенчмарка
HRM демонстрира забележителна производителност в ARC-AGI бенчмарка – тест, известен с високата си трудност за оценка на близостта до изкуствен общ интелект (AGI). Резултатите показват:
- ARC-AGI-1: HRM постига 40,3%, надминавайки o3-mini-high на OpenAI (34,5%), Claude 3.7 на Anthropic (21,2%) и Deepseek R1 (15,8%).
- ARC-AGI-2: HRM записва 5%, спрямо 3% за o3-mini-high, 1,3% за Deepseek R1 и 0,9% за Claude 3.7.
Иновативен подход без верижно мислене
За разлика от повечето LLM, които разчитат на верижно мислене (CoT) – разбиване на сложни задачи на по-прости стъпки на естествен език – HRM изпълнява последователни задачи за разсъждение в един напредък. Това се постига чрез два модула:
- Високо ниво: Бавно, абстрактно планиране.
- Ниско ниво: Бързи, детайлни изчисления.
Моделът прилага итеративно усъвършенстване, подобрявайки решенията чрез кратки „мислителни импулси“, които оценяват дали да продължат или да финализират отговора. Този подход елиминира недостатъците на CoT, като нестабилно разлагане, големи изисквания за данни и висока латентност.
Изключителни резултати при сложни задачи
HRM постига почти перфектна точност при задачи като сложни Судоку пъзели и намиране на оптимални пътища в лабиринти, където традиционните LLM се провалят. Това подчертава способността му да обработва сложни разсъждения ефективно.
Възпроизводимост и изненадващи открития
След публикуването на модела в GitHub, организаторите на ARC-AGI потвърдиха резултатите, но отбелязаха, че йерархичната архитектура има минимален принос за производителността. Вместо това, ключов фактор е недокументиран процес на усъвършенстване по време на обучението, който значително повишава резултатите.