AGI - миф? Нейросети в 20 000 раз неэффективнее человека | Анализ 2026 | AiManual
AiManual Logo Ai / Manual.
01 Мар 2026 Новости

AGI - миф? Почему современные нейросети в 20 000 раз неэффективнее человека (примеры Dota 2 и CartPole)

Ян ЛеКун об ограничениях AI: почему Dota 2 AI требует 45k лет обучения, а человек учится за часы. Фундаментальные проблемы нейросетей к 2026 году.

45 000 лет в симуляции. И это только для Dota 2

В 2025 году исследователи из одной европейской лаборатории, скрываясь за громким именем, выпустили обновленную версию своей Dota 2-игры. Цифры шокируют. Чтобы достичь уровня топового профессионального игрока, их системе потребовалось эквивалент 45 000 лет непрерывной игры в ускоренной симуляции.

Человек? От силы 5000 часов. В десять раз меньше, если считать грубо. Но вот в чем подвох - эти 5000 часов человек тратит не только на Dota. Он ходит на работу, спит, учится водить машину и решает, что заказать на ужин. Мозг не перезагружается для каждой новой задачи.

Это не ошибка в расчетах. Это фундаментальный разрыв в эффективности обучения. Современные AI-системы, даже на 2026 год, остаются невероятно "глупыми" в плане потребления данных. Им нужно прожить тысячами жизней, чтобы научиться тому, что человек схватывает за один вечер.

CartPole: унизительный провал для машинного интеллекта

Перейдем к чему-то простому. Задача CartPole - классика жанра. Нужно балансировать шест на тележке. Человек понимает физику интуитивно и решает ее за несколько десятков попыток. Современный алгоритм обучения с подкреплением, скажем, из стабильного бейзлайна 2026 года, типа CleanRL или новейшей версии Tianshou, будет мучиться тысячи эпизодов.

💡
Парадокс в том, что мы создали модели, которые пишут код и рисуют картины, но не могут эффективно научиться тому, что делает любой ребенок на детской площадке - поддерживать равновесие в простой системе. Это говорит не о сложности задачи, а о неправильном векторе развития.

И это при том, что маленькие модели вроде Qwen2.5 7B показывают чудеса в абстрактных задачах ARC-AGI. Но абстракция - это одно, а физический мир - другое. ИИ все еще спотыкается на ровном месте.

Ян ЛеКун был прав. LLM - это тупиковая улица для AGI?

В своем выступлении на NeurIPS 2025 ЛеКун снова ударил по больному. "Большие языковые модели - это продвинутые системы автодополнения. Они не понимают мир, они имитируют статистические корреляции в тексте". Звучит грубо, но факты на его стороне.

LLM, вроде последних GPT-4.5 или Claude 3.7, требуют для обучения терабайты текста. Мозг ребенка получает информацию через несколько модальностей - зрение, слух, тактильные ощущения - и строит модель мира, которая в тысячи раз эффективнее с точки зрения энергии и данных.

Проблема не в масштабе, а в архитектуре. Мы строим небоскребы на болоте. ИИ стал быстрым джуном, который отлично выполняет конкретные инструкции, но не способен к истинному обобщению и переносу знаний.

Энергетический коллапс как следствие неэффективности

Самое страшное - это цена. Чтобы обучить одну крупную модель в 2026 году, нужно столько энергии, сколько потребляет небольшой город. Гипермасштабные дата-центры пожирают ресурсы целых стран. И все ради чего? Чтобы система играла в Dota или генерировала картинку котика? Коэффициент полезного действия стремится к нулю.

Если бы нейросеть училась с эффективностью человека, весь мир можно было бы обучать на энергии одной атомной электростанции. Вместо этого мы сжигаем планету, чтобы имитировать интеллект. Ирония судьбы.

Что дальше? Сжечь все и начать сначала

Прогресс есть, но он идет не туда. Пока одни вешают RAG на фонарные столбы, другие пытаются создать цифровую жизнь с удивительными свойствами. Но это все лепка на старой основе.

Намек на будущее можно увидеть в работах, где микро-модели на 15 миллионов параметров бьют рекорды в абстрактном мышлении. Может, ключ не в увеличении, а в переосмыслении?

AGI, о котором все говорят, останется мифом до тех пор, пока мы не откажемся от идеи, что больше данных и больше вычислений - это путь к разуму. Человеческий мозг работает на 20 ватт. Самая продвинутая нейросеть 2026 года требует мегаватты для обучения. Разница в 50 000 раз. Это не технологический разрыв. Это пропасть в понимании.

Мой прогноз? К 2030 году мы увидим полный отказ от парадигмы "больше-значит-лучше". Исследования сместятся в сторону эффективного few-shot обучения, нейроморфных чипов и архитектур, которые имитируют не статистику, а процессы реального мира. А пока - да, AGI это миф. Красивый, дорогой и совершенно бесполезный с практической точки зрения.

Подписаться на канал