PS5 для LLM: реально ли получить дешёвый GPU за $500? | AiManual
AiManual Logo Ai / Manual.
29 Апр 2026 Новости

Взлом PS5 для локального инференса LLM: дешёвый GPU или пустая затея?

Разбираем, стоит ли взламывать PS5 для запуска нейросетей. Технические ограничения, сравнение с RTX 3090 и альтернативы на 2026 год.

Консольный хайп: почему вдруг PS5?

Слухи о том, что взломанную PlayStation 5 можно использовать для запуска больших языковых моделей (LLM), взорвали реддит и твиттер в начале 2026 года. Идея проста до зуда: купить консоль за 500 долларов, установить Linux, накатить что-то вроде llama.cpp и получить дешёвый GPU для инференса. Звучит сказочно, особенно на фоне замедления релизов NVIDIA и кризиса с серверным железом. Но за красивой картинкой скрывается куча граблей.

Важно: На момент 29 апреля 2026 года не существует стабильного общедоступного образа Linux для PS5 с открытыми драйверами AMD. Сторонние билды существуют, но работают через костыли.

Что под капотом? (Спойлер: не всё так радужно)

PS5 использует APU от AMD с архитектурой RDNA 2. 36 вычислительных блоков, 10.28 TFLOPS в пике, 16 ГБ общей GDDR6 — характеристики для 2020 года впечатляющие, но для LLM — сомнительные. Главная проблема: память общая. У вас нет выделенной VRAM в 16 ГБ — система, GPU и Linux делят один пул. Реально на инференс остаётся 12-13 ГБ, если повезёт.

Для сравнения: сборка из трёх RTX 3090 даёт 72 ГБ VRAM и стоит как две PS5. А одна RTX 3060 12 ГБ на вторичке — около 250 долларов. PS5 выглядит дороговатой для своих 12 ГБ.

Главный враг — драйверы

AMD официально не поддерживает GPU PS5 под Linux. Энтузиасты из сообщества Homebrew перепрошивают драйверы от Radeon RX 6700 XT, но работают они криво: потери производительности до 30-40%. Плюс ROCm — фреймворк AMD для машинного обучения — на консольные карты не портирован. Приходится использовать Vulkan compute через llama.cpp, а это дополнительный overhead.

Кстати, про overhead: eGPU на Thunderbolt теряет до 40% скорости, а тут пропускная способность между CPU и GPU внутри APU всё равно ниже, чем у дискретной карты. Итог: теории 10 TFLOPS на практике дают, может, 4-5.

Что можно запустить?

Llama 3.1 8B в 4-битной квантизации — да, работает (0.5-1 токен в секунду — это почти чтение в реальном времени). Mistral 7B — аналогично. Llama 3 70B? Только если использовать CPU offloading с памятью 16 ГБ, и то будет 0.1 токен/с. Для сравнения: две RTX 4090 выдают 50+ токен/с на 70B. Разница в сотню раз.

💡
Даже самая дешёвая RTX 3060 12GB на llama.cpp через CUDA даёт ~30 токен/с на 8B модели. PS5 проигрывает в 3-4 раза при той же квантизации.

Экономика: PS5 vs б/у железо

Сейчас взломанная PS5 на вторичке стоит 400-500 баксов (зависит от прошивки). За эти деньги можно взять RTX 3090 с 24 ГБ — и не мучиться. Да, в AMD R9700 с 96 ГБ цена заоблачная, но есть и доступные решения от Intel (Arc A770 16GB за 250).

Если очень хочется консоль, то лучше подождать PS5 Pro с 18 ГБ GDDR6 — но её взлом вряд ли появится раньше 2027. А пока — сравнение профессиональных карт показывает, что даже RTX A4000 (16 ГБ) за 800 баксов работает в разы стабильнее.

Софт — yet another problem

Нет готового дистрибутива с предустановленным ML-стеком под PS5. Вам придётся компилировать llama.cpp самому, править конфиги, настраивать Vulkan, искать бинарники ROCm. Ошибка на шаге — и вы проводите вечер в консоли, а не инференсите.

Энтузиасты из r/ps5homebrew обещали выпустить образ с LLM-тулкитом к лету 2026, но пока тишина. Когда такой образ появится — может быть, идея станет менее безумной.

Вердикт: для кого это?

PS5 как дешёвый GPU для LLM — это эксперимент для фанатов, а не рабочая лошадка. Если у вас уже есть взломанная консоль и вы хотите поиграть с маленькими моделями — ок. Но покупать консоль специально ради инференса — пустая трата денег. Лучше потратьте 500 баксов на бюджетную сборку с 192 ГБ RAM и подержанным GPU — толку будет больше.

Закончу мыслью: гиганты вроде NVIDIA откладывают RTX 50 Super, а AMD не спешит адаптировать ROCm под консоли. Пока индустрия буксует, консольный взлом — это просто хайп. Но, чёрт возьми, я бы соврал, если бы сказал, что мне не интересно попробовать.

Подписаться на канал