Brain-canvas: визуализируйте вывод любой LLM за 5 минут | Бесплатно | AiManual
AiManual Logo Ai / Manual.
11 Янв 2026 Инструмент

Brain-canvas: когда текстовый вывод LLM надоел до чертиков

npx brain-canvas — инструмент для визуализации JSON-вывода локальных LLM. HTML canvas, Ollama, llama.cpp, ноль зависимостей.

Знакомо чувство, когда ваш прекрасный локальный LLM на Ollama или llama.cpp выдает гениальный ответ, но в виде скучного JSON? А потом вы часами пишете парсеры, пытаясь понять, что вообще происходит в этом потоке токенов? У меня тоже.

Brain-canvas — это плевок в лицо текстовому интерфейсу. Инструмент, который за пять минут превращает ваши JSON-ответы от LLM в интерактивные визуализации. Без установки Python, без npm install, без танцев с бубном.

Запустить проще, чем объяснить

Серьезно, вот вся инструкция:

1Установите Node.js (если его нет)

Да, это единственная зависимость. Если у вас уже есть Node.js 14+, пропускайте этот шаг. Если нет — скачайте с официального сайта. Не надо писать мне, что «я питонист, ненавижу JavaScript». Я тоже питонист. Но иногда нужно просто запустить команду и забыть.

2Запустите brain-canvas

npx brain-canvas

Всё. Серьезно, всё. Утилита скачается, запустится локальный веб-сервер на порту 3000, откроется браузер с интерфейсом.

Не хотите автоматического открытия браузера? Используйте флаг --no-open. Хотите другой порт? --port 8080. Вся магия — в одной команде.

3Настройте вашу LLM

Brain-canvas работает с любой LLM, которая умеет выдавать JSON. Ollama? Легко. llama.cpp? Тоже. Собственный сервер на FastAPI? Да хоть на COBOL.

💡
Если вы только начинаете с локальными LLM, посмотрите полный гид по Ollama или сравнение LM Studio vs llama.cpp.

Что мозг может показать на холсте

Интерфейс brain-canvas — это не просто «красивые картинки». Это инструмент для отладки, анализа и просто любопытства.

Что визуализируется Зачем это нужно
Дерево рассуждений (chain-of-thought) Видеть, как модель приходит к выводу. Где она тупит, где делает скачки логики.
Взвешенные варианты ответов Когда модель предлагает несколько вариантов с вероятностями — визуально сравнить их.
Структурированные данные JSON с категориями, тегами, связями превращается в интерактивную карту.
Прогресс генерации В реальном времени следить, как модель «пишет» ответ.

Пример: вы просите LLM распланировать день. В ответ получаете JSON с задачами, приоритетами, зависимостями. Brain-canvas рисует это как диаграмму Ганта. С возможностью перетаскивать, скрывать, выделять.

Важно: brain-canvas не заменяет серьезные инструменты анализа вроде визуализации скрытых состояний. Это быстрый «костыль» для ежедневного использования.

С чем его едят: интеграция с реальными проектами

Допустим, у вас уже есть проект с локальной LLM. Что делать? Всего три варианта.

Вариант 1: Прокси через brain-canvas

Настраиваете вашу LLM отправлять ответы на локальный сервер brain-canvas. Он принимает JSON, визуализирует, возвращает вам ссылку на просмотр. Работает даже если ваша LLM запущена в Docker.

Вариант 2: Экспорт в файл

Сохраняете вывод LLM в JSON-файл, перетаскиваете его в интерфейс brain-canvas. Подходит для анализа уже сгенерированных ответов — например, когда тестируете разные промпты из коллекции промптов.

Вариант 3: Встроенный виджет

Самый интересный вариант. Brain-canvas предоставляет JavaScript-библиотеку, которую можно встроить в ваш веб-интерфейс. Получили ответ от LLM — отобразили его как интерактивный график прямо на вашей странице.

Это особенно удобно для проектов вроде мультимодальных краулеров — тех, о которых мы писали в статье про построение краулера с нуля.

А что там под капотом? (Спойлер: ничего сложного)

Brain-canvas — это не нейросеть. Это не машинное обучение. Это просто умный рендерер JSON на HTML Canvas.

Технически:

  • Локальный сервер на Express.js
  • Фронтенд на чистом JavaScript + Canvas API
  • Поддержка WebSocket для реального времени
  • Ноль зависимостей в рантайме (все в одном пакете)

Автор сделал инструмент максимально тупым и предсказуемым. И это его главное достоинство. Не нужно разбираться в архитектуре, не нужно настраивать конфиги. Запустил — работает.

💡
Если вам нужен полноценный приватный ассистент без интернета, посмотрите обзор Offloom. Brain-canvas — это визуализация, а не сам AI.

Кому это реально нужно? (Не всем)

Правда в том, что большинству пользователей хватает текстового вывода. Но есть три категории людей, которым brain-canvas спасет жизнь.

Разработчики, которые тестируют свои промпты

Когда вы создаете сложные цепочки промптов для тестирования логики LLM, визуализация дерева рассуждений показывает, где модель сбивается с пути. Текст этого не покажет.

Исследователи, которые сравнивают модели

Вместо того чтобы скроллить тонны JSON-ответов от разных LLM, вы видите их бок о бок на одном холсте. Особенно полезно вместе с инструментами для сравнения графиков.

Преподаватели и демонстраторы

Показать студентам, как работает цепочка рассуждений в LLM, на живом примере. Без необходимости устанавливать тяжелые IDE или писать код.

Альтернативы? Есть. Но...

Конечно, можно написать свой визуализатор на D3.js. Или использовать Grafana с плагинами. Или даже запускать LLM прямо в браузере и там же визуализировать.

Но brain-canvas выигрывает в одном: времени от идеи до результата. Пять минут против пяти часов. Бесплатно против «нужно купить лицензию». Ноль зависимостей против «установите эти 15 пакетов».

Это инструмент для ленивых. Или для тех, у кого нет времени. Или для тех, кто просто хочет посмотреть, что творится в голове у его LLM, без лишних телодвижений.

Самый большой недостаток brain-canvas? Он не умеет «умную» визуализацию. Если ваш JSON кривой — получите кривой график. Инструмент не пытается угадать, что вы имели в виду. Он просто рисует то, что вы дали.

Что дальше? (Совет от инсайдера)

После того как вы поиграетесь с brain-canvas, попробуйте подключить его к реальному проекту. Например, к Brain Pocket — минималистичному способу запуска ИИ.

Или создайте свой собственный формат JSON для визуализации. Brain-canvas поддерживает плагины (пока экспериментально). Можно научить его рисовать специфичные для вашей задачи диаграммы.

Мой прогноз: через год такие инструменты станут стандартом для отладки LLM. Потому что текстовые логи — это как пытаться понять симфонию, читая ноты. А визуализация — это услышать ее.

Запустите npx brain-canvas прямо сейчас. Даже если вам не нужно. Просто чтобы посмотреть, как выглядит мысль вашей LLM. Это занимает пять минут. А впечатлений — на неделю.