Инструменты
Подборка AI-инструментов. Только то, что работает.
Sarvam AI 30B и 105B: индийский MoE-гигант с 128K контекстом, который не стесняется своих языков
Полный разбор Sarvam AI 30B и 105B: Mixture of Experts, обучение с нуля на хинди и тамильском, 128K контекст. Сравнение с Qwen2.5, Llama 3.2 и другими.
Как создать слой рефлексии для локальных LLM: опыт-engine для Ollama (Python, JSON)
Пошаговый гайд по созданию слоя рефлексии для локальных LLM в Ollama. Используем Python и JSON для персонализации модели.
Claude-spend: когда токены утекают сквозь пальцы, а кошелек плачет
Установка npx claude-spend, анализ использования токенов и экономия бюджета на Claude Code в 2026 году. Локальный трекинг без отправки данных.
20 финтюнов Gemma 3 от DavidAU: взломанные, мощные и почти без цензуры
Обзор 20 кастомизированных версий Gemma 3 от DavidAU на HuggingFace. Готовые модели с улучшенным reasoning и снятыми ограничениями для локального использования.
PersonaPlex-7B на Mac: как заставить speech-to-speech модель работать на Apple Silicon
Полное руководство по портированию speech-to-speech модели PersonaPlex-7B на Mac Apple Silicon с использованием MLX фреймворка. Локальный запуск без CUDA.
APEX Testing: когда ELO-рейтинг для кодинговых моделей перестал быть абстракцией
Обзор APEX Testing — независимого бенчмарка, тестирующего GPT 5.1, GPT 5.2, Claude Code и другие модели на 65 реальных задачах из 8 категорий с ELO-рейтингом.
Entropy-v1: когда AI-слэп так бесит, что пишешь под него целую LoRA
Технический разбор Entropy-v1 — LoRA для Gemma-3-27b, которая превращает бездушный AI-слэп в живой человеческий текст. Параметры, датасеты, сравнение с Unsloppe
Game Agent Coding League: как GLM-5 и DeepSeek пишут игровых ботов — обзор бенчмарка и исходного кода
Разбор Game Agent Coding League — открытого бенчмарка, где GLM-5, DeepSeek и другие модели пишут ботов для Battleship. Результаты, код, ошибки.
HERETIC: как вырезать цензуру из LLM, не спрашивая разрешения
HERETIC 2.0 - инструмент для автоматического удаления цензуры и guardrails из локальных LLM. Гайд по ablation методу, установке и использованию. Сравнение с Ref
Qwen3.5 397B на FP4: запускаем гиганта на Blackwell и RTX PRO 6000 без компромиссов
Полное руководство по запуску Qwen3.5 397B с квантованием FP4 на NVIDIA Blackwell и RTX PRO 6000. Аппаратные требования, настройка SGLANG, спекулятивный декодин
Zero-Shot Transferable Adapter: хак, который меняет правила fine-tuning'а
Новая методика переноса знаний между моделями без fine-tuning: экономия ресурсов, soft targets и практическое применение в 2026 году.
Decompose: ускорьте RAG в 70 раз, отфильтровав документы regex-ом перед отправкой в LLM
Библиотека Decompose ускоряет RAG-системы в 70 раз, фильтруя документы regex-ом перед отправкой в LLM. Установка, примеры, сравнение с альтернативами.