Инструменты
Подборка AI-инструментов. Только то, что работает.
LFM 2.5 1.2B: языковая модель, которая обгоняет мысль
Обзор модели LFM 2.5 1.2B: 578 токенов в секунду на десктопе, потенциал для Raspberry Pi, сравнение с альтернативами и примеры использования.
AgentCPM-Explore: 4B параметра на вашем ноутбуке. Как SOTA-агент бьет рекорды без облаков
Запустите AgentCPM-Explore локально – 4B SOTA-агент с открытым кодом. Используйте AgentRL, AgentDock, AgentToLeaP для обучения и оценки. Полное руководство.
Как использовать и дообучить 500Мб NER-модель tanaos-NER-v1 локально на CPU с помощью Artifex
Пошаговый гайд по использованию и дообучению легкой NER-модели tanaos-NER-v1 локально на CPU с библиотекой Artifex. Примеры кода на Python.
Как работает Confer: первый по-настоящему приватный AI-ассистент с шифрованием в TEE
Как Moxie Marlinspike создал приватный AI-ассистент с шифрованием в Trusted Execution Environment. Сравнение с локальными альтернативами.
FrogBoss и FrogMini: как Microsoft создала AI-агентов для автоматического исправления багов в коде
Как Microsoft создала FrogBoss и FrogMini - AI-агентов для автоматического исправления багов в коде. Технические детали, сравнение с альтернативами и примеры ис
EAFT в бою: тест на uncensor-задаче против обычного fine-tuning
Практический эксперимент: сравниваем Entropy Adaptive Fine Tuning с обычным fine-tuning на задаче uncensor. Результаты, код, модели.
Tencent WeDLM-8B в chatllm.cpp: декодирование на грани и почему GPU иногда проигрывает
Подробный обзор запуска модели WeDLM-8B в chatllm.cpp: настройка параметров block_size, accept_algo, сравнение производительности CPU и GPU.
Gemma 3 1B Q4_0 GGUF: как правильно квантовать QAT-модель без imatrix
Пошаговая инструкция по правильному квантованию Gemma 3 1B в формат GGUF без использования imatrix. Исправление метаданных и токенизатора.
Baichuan-M3-235B: как медицинская LLM превзошла GPT-5.2 и какие техники снижают галлюцинации
Китайская модель Baichuan-M3-235B превзошла GPT-5.2 в медицинских тестах HealthBench. Как Fact-Aware RL и W4 квантование снижают галлюцинации.
Как превратить любое видео в книжку-раскладушку для ребёнка: туториал по Vid2BedtimeStory
Полный туториал по превращению видео в книжку-раскладушку для детей. Скриншоты, генерация текста, создание PDF. Локальные LLM и Google Play Books.
SurfSense: локальный ассистент, который не сливает ваши документы в облако
Как развернуть SurfSense - приватный RAG-ассистент с поддержкой 100+ LLM через Ollama. Полная инструкция по Docker-установке.
Сжатие вывода инструментов для AI-агентов: как сократить контекст на 70% и снизить стоимость
Открытая библиотека ToolTrim сжимает вывод инструментов AI-агентов на 60-70%, снижая стоимость inference. Статистическая фильтрация и удаление избыточных данных