Инструменты
Подборка AI-инструментов. Только то, что работает.
BitNet в браузере на любом GPU: пишем WGSL-кернелы с нуля и обходим CUDA
Полный туториал по запуску BitNet LLM в браузере на любом GPU через WebGPU. Пишем WGSL-ядра с нуля для 1-битных моделей. Активация, внимание, слои - всё в брауз
Pantry на Go: решение проблемы амнезии AI-агентов без Python и зависимостей
Как Pantry на Go решает проблему амнезии AI-агентов между сессиями. Сравнение с Echovault, установка, примеры для Claude Code.
Legal RAG Bench переворачивает представление о RAG: Retrieval бьёт Reasoning 2:1
Анализ Legal RAG Bench на 20.02.2026: Kanon 2 Embedder побеждает, ошибки извлечения убивают reasoning, практические выводы для архитектуры RAG-систем.
Context Lens: Я узнал, что Gemini сжирает токены в 15 раз быстрее Claude
Инструмент для анализа расхода токенов в кодинг-агентах. Сравниваем Claude 3.7 Sonnet и Gemini 2.0 Ultra, находим утечки контекста и экономим до 40% на API-вызо
Luma v2.9: как с нуля обучить свою маленькую языковую модель на PyTorch без облаков и API
Пошаговое руководство по обучению Luma v2.9 - маленькой языковой модели с нуля на PyTorch. Локальное обучение без API, структура датасета, персонализация ИИ.
PaddleOCR-VL в llama.cpp: мультиязычный OCR, который не требует GPU
Настройка PaddleOCR-VL в llama.cpp для распознавания текста на 100+ языках. Инструкция, сравнение с альтернативами и примеры использования.
Как использовать 50k датасетов CoT-рассуждений для обучения и оценки своих моделей
Практический обзор огромной коллекции из 50 тысяч датасетов Chain-of-Thought рассуждений на Hugging Face. Узнайте, как загружать, использовать для тонкой настро
Код от гениев GitHub: как собрать идеальный датасет для обучения кодогенераторов в 2026 году
Практическое руководство по использованию датасета из 1.3M+ файлов кода от лучших разработчиков GitHub для обучения LLM-кодогенераторов. Python, TypeScript, Rus
Бесплатный сверхбыстрый вывод Llama 3.1 8B на ASIC: как получить доступ к 16,000 токенов в секунду
Тестируем сверхбыстрый инференс Llama 3.1 8B на ASIC от Taalas: 16,000 токенов в секунду через API. Полный обзор технологии, сравнение с vLLM и llama.cpp, инстр
Makimus-AI: ваш личный Google Photos, который не шпионит и работает на видеокарте
Полный обзор Makimus-AI - open-source инструмента для локального поиска по фото на GPU. Установка, сравнение с альтернативами, примеры использования.
Llama 4 16x17B: как заставить 67 ГБ мультимодальную модель видеть на вашем компьютере
Пошаговый гайд по настройке Llama 4 16x17B (67 ГБ) для анализа изображений локально. Ollama, Open WebUI, тесты производительности и сравнение с альтернативами.
GSI Engram на Intel Arc: 90% экономия VRAM и форк llama.cpp, который работает
Как запустить GSI Engram 70B на Intel Arc A770 с 16GB VRAM через модифицированный llama.cpp. Техника runtime expansion и SYCL бэкенд.