Учебные материалы
RunPod — dumpster fire? Сравнение альтернатив для дешёвого и стабильного vLLM inference в облаке
TensorDock, Vast.ai, Lambda Labs и другие платформы для дешёвого vLLM inference. Сравнение цен, настройка, подводные камни на основе реального опыта сообщества.
Пошаговый туториал: как обучить CodeFu-7B для решения задач по программированию с помощью veRL и Ray на Amazon SageMaker
Полное руководство по обучению модели CodeFu-7B для решения задач по программированию с использованием векторизованного RL и Ray на Amazon SageMaker. Пошаговый
Практическое руководство по генерации структурированного JSON из LLM с помощью Dottxt Outlines в AWS SageMaker
Пошаговая инструкция по интеграции Dottxt Outlines в AWS SageMaker для гарантированно валидного JSON вывода из больших языковых моделей в продакшене.
INSTRUCTION_GENTLEMAN: полное руководство по созданию системной инструкции для борьбы с галлюцинациями ИИ
Глубокий гайд по созданию инструкции на 25 000 слов для борьбы с галлюцинациями ИИ. Методики CoVe, Red Teaming, гранулярные светофоры и адаптивный pipeline.
Как построить пайплайн разработки на C++ с помощью 4 разных ИИ: роли Claude, ChatGPT и Gemini в production-проекте
Полный workflow: Claude 4.5 как архитектор, ChatGPT 5.2 для ревью, Gemini 3 для оптимизации и локальная модель для кода. Готовый пайплайн для production-проекто
Агентское кодирование на Mac с GLM-5 и MLX: настройка, производительность и ограничения контекста
Полное руководство по запуску GLM-5 на Mac для агентского кодирования. Настройка MLX, тесты производительности, работа с ограничениями контекста.
Как рассчитать железо для развертывания MiniMax M2.5: гайд по аппаратным требованиям для 8+ параллельных запросов
Пошаговый расчет сервера для MiniMax M2.5: VRAM, RAM, CPU, выбор материнской платы. Конфигурация на 7x RTX 3090 для 35 t/s. Актуально на 2026 год.
Гайд по выбору моделей и квантований для AMD Strix Halo 128GB: оптимизация под APU и GPU-режим
Полный гайд по выбору языковых моделей и квантований под AMD Strix Halo 128GB. Оптимизация для APU и GPU-режима, сравнение форматов, реальные скорости и ошибки.
Три границы возможностей AI-моделей: интеллект, скорость, стоимость — интервью с лидом Google Cloud AI
Эксклюзивное интервью с лидом Google Cloud AI о том, как выбирать модели для продакшена, балансируя между интеллектом, скоростью отклика и стоимостью масштабиро
Практическое руководство: разработка AI-агентов на Kotlin Multiplatform для Android, iOS, Web и Desktop
Пошаговая инструкция по созданию кроссплатформенных AI-агентов на Kotlin Multiplatform с локальными LLM. Актуальные инструменты и библиотеки на 2026 год.
Как собрать портативную рабочую станцию для AI-инференса: компоненты, тонкая настройка и бенчмарки
Полное руководство по сборке портативной рабочей станции для AI-инференса. Выбор железа, андервольтинг GPU, настройка RAM, бенчмарки для GPT-OSS 120B. Актуально
Бенчмарк 17 локальных LLM на реальном MCP tool calling: single-shot против agentic loop (методология и результаты)
Сравнение 17 локальных LLM на реальных задачах MCP tool calling: методология, результаты single-shot и agentic loop подходов. Практические выводы.